
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Cakrawala yang jauh selalu keruh, detail menit dikaburkan oleh jarak semata dan kabut atmosfer. Inilah sebabnya mengapa peramalan masa depan sangat tidak tepat: kita tidak dapat dengan jelas melihat garis besar bentuk dan peristiwa di depan kita. Sebaliknya, kami mengambil tebakan yang berpendidikan.
Skenario AI 2027 yang baru diterbitkan, yang dikembangkan oleh tim peneliti dan peramal AI dengan pengalaman di lembaga-lembaga seperti Openai dan Pusat Kebijakan AI, menawarkan ramalan 2 hingga 3 tahun terperinci untuk masa depan yang mencakup tonggak teknis spesifik. Menjadi jangka pendek, itu berbicara dengan sangat jelas tentang AI kami dalam waktu dekat.
Diinformasikan oleh umpan balik ahli yang luas dan latihan perencanaan skenario, AI 2027 menguraikan perkembangan seperempat dari kemampuan AI yang diantisipasi, terutama model multimodal yang mencapai penalaran dan otonomi tingkat lanjut. Apa yang membuat ramalan ini sangat penting adalah spesifisitasnya dan kredibilitas kontributornya, yang memiliki wawasan langsung tentang jaringan pipa penelitian saat ini.
Prediksi yang paling menonjol adalah bahwa kecerdasan umum buatan (AGI) akan dicapai pada tahun 2027, dan pengawasan buatan (ASI) akan mengikuti beberapa bulan kemudian. AGI mencocokkan atau melampaui kemampuan manusia di hampir semua tugas kognitif, dari penelitian ilmiah hingga upaya kreatif, sambil menunjukkan kemampuan beradaptasi, penalaran akal sehat dan peningkatan diri. ASI melangkah lebih jauh, mewakili sistem yang secara dramatis melampaui kecerdasan manusia, dengan kemampuan untuk memecahkan masalah yang bahkan tidak dapat kita pahami.
Seperti banyak prediksi, ini didasarkan pada asumsi, tidak sedikit dari itu adalah bahwa model dan aplikasi AI akan terus berkembang secara eksponensial, seperti yang mereka miliki selama beberapa tahun terakhir. Dengan demikian, itu masuk akal, tetapi tidak dijamin untuk mengharapkan kemajuan eksponensial, terutama karena penskalaan model -model ini sekarang dapat mencapai pengembalian yang semakin berkurang.
Tidak semua orang setuju dengan prediksi ini. Ali Farhadi, CEO Institut Allen untuk Kecerdasan Buatan, The New York Times: “Saya semua untuk proyeksi dan ramalan, tapi ini [AI 2027] Prakiraan tampaknya tidak didasarkan pada bukti ilmiah, atau kenyataan bagaimana segala sesuatu berkembang dalam AI. ”
Namun, ada orang lain yang memandang evolusi ini sebagai masuk akal. Salah satu pendiri Anthropic Jack Clark menulis dalam buletin Impor AI-nya bahwa AI 2027 adalah: “Perlakuan terbaik tentang seperti apa 'hidup dalam eksponensial'.” Dia menambahkan bahwa itu adalah a “Narasi yang lihai secara teknis beberapa tahun ke depan dari pengembangan AI. ” Garis waktu ini juga selaras dengan yang diusulkan oleh CEO antropik Dario Amodei, yang telah mengatakan bahwa AI yang dapat melampaui manusia di hampir semua hal akan tiba dalam dua hingga tiga tahun ke depan.
Akselerasi Besar: Gangguan Tanpa Preseden
Ini sepertinya waktu yang baik. Ada saat -saat serupa seperti ini dalam sejarah, termasuk penemuan mesin cetak atau penyebaran listrik. Namun, kemajuan itu membutuhkan bertahun -tahun dan dekade untuk memiliki dampak yang signifikan.
Kedatangan Agi terasa berbeda, dan berpotensi menakutkan, terutama jika sudah dekat. AI 2027 menggambarkan satu skenario bahwa, karena ketidakselarasan dengan nilai -nilai kemanusiaan, AI yang superintelligen menghancurkan kemanusiaan. Jika mereka benar, risiko paling konsekuensial bagi kemanusiaan sekarang mungkin berada dalam cakrawala perencanaan yang sama dengan peningkatan smartphone Anda berikutnya. Untuk bagiannya, kertas Google Deepmind mencatat bahwa kepunahan manusia adalah hasil yang mungkin dari AGI, meskipun tidak mungkin dalam pandangan mereka.
Pendapat berubah perlahan sampai orang disajikan dengan bukti yang luar biasa. Ini adalah salah satu takeaway dari karya tunggal Thomas Kuhn “Struktur Revolusi Ilmiah.” Kuhn mengingatkan kita bahwa pandangan dunia tidak bergeser dalam semalam, sampai, tiba -tiba, mereka melakukannya. Dan dengan AI, pergeseran itu mungkin sudah berlangsung.
Masa depan mendekat
Sebelum penampilan model bahasa besar (LLM) dan chatgpt, proyeksi median waktu untuk AGI jauh lebih lama daripada sekarang. Konsensus di antara para ahli dan pasar prediksi menempatkan median yang diharapkan kedatangan AGI sekitar tahun 2058. Sebelum 2023, Geoffrey Hinton – salah satu “ayah baptis AI” dan pemenang penghargaan Turing – berpikir Agi adalah “30 hingga 50 tahun atau bahkan lebih lama lagi.” Namun, kemajuan yang ditunjukkan oleh LLMS membawanya untuk berubah pikiran dan mengatakan itu bisa tiba segera setelah 2028.
Ada banyak implikasi bagi kemanusiaan jika AGI tiba dalam beberapa tahun ke depan dan diikuti dengan cepat oleh ASI. Menulis di Fortune, Jeremy Kahn mengatakan bahwa jika Agi tiba dalam beberapa tahun ke depan “memang bisa menyebabkan kehilangan pekerjaan besar, karena banyak organisasi akan tergoda untuk mengotomatiskan peran.”
Runway AGI dua tahun menawarkan masa tenggang yang tidak memadai bagi individu dan bisnis untuk beradaptasi. Industri seperti layanan pelanggan, pembuatan konten, pemrograman, dan analisis data dapat menghadapi pergolakan yang dramatis sebelum infrastruktur pelatihan ulang dapat ditentukan. Tekanan ini hanya akan mengintensifkan jika resesi terjadi dalam jangka waktu ini, ketika perusahaan sudah mencari untuk mengurangi biaya penggajian dan seringkali menggantikan personel dengan otomatisasi.
Cogito, Ergo… AI?
Bahkan jika AGI tidak menyebabkan kehilangan pekerjaan yang luas atau kepunahan spesies, ada konsekuensi serius lainnya. Sejak zaman akal, keberadaan manusia telah didasarkan pada keyakinan bahwa kita penting karena kita pikir.
Keyakinan bahwa pemikiran ini mendefinisikan keberadaan kita memiliki akar filosofis yang mendalam. René Descartes, menulis pada tahun 1637, yang mengartikulasikan frasa yang sekarang terkenal: “Je Pense, Donc Je Suis” (“Saya pikir, oleh karena itu saya”). Dia kemudian menerjemahkannya ke dalam bahasa Latin: “Cogito, Ergo Sum. “ Dengan melakukan hal itu, ia mengusulkan bahwa kepastian dapat ditemukan dalam tindakan pemikiran individu. Bahkan jika dia tertipu oleh indranya, atau disesatkan oleh orang lain, fakta bahwa dia berpikir membuktikan bahwa dia ada.
Dalam pandangan ini, diri berlabuh dalam kognisi. Itu adalah ide revolusioner pada saat itu dan memunculkan humanisme pencerahan, metode ilmiah dan, pada akhirnya, demokrasi modern dan hak -hak individu. Manusia sebagai pemikir menjadi tokoh utama dunia modern.
Yang menimbulkan pertanyaan mendalam: Jika mesin sekarang dapat berpikir, atau tampaknya berpikir, dan kami melakukan outsourcing pemikiran kami kepada AI, apa artinya itu bagi konsepsi modern tentang diri? Sebuah studi terbaru yang dilaporkan oleh 404 media mengeksplorasi teka -teki ini. Ditemukan bahwa ketika orang sangat bergantung pada AI generatif untuk bekerja, mereka terlibat dalam pemikiran yang kurang kritis yang, dari waktu ke waktu, dapat “mengakibatkan penurunan kemampuan kognitif yang seharusnya dilestarikan.”
Kemana kita pergi dari sini?
Jika AGI datang dalam beberapa tahun ke depan – atau segera setelah itu – kita harus dengan cepat bergulat dengan implikasinya tidak hanya untuk pekerjaan dan keselamatan, tetapi untuk siapa kita. Dan kita harus melakukannya sambil juga mengakui potensinya yang luar biasa untuk mempercepat penemuan, mengurangi penderitaan dan memperluas kemampuan manusia dengan cara yang belum pernah terjadi sebelumnya. Sebagai contoh, Amodei telah mengatakan bahwa “AI yang kuat” akan memungkinkan 100 tahun penelitian biologis dan manfaatnya, termasuk peningkatan perawatan kesehatan, untuk dikompresi menjadi 5 hingga 10 tahun.
Perkiraan yang disajikan dalam AI 2027 mungkin atau mungkin tidak benar, tetapi mereka masuk akal dan provokatif. Dan masuk akal itu sudah cukup. Sebagai manusia dengan agensi, dan sebagai anggota perusahaan, pemerintah dan masyarakat, kita harus bertindak sekarang untuk mempersiapkan apa yang mungkin akan terjadi.
Untuk bisnis, ini berarti berinvestasi dalam penelitian keselamatan AI teknis dan ketahanan organisasi, menciptakan peran yang mengintegrasikan kemampuan AI sambil memperkuat kekuatan manusia. Untuk pemerintah, diperlukan pengembangan kerangka kerja peraturan yang lebih cepat yang membahas kekhawatiran langsung seperti evaluasi model dan risiko eksistensial jangka panjang. Bagi individu, ini berarti merangkul pembelajaran berkelanjutan yang berfokus pada keterampilan manusia yang unik termasuk kreativitas, kecerdasan emosional dan penilaian yang kompleks, sambil mengembangkan hubungan kerja yang sehat dengan alat AI yang tidak mengurangi agensi kami.
Waktu untuk debat abstrak tentang masa depan yang jauh telah berlalu; Persiapan konkret untuk transformasi jangka pendek sangat dibutuhkan. Masa depan kita tidak akan ditulis oleh algoritma saja. Ini akan dibentuk oleh pilihan yang kami buat, dan nilai -nilai yang kami jabat, mulai hari ini.
Gary Grossman adalah EVP praktik teknologi di Edelman dan pemimpin global Pusat Keunggulan AI Edelman.