
Bergabunglah dengan buletin harian dan mingguan kami untuk mendapatkan pembaruan terkini dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari Lebih Lanjut
Meskipun pemilu AS pada tahun 2024 berfokus pada isu-isu tradisional seperti ekonomi dan imigrasi, dampaknya terhadap kebijakan AI bisa menjadi lebih transformatif. Tanpa satupun pertanyaan debat atau janji kampanye besar mengenai AI, para pemilih secara tidak sengaja mendukung para akselerasionis – mereka yang menganjurkan pengembangan AI secara cepat dengan hambatan peraturan yang minimal. Implikasi dari percepatan ini sangat besar, menandai era baru kebijakan AI yang memprioritaskan inovasi dibandingkan kehati-hatian dan menandakan perubahan penting dalam perdebatan antara potensi risiko dan manfaat AI.
Sikap Presiden terpilih Donald Trump yang pro-bisnis membuat banyak orang berasumsi bahwa pemerintahannya akan berpihak pada mereka yang mengembangkan dan memasarkan AI dan teknologi canggih lainnya. Platform partainya tidak banyak bicara tentang AI. Namun, hal ini menekankan pendekatan kebijakan yang berfokus pada pencabutan peraturan AI, khususnya menargetkan apa yang mereka gambarkan sebagai “gagasan sayap kiri radikal” dalam perintah eksekutif yang ada pada pemerintahan masa jabatan yang akan berakhir. Sebaliknya, platform ini mendukung pengembangan AI yang bertujuan untuk mendorong kebebasan berpendapat dan “kemajuan manusia,” serta menyerukan kebijakan yang memungkinkan inovasi dalam AI dan menentang tindakan yang dianggap menghambat kemajuan teknologi.
Indikasi awal berdasarkan penunjukan pada posisi-posisi penting di pemerintahan menggarisbawahi arah ini. Namun, ada cerita lebih besar yang terungkap: Penyelesaian perdebatan sengit mengenai masa depan AI.
Perdebatan yang intens
Sejak ChatGPT muncul pada bulan November 2022, telah terjadi perdebatan sengit antara pihak-pihak di bidang AI yang ingin mempercepat pengembangan AI dan pihak yang ingin melakukan perlambatan.
Yang terkenal adalah pada bulan Maret 2023, kelompok yang terakhir mengusulkan penghentian AI selama enam bulan dalam pengembangan sistem paling canggih, dan memperingatkan dalam surat terbuka bahwa alat AI menghadirkan “risiko besar bagi masyarakat dan kemanusiaan.” Surat ini, yang dipelopori oleh Future of Life Institute, dipicu oleh peluncuran model bahasa besar (LLM) GPT-4 oleh OpenAI, beberapa bulan setelah ChatGPT diluncurkan.
Surat tersebut awalnya ditandatangani oleh lebih dari 1.000 pemimpin dan peneliti teknologi, termasuk Elon Musk, salah satu pendiri Apple Steve Wozniak, kandidat Presiden tahun 2020 Andrew Yang, podcaster Lex Fridman, dan pionir AI Yoshua Bengio dan Stuart Russell. Jumlah orang yang menandatangani surat tersebut akhirnya membengkak menjadi lebih dari 33.000. Secara kolektif, mereka dikenal sebagai “doomers,” sebuah istilah untuk menggambarkan kekhawatiran mereka mengenai potensi risiko eksistensial dari AI.
Tidak semua orang setuju. CEO OpenAI Sam Altman tidak menandatangani. Begitu pula dengan Bill Gates dan banyak orang lainnya. Alasan mereka untuk tidak melakukan hal tersebut beragam, meskipun banyak yang menyuarakan kekhawatiran tentang potensi bahaya dari AI. Hal ini memicu banyak perbincangan tentang potensi AI mengamuk dan berujung pada bencana. Sudah menjadi tren bagi banyak orang di bidang AI untuk membicarakan penilaian mereka terhadap kemungkinan malapetaka, yang sering disebut sebagai persamaan: p(malapetaka). Namun demikian, upaya pengembangan AI tidak berhenti.
Sebagai catatan, p(malapetaka) saya di bulan Juni 2023 adalah 5%. Itu mungkin tampak rendah, tapi itu bukan nol. Saya merasa bahwa laboratorium AI besar sungguh-sungguh dalam upaya mereka untuk menguji secara ketat model-model baru sebelum dirilis dan dalam memberikan batasan yang signifikan untuk penggunaannya.
Banyak pengamat yang mengkhawatirkan bahaya AI menilai risiko eksistensial lebih tinggi dari 5%, dan ada pula yang menilai jauh lebih tinggi. Peneliti keamanan AI Roman Yampolskiy menilai kemungkinan AI mengakhiri umat manusia lebih dari 99%. Meskipun demikian, sebuah penelitian yang dirilis awal tahun ini, jauh sebelum pemilu dan mewakili pandangan lebih dari 2.700 peneliti AI, menunjukkan bahwa “prediksi median untuk hasil yang sangat buruk, seperti kepunahan manusia, adalah 5%.” Apakah Anda akan naik pesawat jika ada kemungkinan 5% pesawat itu jatuh? Inilah dilema yang dihadapi para peneliti AI dan pembuat kebijakan.
Harus berjalan lebih cepat
Pihak lain secara terbuka mengabaikan kekhawatiran mengenai AI, dan malah menunjuk pada apa yang mereka anggap sebagai keuntungan besar dari teknologi ini. Mereka termasuk Andrew Ng (yang mendirikan dan memimpin proyek Google Brain) dan Pedro Domingos (seorang profesor ilmu komputer dan teknik di Universitas Washington dan penulis “The Master Algorithm”). Sebaliknya, mereka berpendapat bahwa AI adalah bagian dari solusi. Seperti yang dikemukakan oleh Ng, memang terdapat bahaya nyata, seperti perubahan iklim dan pandemi di masa depan, dan AI dapat menjadi bagian dari cara mengatasi dan memitigasi hal ini.
Ng berpendapat bahwa pengembangan AI tidak boleh dihentikan, namun harus berjalan lebih cepat. Pandangan utopis terhadap teknologi ini juga dianut oleh orang-orang yang secara kolektif dikenal sebagai “akselerasi efektif” atau disingkat “e/acc”. Mereka berpendapat bahwa teknologi – dan khususnya AI – bukanlah masalahnya, namun solusi bagi sebagian besar, atau bahkan seluruh, permasalahan dunia. CEO akselerator startup Y Combinator Garry Tan, bersama dengan para pemimpin terkemuka Silicon Valley lainnya, memasukkan istilah “e/acc” dalam nama pengguna mereka di X untuk menunjukkan keselarasan dengan visi. Reporter Kevin Roose di New York Times menangkap esensi dari para akselerasionis ini dengan mengatakan bahwa mereka memiliki “pendekatan serba bahan bakar, tanpa rem.”
Buletin Substack beberapa tahun lalu menjelaskan prinsip-prinsip yang mendasari akselerasionisme yang efektif. Berikut rangkuman yang mereka tawarkan di akhir artikel, ditambah komentar dari CEO OpenAI Sam Altman.

Akselerasi AI di depan
Hasil pemilu tahun 2024 dapat dilihat sebagai titik balik, yang menempatkan visi akselerasionis dalam posisi untuk membentuk kebijakan AI AS untuk beberapa tahun ke depan. Misalnya, Presiden terpilih baru-baru ini menunjuk pengusaha teknologi dan pemodal ventura David Sacks sebagai “raja AI”.
Sacks, seorang kritikus vokal terhadap regulasi AI dan pendukung inovasi berbasis pasar, membawa pengalamannya sebagai investor teknologi ke dalam peran ini. Ia adalah salah satu tokoh terkemuka di industri AI, dan sebagian besar pernyataannya tentang AI sejalan dengan sudut pandang akselerasionis yang diungkapkan oleh platform partai yang akan datang.
Menanggapi perintah eksekutif AI dari pemerintahan Biden pada tahun 2023, Sacks mentweet: “Situasi politik dan fiskal AS benar-benar rusak, tetapi kita memiliki satu aset yang tak tertandingi sebagai sebuah negara: Inovasi mutakhir dalam AI yang didorong oleh kebebasan dan kebebasan sepenuhnya. pasar yang tidak diatur untuk pengembangan perangkat lunak. Itu baru saja berakhir.” Meskipun besarnya pengaruh Sacks terhadap kebijakan AI masih harus dilihat, penunjukannya menandakan adanya pergeseran ke arah kebijakan yang mendukung pengaturan mandiri industri dan inovasi yang cepat.
Pemilu mempunyai konsekuensi
Saya ragu sebagian besar masyarakat pemilih terlalu memikirkan implikasi kebijakan AI ketika memberikan suara mereka. Namun demikian, secara nyata, kelompok akselerasionis telah menang sebagai konsekuensi pemilu, dan berpotensi mengesampingkan mereka yang menganjurkan pendekatan pemerintah federal yang lebih hati-hati dalam memitigasi risiko AI dalam jangka panjang.
Ketika para aktivis percepatan memetakan jalan ke depan, taruhannya sangat besar. Apakah era ini membawa kemajuan yang tak tertandingi atau bencana yang tidak disengaja masih harus dilihat. Seiring dengan pesatnya perkembangan AI, kebutuhan akan wacana publik yang terinformasi dan pengawasan yang cermat menjadi semakin penting. Cara kita menavigasi era ini tidak hanya akan menentukan kemajuan teknologi tetapi juga masa depan kita bersama.
Sebagai penyeimbang dari kurangnya tindakan di tingkat federal, ada kemungkinan bahwa satu atau lebih negara bagian akan mengadopsi berbagai peraturan, seperti yang telah terjadi di Kalifornia dan Colorado. Misalnya, undang-undang keselamatan AI di California fokus pada persyaratan transparansi, sementara Colorado menangani diskriminasi AI dalam praktik perekrutan, dan menawarkan model tata kelola di tingkat negara bagian. Kini, semua perhatian akan tertuju pada pengujian sukarela dan pembatasan yang diterapkan sendiri oleh Anthropic, Google, OpenAI, dan pengembang model AI lainnya.
Singkatnya, kemenangan akselerasi berarti berkurangnya pembatasan terhadap inovasi AI. Peningkatan kecepatan ini memang dapat mempercepat inovasi, namun juga meningkatkan risiko konsekuensi yang tidak diinginkan. Saya sekarang merevisi p(doom) saya menjadi 10%. Apa milikmu?
Gary Grossman adalah EVP praktik teknologi di Edelman dan pemimpin global di Edelman AI Center of Excellence.
Pengambil Keputusan Data
Selamat datang di komunitas VentureBeat!
DataDecisionMakers adalah tempat para ahli, termasuk orang-orang teknis yang melakukan pekerjaan data, dapat berbagi wawasan dan inovasi terkait data.
Jika Anda ingin membaca tentang ide-ide mutakhir dan informasi terkini, praktik terbaik, serta masa depan data dan teknologi data, bergabunglah dengan kami di DataDecisionMakers.
Anda bahkan mungkin mempertimbangkan untuk menyumbangkan artikel Anda sendiri!
Baca Lebih Lanjut Dari DataDecisionMakers