
Bergabunglah dengan buletin harian dan mingguan kami untuk mendapatkan pembaruan terkini dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari Lebih Lanjut
Karena terburu-buru memahami dan berhubungan dengan AI, kita telah jatuh ke dalam perangkap yang menggiurkan: Mengaitkan karakteristik manusia dengan sistem yang kuat namun pada dasarnya bukan manusia. Antropomorfisasi AI ini bukan sekadar kekhasan sifat manusia yang tidak berbahaya — namun kini menjadi kecenderungan yang semakin berbahaya yang mungkin mengaburkan penilaian kita secara kritis. Para pemimpin bisnis membandingkan pembelajaran AI dengan pendidikan manusia untuk membenarkan praktik pelatihan dengan pembuat kebijakan yang menyusun kebijakan berdasarkan analogi manusia-AI yang cacat. Kecenderungan untuk memanusiakan AI mungkin tidak tepat dalam menentukan keputusan penting di seluruh industri dan kerangka peraturan.
Melihat AI dari sudut pandang manusia dalam bisnis telah menyebabkan perusahaan melebih-lebihkan kemampuan AI atau meremehkan perlunya pengawasan manusia, yang terkadang menimbulkan konsekuensi yang merugikan. Pertaruhannya sangat besar dalam undang-undang hak cipta, di mana pemikiran antropomorfik telah menyebabkan perbandingan yang problematis antara pembelajaran manusia dan pelatihan AI.
Perangkap bahasa
Dengarkan cara kita berbicara tentang AI: Kita menyebutnya “belajar”, “berpikir”, “memahami”, dan bahkan “menciptakan”. Istilah-istilah manusiawi ini terasa alami, namun menyesatkan. Saat kami mengatakan model AI “belajar”, model tersebut tidak memperoleh pemahaman seperti siswa manusia. Sebaliknya, ia melakukan analisis statistik yang kompleks pada sejumlah besar data, menyesuaikan bobot dan parameter dalam jaringan sarafnya berdasarkan prinsip matematika. Tidak ada pemahaman, momen eureka, percikan kreativitas atau pemahaman aktual — yang ada hanyalah pencocokan pola yang semakin canggih.
Keahlian linguistik ini lebih dari sekedar semantik. Sebagaimana dicatat dalam makalah, Kasus Ilusi untuk Penggunaan Wajar AI Generatif: “Penggunaan bahasa antropomorfik untuk menggambarkan pengembangan dan fungsi model AI adalah sebuah distorsi karena hal ini menunjukkan bahwa setelah dilatih, model tersebut beroperasi secara independen dari konten karya yang dibuat. itu telah dilatih.” Kebingungan ini mempunyai konsekuensi nyata, terutama ketika hal ini mempengaruhi keputusan hukum dan kebijakan.
Keterputusan kognitif
Mungkin aspek paling berbahaya dari antropomorfisasi AI adalah bagaimana AI menutupi perbedaan mendasar antara kecerdasan manusia dan mesin. Meskipun beberapa sistem AI unggul dalam jenis penalaran dan tugas analitis tertentu, model bahasa besar (LLM) yang mendominasi wacana AI saat ini — dan yang kami fokuskan di sini — beroperasi melalui pengenalan pola yang canggih.
Sistem ini memproses data dalam jumlah besar, mengidentifikasi dan mempelajari hubungan statistik antara kata, frasa, gambar, dan masukan lainnya untuk memprediksi apa yang akan terjadi selanjutnya secara berurutan. Saat kami mengatakan mereka “belajar”, kami menjelaskan proses pengoptimalan matematis yang membantu mereka membuat prediksi yang semakin akurat berdasarkan data pelatihan mereka.
Perhatikan contoh mencolok dari penelitian Berglund dan rekan-rekannya: Sebuah model yang dilatih dengan materi yang menyatakan “A sama dengan B” sering kali tidak dapat bernalar, seperti manusia, untuk menyimpulkan bahwa “B sama dengan A.” Jika AI mengetahui bahwa Valentina Tereshkova adalah wanita pertama di luar angkasa, AI mungkin akan menjawab “Siapa Valentina Tereshkova?” tapi bergumul dengan “Siapa wanita pertama di luar angkasa?” Keterbatasan ini mengungkapkan perbedaan mendasar antara pengenalan pola dan penalaran yang sebenarnya — antara memprediksi kemungkinan rangkaian kata dan memahami maknanya.
Teka-teki hak cipta
Bias antropomorfik ini memiliki implikasi yang meresahkan dalam perdebatan yang sedang berlangsung mengenai AI dan hak cipta. CEO Microsoft Satya Nadella baru-baru ini membandingkan pelatihan AI dengan pembelajaran manusia, dan menyatakan bahwa AI seharusnya dapat melakukan hal yang sama jika manusia dapat belajar dari buku tanpa implikasi hak cipta. Perbandingan ini dengan sempurna menggambarkan bahaya pemikiran antropomorfik dalam diskusi tentang AI yang etis dan bertanggung jawab.
Beberapa pihak berpendapat bahwa analogi ini perlu direvisi untuk memahami pembelajaran manusia dan pelatihan AI. Saat manusia membaca buku, kita tidak membuat salinannya — kita memahami dan menginternalisasikan konsep. Sebaliknya, sistem AI harus membuat salinan karya yang sebenarnya – sering kali diperoleh tanpa izin atau pembayaran – menyandikannya ke dalam arsitekturnya dan mempertahankan versi yang dikodekan tersebut agar dapat berfungsi. Karya-karya tersebut tidak hilang setelah “belajar”, seperti yang sering diklaim oleh perusahaan AI; mereka tetap tertanam di jaringan saraf sistem.
Titik buta bisnis
Antropomorfisasi AI menciptakan titik buta yang berbahaya dalam pengambilan keputusan bisnis, selain inefisiensi operasional sederhana. Ketika para eksekutif dan pengambil keputusan menganggap AI sebagai sesuatu yang “kreatif” atau “cerdas” dalam istilah manusia, hal ini dapat menimbulkan serangkaian asumsi berisiko dan potensi tanggung jawab hukum.
Melebih-lebihkan kemampuan AI
Salah satu bidang penting di mana antropomorfisasi menimbulkan risiko adalah pembuatan konten dan kepatuhan hak cipta. Ketika bisnis memandang AI mampu “belajar” seperti manusia, mereka mungkin salah berasumsi bahwa konten yang dihasilkan AI secara otomatis bebas dari masalah hak cipta. Kesalahpahaman ini dapat menyebabkan perusahaan untuk:
- Menerapkan sistem AI yang secara tidak sengaja mereproduksi materi berhak cipta, sehingga bisnis dapat terkena klaim pelanggaran
- Gagal menerapkan mekanisme penyaringan dan pengawasan konten yang tepat
- Salah berasumsi bahwa AI dapat dengan andal membedakan antara domain publik dan materi berhak cipta
- Meremehkan perlunya peninjauan manusia dalam proses pembuatan konten
Titik buta kepatuhan lintas batas negara
Bias antropomorfik dalam AI menimbulkan bahaya ketika kita mempertimbangkan kepatuhan lintas batas negara. Sebagaimana dijelaskan oleh Daniel Gervais, Haralambos Marmanis, Noam Shemtov, dan Catherine Zaller Rowland dalam “The Heart of the Matter: Copyright, AI Training, and LLMs,” undang-undang hak cipta beroperasi berdasarkan prinsip teritorial yang ketat, dengan setiap yurisdiksi mempertahankan peraturannya sendiri tentang apa yang harus dilakukan. merupakan pelanggaran dan pengecualian apa yang berlaku.
Sifat hukum hak cipta yang teritorial ini menciptakan jaringan pertanggungjawaban yang kompleks. Perusahaan mungkin secara keliru berasumsi bahwa sistem AI mereka dapat dengan bebas “belajar” dari materi berhak cipta di seluruh yurisdiksi, sehingga tidak menyadari bahwa aktivitas pelatihan yang legal di satu negara mungkin merupakan pelanggaran di negara lain. UE telah menyadari risiko ini dalam Undang-undang AI-nya, khususnya melalui Recital 106, yang mewajibkan model AI tujuan umum apa pun yang ditawarkan di UE untuk mematuhi undang-undang hak cipta UE terkait data pelatihan, di mana pun pelatihan tersebut dilakukan.
Hal ini penting karena antropomorfisasi kemampuan AI dapat menyebabkan perusahaan meremehkan atau salah memahami kewajiban hukum mereka lintas negara. Fiksi yang menarik tentang “pembelajaran” AI seperti manusia mengaburkan kenyataan bahwa pelatihan AI melibatkan operasi penyalinan dan penyimpanan yang rumit yang memicu kewajiban hukum yang berbeda di yurisdiksi lain. Kesalahpahaman mendasar mengenai fungsi AI yang sebenarnya, ditambah dengan sifat teritorial undang-undang hak cipta, menciptakan risiko besar bagi bisnis yang beroperasi secara global.
Kerugian manusia
Salah satu kerugian yang paling memprihatinkan adalah dampak emosional akibat antropomorfisasi AI. Kami melihat semakin banyak orang yang membentuk keterikatan emosional dengan chatbot AI, memperlakukan mereka sebagai teman atau orang kepercayaan. Hal ini bisa sangat berbahaya bagi individu rentan yang mungkin berbagi informasi pribadi atau mengandalkan AI untuk mendapatkan dukungan emosional yang tidak dapat diberikan. Respons AI, meskipun tampak berempati, merupakan pencocokan pola yang canggih berdasarkan data pelatihan — tidak ada pemahaman atau hubungan emosional yang tulus.
Kerentanan emosional ini juga dapat terwujud dalam lingkungan profesional. Ketika alat AI menjadi lebih terintegrasi ke dalam pekerjaan sehari-hari, karyawan mungkin mengembangkan tingkat kepercayaan yang tidak tepat terhadap sistem ini, dan memperlakukan mereka sebagai rekan kerja sebenarnya, bukan sebagai alat. Mereka mungkin terlalu bebas membagikan informasi rahasia pekerjaan atau ragu untuk melaporkan kesalahan karena rasa loyalitas yang salah. Meskipun skenario-skenario ini masih terisolasi saat ini, skenario-skenario tersebut menyoroti bagaimana antropomorfisasi AI di tempat kerja dapat mengaburkan penilaian dan menciptakan ketergantungan yang tidak sehat pada sistem yang, meskipun memiliki respons yang canggih, tidak mampu memberikan pemahaman atau kepedulian yang tulus.
Membebaskan diri dari jebakan antropomorfik
Jadi bagaimana kita bergerak maju? Pertama, kita perlu lebih tepat dalam memahami AI. Daripada mengatakan AI “belajar” atau “memahami”, kita mungkin mengatakan AI “memproses data” atau “menghasilkan keluaran berdasarkan pola dalam data pelatihannya.” Hal ini bukan hanya sekedar bertele-tele – ini membantu memperjelas apa yang dilakukan sistem ini.
Kedua, kita harus mengevaluasi sistem AI berdasarkan apa adanya, bukan berdasarkan apa yang kita bayangkan. Ini berarti mengakui kemampuan mereka yang mengesankan dan keterbatasan mendasar mereka. AI dapat memproses data dalam jumlah besar dan mengidentifikasi pola yang mungkin terlewatkan oleh manusia, namun AI tidak dapat memahami, memberi alasan, atau menciptakan seperti yang dilakukan manusia.
Yang terakhir, kita harus mengembangkan kerangka kerja dan kebijakan yang memperhatikan karakteristik AI yang sebenarnya, bukan kualitas yang dibayangkan manusia. Hal ini sangat penting dalam undang-undang hak cipta, karena pemikiran antropomorfis dapat menghasilkan analogi yang cacat dan kesimpulan hukum yang tidak tepat.
Jalan ke depan
Ketika sistem AI menjadi lebih canggih dalam meniru keluaran manusia, godaan untuk melakukan antropomorfisasi terhadap keluaran tersebut akan semakin kuat. Bias antropomorfik ini memengaruhi segala hal mulai dari cara kita mengevaluasi kemampuan AI hingga cara kita menilai risikonya. Seperti yang telah kita lihat, hal ini meluas ke tantangan praktis yang signifikan seputar undang-undang hak cipta dan kepatuhan bisnis. Ketika kita mengaitkan kemampuan pembelajaran manusia dengan sistem AI, kita harus memahami sifat dasar sistem tersebut dan realitas teknis tentang cara sistem tersebut memproses dan menyimpan informasi.
Memahami AI sebagaimana adanya – sistem pemrosesan informasi yang canggih, bukan pembelajar yang mirip manusia – sangat penting untuk semua aspek tata kelola dan penerapan AI. Dengan melampaui pemikiran antropomorfik, kita dapat mengatasi tantangan sistem AI dengan lebih baik, mulai dari pertimbangan etis dan risiko keselamatan hingga kepatuhan hak cipta lintas negara dan pelatihan tata kelola data. Pemahaman yang lebih tepat ini akan membantu dunia usaha mengambil keputusan yang lebih tepat sekaligus mendukung pengembangan kebijakan dan wacana publik yang lebih baik seputar AI.
Semakin cepat kita memahami sifat AI yang sebenarnya, kita akan semakin siap menghadapi implikasi sosial dan tantangan praktis yang ditimbulkannya terhadap perekonomian global.
Roanie Levy adalah penasihat perizinan dan hukum di CCC.
Pengambil Keputusan Data
Selamat datang di komunitas VentureBeat!
DataDecisionMakers adalah tempat para ahli, termasuk orang-orang teknis yang melakukan pekerjaan data, dapat berbagi wawasan dan inovasi terkait data.
Jika Anda ingin membaca tentang ide-ide mutakhir dan informasi terkini, praktik terbaik, serta masa depan data dan teknologi data, bergabunglah dengan kami di DataDecisionMakers.
Anda bahkan mungkin mempertimbangkan untuk menyumbangkan artikel Anda sendiri!
Baca Lebih Lanjut Dari DataDecisionMakers