
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Ketika raksasa teknologi menyatakan AI mereka rilis terbuka – dan bahkan meletakkan kata dalam nama mereka – istilah orang dalam yang dulu “open source” telah meledak ke zeitgeist modern. Selama masa genting di mana salah langkah satu perusahaan dapat mengembalikan kenyamanan publik dengan AI pada satu dekade atau lebih, konsep keterbukaan dan transparansi dimiliki secara sembarangan, dan kadang -kadang tidak jujur, untuk membiakkan kepercayaan.
Pada saat yang sama, dengan administrasi Gedung Putih yang baru mengambil pendekatan yang lebih mudah untuk regulasi teknologi, garis pertempuran telah ditarik-mengadu inovasi terhadap regulasi dan memprediksi konsekuensi yang mengerikan jika sisi “salah” menang.
Namun, ada cara ketiga yang telah diuji dan dibuktikan melalui gelombang perubahan teknologi lainnya. Berdasarkan prinsip -prinsip keterbukaan dan transparansi, kolaborasi open source sejati membuka tingkat inovasi yang lebih cepat bahkan saat memberdayakan industri untuk mengembangkan teknologi yang tidak memihak, etis dan bermanfaat bagi masyarakat.
Memahami Kekuatan Kolaborasi Sumber Terbuka Sejati
Sederhananya, perangkat lunak open-source fitur kode sumber yang tersedia secara bebas yang dapat dilihat, dimodifikasi, dibedah, diadopsi dan dibagikan untuk tujuan komersial dan nonkomersial-dan secara historis, telah menjadi monumental dalam inovasi pemuliaan. Penawaran Sumber Terbuka Linux, Apache, MySQL dan PHP, misalnya, melepaskan internet seperti yang kita kenal.
Sekarang, dengan mendemokratisasi akses ke model AI, data, parameter, dan alat AI open-source, masyarakat dapat sekali lagi melepaskan inovasi lebih cepat alih-alih terus menciptakan kembali roda-itulah sebabnya studi IBM baru-baru ini tentang 2.400 pembuat keputusan TI mengungkapkan minat yang semakin besar dalam menggunakan alat AI open-source untuk mengendarai ROI. Sementara pengembangan dan inovasi yang lebih cepat berada di urutan teratas dalam daftar ketika datang untuk menentukan ROI di AI, penelitian ini juga mengkonfirmasi bahwa merangkul solusi terbuka dapat berkorelasi dengan kelayakan keuangan yang lebih besar.
Alih-alih keuntungan jangka pendek yang mendukung lebih sedikit perusahaan, AI open-source mengundang penciptaan aplikasi yang lebih beragam dan disesuaikan di seluruh industri dan domain yang mungkin tidak memiliki sumber daya untuk model kepemilikan.
Mungkin sama pentingnya, transparansi open source memungkinkan untuk pengawasan independen dan audit perilaku dan etika sistem AI – dan ketika kita memanfaatkan minat dan dorongan massa yang ada, mereka akan menemukan masalah dan kesalahan seperti yang mereka lakukan dengan kegagalan dataset Laion 5B.
Dalam hal ini, kerumunan membasmi lebih dari 1.000 URL yang berisi materi pelecehan seksual anak yang terverifikasi yang tersembunyi dalam data yang memicu model AI generatif seperti difusi stabil dan midjourney-yang menghasilkan gambar dari permintaan teks dan gambar dan merupakan dasar dalam banyak alat dan aplikasi yang dihasilkan video online.
Sementara temuan ini menyebabkan keributan, jika dataset itu telah ditutup, seperti halnya Sora Openai atau Gemini Google, konsekuensinya bisa jauh lebih buruk. Sulit membayangkan reaksi yang akan terjadi jika alat pembuatan video AI yang paling menarik mulai menghasilkan konten yang mengganggu.
Untungnya, sifat terbuka dari dataset Laion 5B memberdayakan masyarakat untuk memotivasi penciptanya untuk bermitra dengan pengawas industri untuk menemukan perbaikan dan melepaskan kembali Laion 5b-yang mencontohkan mengapa transparansi AI open-source sejati tidak hanya menguntungkan pengguna, tetapi industri dan pencipta yang bekerja untuk membangun kepercayaan dengan konsumen dan masyarakat umum.
Bahaya Sourcery Terbuka di AI
Sementara kode sumber saja relatif mudah dibagikan, sistem AI jauh lebih rumit daripada perangkat lunak. Mereka mengandalkan kode sumber sistem, serta parameter model, dataset, hyperparameters, kode sumber pelatihan, kerangka kerja pembuatan angka acak dan perangkat lunak – dan masing -masing komponen ini harus bekerja dalam konser agar sistem AI berfungsi dengan baik.
Di tengah kekhawatiran tentang keamanan di AI, telah menjadi hal biasa untuk menyatakan bahwa rilis terbuka atau open source. Agar ini menjadi akurat, inovator harus berbagi semua bagian teka -teki sehingga pemain lain dapat sepenuhnya memahami, menganalisis, dan menilai properti sistem AI untuk akhirnya mereproduksi, memodifikasi, dan memperluas kemampuannya.
Meta, misalnya, disebut-sebut llama 3.1 405b sebagai “model AI open-source tingkat perbatasan pertama,” tetapi hanya secara publik berbagi parameter pra-terlatih sistem, atau bobot, dan sedikit perangkat lunak. Meskipun ini memungkinkan pengguna untuk mengunduh dan menggunakan model sesuka hati, komponen -komponen utama seperti kode sumber dan dataset tetap tertutup – yang menjadi lebih meresahkan setelah pengumuman bahwa meta akan menyuntikkan profil bot AI ke dalam eter bahkan saat menghentikan konten untuk akurasi.
Agar adil, apa yang dibagikan tentu saja berkontribusi pada masyarakat. Model berat terbuka menawarkan fleksibilitas, aksesibilitas, inovasi, dan tingkat transparansi. Keputusan Deepseek untuk membuka sumber bobotnya, merilis laporan teknisnya untuk R1 dan membuatnya bebas untuk digunakan, misalnya, telah memungkinkan komunitas AI untuk mempelajari dan memverifikasi metodologinya dan menenunnya ke dalam pekerjaan mereka.
Namun, ini menyesatkan untuk memanggil sistem terbuka sistem AI ketika tidak ada yang benar -benar dapat melihat, bereksperimen dengan dan memahami setiap bagian dari teka -teki yang digunakan untuk membuatnya.
Kesalahan pengarahan ini lebih dari mengancam kepercayaan publik. Alih -alih memberdayakan semua orang di masyarakat untuk berkolaborasi, membangun dan memajukan model seperti Llama X, ini memaksa inovator menggunakan sistem AI tersebut untuk secara membabi buta mempercayai komponen yang tidak dibagikan.
Merangkul tantangan di hadapan kita
Saat mobil self-driving turun ke jalan-jalan di kota-kota besar dan sistem AI membantu ahli bedah di ruang operasi, kami hanya pada awal membiarkan teknologi ini mengambil roda pepatah. Janji itu sangat besar, seperti halnya potensi kesalahan – itulah sebabnya kita membutuhkan langkah -langkah baru tentang apa artinya dapat dipercaya di dunia AI.
Bahkan ketika Anka Reuel dan kolega di Stanford University baru -baru ini berusaha untuk membuat kerangka kerja baru untuk tolok ukur AI yang digunakan untuk menilai seberapa baik model kinerja, misalnya, praktik peninjauan industri dan publik yang diandalkan belum cukup. Benchmarking gagal memperhitungkan fakta bahwa set data pada inti sistem pembelajaran terus berubah dan metrik yang tepat bervariasi dari kasus penggunaan untuk menggunakan kasus. Bidang ini juga masih tidak memiliki bahasa matematika yang kaya untuk menggambarkan kemampuan dan keterbatasan dalam AI kontemporer.
Dengan berbagi seluruh sistem AI untuk memungkinkan keterbukaan dan transparansi alih -alih mengandalkan ulasan yang tidak memadai dan membayar lip service ke kata kunci, kami dapat menumbuhkan kolaborasi yang lebih besar dan mengolah inovasi dengan AI yang aman dan dikembangkan secara etis.
Sementara AI open-source sejati menawarkan kerangka kerja yang terbukti untuk mencapai tujuan ini, ada kurangnya transparansi dalam industri ini. Tanpa kepemimpinan dan kerja sama yang berani dari perusahaan teknologi untuk mengatur sendiri, kesenjangan informasi ini dapat merusak kepercayaan dan penerimaan publik. Merangkul keterbukaan, transparansi, dan open source bukan hanya model bisnis yang kuat – ini juga tentang memilih antara masa depan AI yang menguntungkan semua orang, bukan hanya sedikit.
Jason Corso adalah profesor di University of Michigan dan salah satu pendiri Voxel51.