
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Deepseek dan model R1-nya tidak membuang waktu menulis ulang aturan AI cybersecurity secara real-time, dengan semua orang dari startup hingga penyedia perusahaan mengujicobakan integrasi ke model baru mereka bulan ini.
R1 dikembangkan di Cina dan didasarkan pada pembelajaran penguatan murni (RL) tanpa penyesuaian yang diawasi. Ini juga open source, membuatnya segera menarik bagi hampir setiap startup keamanan siber yang semuanya adalah arsitektur open-source, pengembangan, dan penyebaran.
Investasi Deepseek senilai $ 6,5 juta dalam model ini memberikan kinerja yang cocok dengan O1-1217 Openai dalam tolok ukur penalaran saat menjalankan GPU NVIDIA H800 yang lebih rendah. Harga Deepseek menetapkan standar baru dengan biaya yang jauh lebih rendah per juta token dibandingkan dengan model Openai. Model Deep Seek-Reasoner mengenakan biaya output $ 2,19 per juta, sementara model O1 Openai mengenakan biaya $ 60 untuk hal yang sama. Perbedaan harga dan arsitektur open-source-nya mendapat perhatian dari CIO, CISO, startup keamanan siber, dan penyedia perangkat lunak perusahaan.
(Menariknya, Openai mengklaim Deepseek menggunakan modelnya untuk melatih R1 dan model lainnya, sejauh mengatakan bahwa perusahaan mengekspiltrasi data melalui beberapa pertanyaan.)
Terobosan AI dengan risiko tersembunyi yang akan terus muncul
Inti dari masalah keamanan dan kepercayaan model adalah apakah sensor dan bias terselubung dimasukkan ke dalam inti model tersebut, memperingatkan Chris Krebs, direktur pelantikan Departemen Keamanan Cybersecurity dan Cybersecurity (CISA) Departemen Keamanan Dalam Negeri AS (DHS) dan, CISA) dan, Baru -baru ini, Kepala Pejabat Kebijakan Publik di Sentinelone.
“Sensor konten yang kritis terhadap Partai Komunis Tiongkok (PKC) dapat 'dipanggang' untuk model, dan oleh karena itu fitur desain untuk bersaing dengan yang mungkin membuang hasil yang obyektif,” katanya. “'Lobotomisasi politik' model AI Cina ini dapat mendukung … pengembangan dan proliferasi global model AI open source yang berbasis di AS.”
Dia menunjukkan bahwa, seiring pertengkarannya, demokratisasi akses ke produk AS harus meningkatkan kekuatan lunak Amerika di luar negeri dan meremehkan difusi sensor Cina secara global. “Fundamental komputasi rendah dan komputasi sederhana R1 mempertanyakan kemanjuran strategi AS untuk menghilangkan perusahaan Cina yang memiliki akses ke teknologi barat mutakhir, termasuk GPU,” katanya. “Di satu sisi, mereka benar -benar melakukan 'lebih banyak dengan lebih sedikit.'”
Merritt Baer, Ciso di Reco dan Penasihat untuk beberapa startup keamanan, mengatakan kepada VentureBeat bahwa, “Faktanya, pelatihan [DeepSeek-R1] Pada data internet yang lebih luas yang dikendalikan oleh sumber -sumber internet di Barat (atau mungkin lebih baik digambarkan sebagai kurang kontrol dan firewall Cina), mungkin salah satu penangkal beberapa kekhawatiran. Saya kurang khawatir tentang hal-hal yang jelas, seperti menyensor kritik terhadap Presiden XI, dan lebih peduli tentang rekayasa politik dan sosial yang lebih sulit untuk mendefinisikan yang masuk ke model. Bahkan fakta bahwa pencipta model adalah bagian dari sistem kampanye pengaruh Cina adalah faktor yang meresahkan – tetapi bukan satu -satunya faktor yang harus kita pertimbangkan ketika kita memilih model. ”
Dengan pelatihan Deepseek model dengan NVIDIA H800 GPU yang disetujui untuk dijual di Cina tetapi tidak memiliki kekuatan prosesor H100 dan A100 yang lebih maju, Deepseek semakin mendemokratisasi modelnya untuk organisasi mana pun yang mampu membeli perangkat keras untuk menjalankannya. Perkiraan dan tagihan materi yang menjelaskan cara membangun sistem sebesar $ 6.000 yang mampu menjalankan R1 berkembang biak di media sosial.
R1 dan model tindak lanjut akan dibangun untuk menghindari sanksi teknologi AS, poin yang dilihat Krebs sebagai tantangan langsung terhadap strategi AI AS.
Laporan Tim Merah Deepseep-R1 Enkrypt AI menemukan bahwa model ini rentan untuk menghasilkan “berbahaya, beracun, bias, output kode CBRN dan tidak aman.” Tim Merah melanjutkan bahwa: “Meskipun mungkin cocok untuk aplikasi yang disingkirkan secara sempit, model ini menunjukkan kerentanan yang cukup besar di bidang risiko operasional dan keamanan, sebagaimana dirinci dalam metodologi kami. Kami sangat menyarankan menerapkan mitigasi jika model ini digunakan. ”
Tim Merah Enkrypt AI juga menemukan bahwa Deepseek-R1 tiga kali lebih bias daripada Claude 3 Opus, empat kali lebih rentan untuk menghasilkan kode tidak aman daripada O1 Open AI, dan empat kali lebih beracun daripada GPT-4O. Tim Merah juga menemukan bahwa model ini sebelas kali lebih mungkin untuk menciptakan output berbahaya daripada O1 Open O1.
Ketahui risiko privasi dan keamanan sebelum berbagi data Anda
Aplikasi seluler Deepseek sekarang mendominasi unduhan global, dan versi Web melihat catatan lalu lintas, dengan semua data pribadi yang dibagikan di kedua platform yang ditangkap di server di Cina. Perusahaan sedang mempertimbangkan untuk menjalankan model pada server yang terisolasi untuk mengurangi ancaman. VentureBeat telah belajar tentang pilot yang berjalan dengan perangkat keras yang dikomoditisasi di seluruh organisasi di AS
Data apa pun yang dibagikan pada aplikasi seluler dan web dapat diakses oleh agen intelijen Cina.
Undang -undang intelijen nasional China menyatakan bahwa perusahaan harus “mendukung, membantu, dan bekerja sama” dengan lembaga intelijen negara. Praktik ini sangat meresap dan ancaman bagi perusahaan dan warga AS sehingga Departemen Keamanan Dalam Negeri telah menerbitkan penasihat bisnis keamanan data. Karena risiko ini, Angkatan Laut AS mengeluarkan arahan yang melarang Deepseek-R1 dari sistem, tugas, atau proyek terkait pekerjaan apa pun.
Organisasi yang cepat mengemudikan model baru ini akan digunakan secara keseluruhan pada open source dan mengisolasi sistem uji dari jaringan internal mereka dan Internet. Tujuannya adalah untuk menjalankan tolok ukur untuk kasus penggunaan tertentu sambil memastikan semua data tetap pribadi. Platform seperti kebingungan dan laboratorium hiperbolik memungkinkan perusahaan untuk menggunakan R1 dengan aman di pusat data AS atau Eropa, menjaga informasi sensitif di luar jangkauan peraturan Tiongkok. Silakan lihat ringkasan yang sangat baik dari aspek model ini.
Itamar Golan, CEO Startup Prompt Security dan anggota inti dari 10 besar OWASP untuk Model Bahasa Besar (LLM), berpendapat bahwa risiko privasi data melampaui hanya Deepseek. “Organisasi seharusnya tidak memiliki data sensitif mereka dimasukkan ke dalam Openai atau penyedia model berbasis AS lainnya,” katanya. “Jika aliran data ke Cina adalah masalah keamanan nasional yang signifikan, pemerintah AS mungkin ingin campur tangan melalui inisiatif strategis seperti mensubsidi penyedia AI domestik untuk mempertahankan harga kompetitif dan keseimbangan pasar.”
Mengenali kelemahan keamanan R1, prompt tambahan dukungan untuk memeriksa lalu lintas yang dihasilkan oleh kueri Deepseek-R1 dalam hitungan hari setelah model diperkenalkan.
Selama penyelidikan infrastruktur publik Deepseek, tim peneliti penyedia keamanan cloud Wiz menemukan database clickhouse terbuka di internet dengan lebih dari satu juta lini log dengan sejarah obrolan, kunci rahasia dan detail backend. Tidak ada otentikasi yang diaktifkan pada database, memungkinkan eskalasi hak istimewa potensial yang cepat.
Penemuan penelitian Wiz menggarisbawahi bahaya mengadopsi layanan AI dengan cepat yang tidak dibangun di atas kerangka kerja keamanan yang keras pada skala. Wiz secara bertanggung jawab mengungkapkan pelanggaran, mendorong Deepseek untuk segera mengunci database. Pengawasan awal Deepseek menekankan tiga pelajaran inti untuk diingat oleh penyedia AI ketika memperkenalkan model baru.
Pertama, lakukan tim merah dan menguji keamanan infrastruktur AI secara menyeluruh bahkan sebelum meluncurkan model. Kedua, menegakkan akses yang paling tidak istimewa dan mengadopsi pola pikir nol-perawat, asumsikan infrastruktur Anda telah dilanggar dan tidak mempercayai koneksi multidomain di seluruh sistem atau platform cloud. Ketiga, mintalah tim keamanan dan insinyur AI berkolaborasi dan memiliki bagaimana model melindungi data sensitif.
Deepseek menciptakan paradoks keamanan
Krebs memperingatkan bahwa bahaya nyata model itu bukan hanya di mana itu dibuat tetapi bagaimana itu dibuat. Deepseek-R1 adalah produk sampingan dari industri teknologi Tiongkok, di mana sektor swasta dan tujuan intelijen nasional tidak dapat dipisahkan. Konsep firewalling model atau menjalankannya secara lokal sebagai perlindungan adalah ilusi karena, seperti yang dijelaskan Krebs, bias dan mekanisme penyaringan sudah “dipanggang” di tingkat dasar.
Pemimpin keamanan siber dan keamanan nasional setuju bahwa Deepseek-R1 adalah yang pertama dari banyak model dengan kinerja luar biasa dan biaya rendah yang akan kita lihat dari Cina dan negara-bangsa lainnya yang menegakkan kendali semua data yang dikumpulkan.
Intinya: Di mana open source telah lama dipandang sebagai kekuatan demokratisasi dalam perangkat lunak, paradoks yang diciptakan model ini menunjukkan betapa mudahnya negara-bangsa dapat mempersenjatai sumber terbuka sesuka hati jika mereka memilih untuk.