
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
AI mengubah cara bisnis beroperasi. Sementara banyak dari pergeseran ini adalah positif, ia memperkenalkan beberapa masalah keamanan siber yang unik. Aplikasi AI generasi berikutnya seperti AI agen menimbulkan risiko yang sangat penting bagi postur keamanan organisasi.
Apa itu Agen AI?
AI Agentik mengacu pada model AI yang dapat bertindak secara mandiri, sering mengotomatiskan seluruh peran dengan sedikit atau tanpa input manusia. Chatbots canggih adalah salah satu contoh yang paling menonjol, tetapi agen AI juga dapat muncul dalam aplikasi seperti intelijen bisnis, diagnosis medis dan penyesuaian asuransi.
Dalam semua kasus penggunaan, teknologi ini menggabungkan model generatif, pemrosesan bahasa alami (NLP) dan fungsi pembelajaran mesin lainnya (ML) untuk melakukan tugas multi-langkah secara mandiri. Sangat mudah untuk melihat nilainya dalam solusi seperti itu. Maklum, Gartner memperkirakan bahwa sepertiga dari semua interaksi AI generatif akan menggunakan agen ini pada tahun 2028.
Risiko Keamanan Unik AI Agen
Adopsi AI agen akan melonjak karena bisnis berusaha untuk menyelesaikan rentang tugas yang lebih besar tanpa tenaga kerja yang lebih besar. Namun, sama menjanjikannya, memberikan model AI begitu banyak kekuatan memiliki implikasi keamanan siber yang serius.
Agen AI biasanya memerlukan akses ke sejumlah besar data. Akibatnya, mereka adalah target utama untuk penjahat cyber, karena penyerang dapat memfokuskan upaya pada aplikasi tunggal untuk mengekspos sejumlah besar informasi. Ini akan memiliki efek yang mirip dengan perburuan paus – yang menyebabkan kerugian $ 12,5 miliar pada tahun 2021 saja – tetapi mungkin lebih mudah, karena model AI bisa lebih rentan daripada profesional yang berpengalaman.
Otonomi Agen AI adalah perhatian lain. Sementara semua algoritma ML memperkenalkan beberapa risiko, kasus penggunaan konvensional memerlukan otorisasi manusia untuk melakukan apa pun dengan data mereka. Agen, di sisi lain, dapat bertindak tanpa izin. Akibatnya, setiap paparan privasi atau kesalahan yang tidak disengaja seperti halusinasi AI dapat melintas tanpa ada yang memperhatikan.
Kurangnya pengawasan ini membuat ancaman AI yang ada seperti keracunan data semakin berbahaya. Penyerang dapat merusak model dengan mengubah hanya 0,01% dari dataset pelatihannya, dan melakukan hal itu dimungkinkan dengan investasi minimal. Itu merusak dalam konteks apa pun, tetapi kesimpulan yang salah agen yang beracun akan mencapai lebih jauh dari mana manusia meninjau hasil terlebih dahulu.
Cara meningkatkan cybersecurity agen agen AI
Mengingat ancaman ini, strategi keamanan siber perlu beradaptasi sebelum bisnis menerapkan aplikasi AI agen. Berikut adalah empat langkah penting menuju tujuan itu.
1. Maksimalkan visibilitas
Langkah pertama adalah memastikan tim keamanan dan operasi memiliki visibilitas penuh ke dalam alur kerja agen AI. Setiap tugas model diselesaikan, setiap perangkat atau aplikasi yang terhubung ke dan semua data yang dapat diakses harus jelas. Mengungkap faktor -faktor ini akan membuatnya lebih mudah untuk menemukan kerentanan potensial.
Alat pemetaan jaringan otomatis mungkin diperlukan di sini. Hanya 23% pemimpin TI mengatakan mereka memiliki visibilitas penuh ke lingkungan cloud mereka dan 61% menggunakan beberapa alat deteksi, yang mengarah ke duplikat. Admin harus membahas masalah ini terlebih dahulu untuk mendapatkan wawasan yang diperlukan tentang apa yang dapat diakses oleh agen AI mereka.
Mempekerjakan prinsip hak istimewa paling tidak
Setelah jelas apa yang dapat berinteraksi dengan agen, bisnis harus membatasi hak istimewa tersebut. Prinsip hak istimewa paling tidak – yang menyatakan bahwa entitas apa pun hanya dapat melihat dan menggunakan apa yang benar -benar dibutuhkan – sangat penting.
Database atau aplikasi apa pun yang dapat berinteraksi dengan agen AI adalah risiko potensial. Akibatnya, organisasi dapat meminimalkan permukaan serangan yang relevan dan mencegah pergerakan lateral dengan membatasi izin ini sebanyak mungkin. Apa pun yang tidak secara langsung berkontribusi pada tujuan mengemudi nilai AI harus terlarang.
Batasi informasi sensitif
Demikian pula, admin jaringan dapat mencegah pelanggaran privasi dengan menghapus detail sensitif dari dataset yang dapat diakses oleh AI agen mereka. Pekerjaan banyak agen AI secara alami melibatkan data pribadi. Lebih dari 50% pengeluaran AI generatif akan digunakan untuk chatbots, yang dapat mengumpulkan informasi tentang pelanggan. Namun, tidak semua detail ini diperlukan.
Sementara agen harus belajar dari interaksi pelanggan masa lalu, tidak perlu menyimpan nama, alamat, atau detail pembayaran. Memprogram sistem untuk menggosok informasi yang dapat diidentifikasi secara pribadi yang tidak perlu dari data yang dapat diakses AI akan meminimalkan kerusakan jika terjadi pelanggaran.
Perhatikan perilaku mencurigakan
Bisnis perlu berhati -hati saat pemrograman agen AI juga. Oleskan ke satu, kasus penggunaan kecil terlebih dahulu dan gunakan tim yang beragam untuk meninjau model untuk tanda -tanda bias atau halusinasi selama pelatihan. Ketika tiba saatnya untuk menggunakan agen, gulung perlahan dan pantau untuk perilaku mencurigakan.
Responsif real-time sangat penting dalam pemantauan ini, karena risiko agen AI berarti setiap pelanggaran dapat memiliki konsekuensi dramatis. Untungnya, solusi deteksi dan respons otomatis sangat efektif, menghemat rata -rata $ 2,22 juta dalam biaya pelanggaran data. Organisasi dapat perlahan memperluas agen AI mereka setelah uji coba yang sukses, tetapi mereka harus terus memantau semua aplikasi.
Seiring kemajuan keamanan siber, demikian juga strategi keamanan siber
Kemajuan cepat AI memiliki janji yang signifikan untuk bisnis modern, tetapi risiko keamanan sibernya meningkat dengan cepat. Pertahanan dunia maya perusahaan harus meningkatkan dan maju bersama kasus penggunaan AI generatif. Kegagalan untuk mengikuti perubahan ini dapat menyebabkan kerusakan yang melebihi manfaat teknologi.
AI Agentsive akan membawa ML ke ketinggian baru, tetapi hal yang sama berlaku untuk kerentanan terkait. Meskipun itu tidak membuat teknologi ini terlalu tidak aman untuk diinvestasikan, itu menjamin kehati -hatian ekstra. Bisnis harus mengikuti langkah -langkah keamanan penting ini karena mereka meluncurkan aplikasi AI baru.
Zac Amos adalah fitur editor di Rehack.
DatadecisionMakers
Selamat datang di komunitas VentureBeat!
DatadecisionMakers adalah tempat para ahli, termasuk orang teknis yang melakukan pekerjaan data, dapat berbagi wawasan dan inovasi terkait data.
Jika Anda ingin membaca tentang ide-ide mutakhir dan informasi terkini, praktik terbaik, dan masa depan teknologi data dan data, bergabunglah dengan kami di DatadecisionMakers.
Anda bahkan mungkin mempertimbangkan untuk menyumbangkan artikel Anda sendiri!
Baca lebih lanjut dari pembuat data