
Bergabunglah dengan acara yang dipercaya oleh para pemimpin perusahaan selama hampir dua dekade. VB Transform menyatukan orang -orang yang membangun strategi AI perusahaan nyata. Pelajari lebih lanjut
Sementara perusahaan menghadapi tantangan menggunakan agen AI dalam aplikasi kritis, model baru yang lebih pragmatis muncul yang mengembalikan manusia dalam kendali sebagai perlindungan strategis terhadap kegagalan AI.
Salah satu contohnya adalah Mixus, platform yang menggunakan pendekatan “kolega-dalam-loop” untuk membuat agen AI dapat diandalkan untuk pekerjaan yang sangat penting.
Pendekatan ini merupakan respons terhadap bukti yang berkembang bahwa agen otonom sepenuhnya adalah taruhan berisiko tinggi.
Biaya tinggi AI yang tidak terkendali
Masalah halusinasi AI telah menjadi risiko nyata ketika perusahaan mengeksplorasi aplikasi AI. Dalam sebuah insiden baru-baru ini, kursor editor kode yang bertenaga AI melihat bot dukungannya sendiri menemukan kebijakan palsu yang membatasi langganan, memicu gelombang pembatalan pelanggan publik.
Demikian pula, perusahaan fintech Klarna terkenal membalik kursus untuk mengganti agen layanan pelanggan dengan AI setelah mengakui langkah tersebut menghasilkan kualitas yang lebih rendah. Dalam kasus yang lebih mengkhawatirkan, chatbot bisnis bertenaga AI di New York City menyarankan pengusaha untuk terlibat dalam praktik ilegal, menyoroti risiko kepatuhan bencana dari agen yang tidak diawasi.
Insiden ini adalah gejala dari kesenjangan kemampuan yang lebih besar. Menurut makalah penelitian Salesforce Mei 2025, agen-agen terkemuka saat ini hanya berhasil 58% dari waktu untuk tugas satu langkah dan hanya 35% dari waktu untuk multi-langkah, menyoroti “kesenjangan yang signifikan antara kemampuan LLM saat ini dan tuntutan multifaset dari skenario perusahaan dunia nyata.”
Model kolega-in-loop
Untuk menjembatani kesenjangan ini, pendekatan baru berfokus pada pengawasan manusia yang terstruktur. “Seorang agen AI harus bertindak atas arahan Anda dan atas nama Anda,” kata salah satu pendiri Mixus Elliot Katz kepada VentureBeat. “Tetapi tanpa pengawasan organisasi bawaan, agen otonom yang sepenuhnya sering menciptakan lebih banyak masalah daripada yang mereka selesaikan.”
Filosofi ini menopang model kolega-in-the-loop Mixus, yang menanamkan verifikasi manusia langsung ke alur kerja otomatis. Misalnya, pengecer besar mungkin menerima laporan mingguan dari ribuan toko yang berisi data operasional kritis (misalnya, volume penjualan, jam kerja, rasio produktivitas, permintaan kompensasi dari kantor pusat). Analis manusia harus menghabiskan berjam -jam meninjau data secara manual dan membuat keputusan berdasarkan heuristik. Dengan Mixus, agen AI mengotomatiskan pengangkatan berat, menganalisis pola kompleks, dan menandai anomali seperti permintaan gaji yang luar biasa tinggi atau outlier produktivitas.
Untuk keputusan berisiko tinggi seperti otorisasi pembayaran atau pelanggaran kebijakan-alur kerja yang ditentukan oleh pengguna manusia sebagai “berisiko tinggi”-agen berhenti dan membutuhkan persetujuan manusia sebelum melanjutkan. Pembagian kerja antara AI dan manusia telah diintegrasikan ke dalam proses penciptaan agen.
“Pendekatan ini berarti manusia hanya terlibat ketika keahlian mereka benar-benar menambah nilai-biasanya 5-10% dari keputusan yang kritis yang dapat memiliki dampak yang signifikan-sementara sisanya 90-95% dari tugas rutin mengalir melalui secara otomatis,” kata Katz. “Anda mendapatkan kecepatan otomatisasi penuh untuk operasi standar, tetapi pengawasan manusia tendangan tepat ketika konteks, penilaian, dan akuntabilitas paling penting.”
Dalam demo yang ditunjukkan oleh tim Mixus kepada VentureBeat, menciptakan agen adalah proses intuitif yang dapat dilakukan dengan instruksi teks biasa. Untuk membangun agen pemeriksaan fakta untuk wartawan, misalnya, salah satu pendiri Shai Magzimof hanya menggambarkan proses multi-langkah dalam bahasa alami dan menginstruksikan platform untuk menanamkan langkah-langkah verifikasi manusia dengan ambang batas tertentu, seperti ketika klaim berisiko tinggi dan dapat mengakibatkan kerusakan reputasi atau konsekuensi hukum.
Salah satu kekuatan inti platform adalah integrasinya dengan alat-alat seperti Google Drive, Email, dan Slack, memungkinkan pengguna perusahaan untuk membawa sumber data mereka sendiri ke dalam alur kerja dan berinteraksi dengan agen langsung dari platform komunikasi pilihan mereka, tanpa harus mengalihkan konteks atau mempelajari antarmuka baru (misalnya, agen pengecekan fakta diinstruksikan untuk mengirim permintaan persetujuan ke email editor).
Kemampuan integrasi platform meluas lebih jauh untuk memenuhi kebutuhan perusahaan tertentu. Mixus mendukung model Konteks Protokol (MCP), yang memungkinkan bisnis untuk menghubungkan agen ke alat dan API yang dipesan lebih dahulu, menghindari kebutuhan untuk menemukan kembali roda untuk sistem internal yang ada. Dikombinasikan dengan integrasi untuk perangkat lunak perusahaan lain seperti JIRA dan Salesforce, ini memungkinkan agen untuk melakukan tugas yang kompleks dan lintas platform, seperti memeriksa tiket rekayasa terbuka dan melaporkan status kembali ke manajer di Slack.
Pengawasan manusia sebagai pengganda strategis
Ruang AI perusahaan saat ini sedang mengalami pemeriksaan realitas ketika perusahaan beralih dari eksperimen ke produksi. Konsensus di antara banyak pemimpin industri adalah bahwa manusia dalam loop adalah kebutuhan praktis bagi agen untuk melakukan dengan andal.
Model kolaboratif Mixus mengubah ekonomi penskalaan AI. Campuran memprediksi bahwa pada tahun 2030, penyebaran agen dapat tumbuh 1000x dan setiap pengawas manusia akan menjadi 50x lebih efisien karena agen AI menjadi lebih dapat diandalkan. Tetapi total kebutuhan untuk pengawasan manusia masih akan tumbuh.
“Setiap pengawas manusia mengelola lebih banyak pekerjaan AI secara eksponensial dari waktu ke waktu, tetapi Anda masih membutuhkan lebih banyak pengawasan total karena penyebaran AI meledak di seluruh organisasi Anda,” kata Katz.

Bagi para pemimpin perusahaan, ini berarti keterampilan manusia akan berkembang daripada menghilang. Alih-alih digantikan oleh AI, para ahli akan dipromosikan ke peran di mana mereka mengatur armada agen AI dan menangani keputusan berisiko tinggi yang ditandai untuk ditinjau.
Dalam kerangka kerja ini, membangun fungsi pengawasan manusia yang kuat menjadi keunggulan kompetitif, memungkinkan perusahaan untuk menggunakan AI lebih agresif dan aman daripada saingan mereka.
“Perusahaan yang menguasai perkalian ini akan mendominasi industri mereka, sementara mereka yang mengejar otomatisasi penuh akan berjuang dengan keandalan, kepatuhan, dan kepercayaan,” kata Katz.