
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Model AI hanya berkinerja serta data yang digunakan untuk melatih atau menyempurnakannya.
Data berlabel telah menjadi elemen dasar dari pembelajaran mesin (ML) dan AI generatif untuk sebagian besar sejarah mereka. Data berlabel adalah informasi yang ditandai untuk membantu model AI memahami konteks selama pelatihan.
Saat perusahaan berlomba untuk mengimplementasikan aplikasi AI, kemacetan tersembunyi sering kali bukan teknologi-ini adalah proses pengumpulan, kurasi, dan label data khusus domain yang selama berbulan-bulan. “Pajak pelabelan data” ini telah memaksa pemimpin teknis untuk memilih antara menunda penyebaran atau menerima kinerja suboptimal dari model generik.
Databricks memberi tujuan langsung pada tantangan itu.
Minggu ini, perusahaan merilis penelitian tentang pendekatan baru yang disebut Test-Time Adaptive Optimization (TAO). Ide dasar di balik pendekatan ini adalah untuk memungkinkan penyetelan model bahasa besar (LLM) kelas perusahaan hanya menggunakan data input yang sudah dimiliki perusahaan-tidak ada label yang diperlukan-sambil mencapai hasil yang mengungguli fine-tuning tradisional pada ribuan contoh berlabel. Databricks dimulai sebagai vendor platform Data Lakehouse dan semakin fokus pada AI dalam beberapa tahun terakhir. DataBricks memperoleh mosaicml untuk $ 1,3 miliar dan terus meluncurkan alat yang membantu pengembang membuat aSaya aplikasi dengan cepat. Tim peneliti Mosaic di DataBricks mengembangkan metode TAO baru.
“Mendapatkan data berlabel adalah label yang keras dan label yang buruk akan secara langsung mengarah pada output yang buruk, inilah sebabnya Frontier Labs menggunakan vendor pelabelan data untuk membeli data yang dianotasi manusia yang mahal,” Brandon CUI, penguatan pemimpin pembelajaran dan ilmuwan peneliti senior di databricks mengatakan kepada VentureBeat. “Kami ingin bertemu pelanggan di mana mereka berada, label adalah hambatan untuk adopsi AI perusahaan, dan dengan Tao, tidak lagi.”
Inovasi Teknis: Bagaimana Tao Reinvents LLM Fine-tuning
Pada intinya, Tao menggeser paradigma bagaimana pengembang mempersonalisasikan model untuk domain tertentu.
Daripada pendekatan fine-tuning yang diawasi konvensional, yang membutuhkan contoh input-output berpasangan, TAO menggunakan pembelajaran penguatan dan eksplorasi sistematis untuk meningkatkan model hanya menggunakan contoh kueri.
Pipa teknis menggunakan empat mekanisme berbeda yang bekerja dalam konser:
Generasi respons eksplorasi: Sistem ini mengambil contoh input yang tidak berlabel dan menghasilkan beberapa respons potensial untuk masing -masing menggunakan teknik rekayasa prompt lanjutan yang mengeksplorasi ruang solusi.
Pemodelan hadiah yang dikalibrasi perusahaan: Respons yang dihasilkan dievaluasi oleh Databricks Reward Model (DBRM), yang secara khusus direkayasa untuk menilai kinerja pada tugas -tugas perusahaan dengan penekanan pada kebenaran.
Bantuan Optimalisasi model berbasis pembelajaran: Parameter model kemudian dioptimalkan melalui pembelajaran penguatan, yang pada dasarnya mengajarkan Model untuk menghasilkan respons dengan skor tinggi secara langsung.
Roda gila data berkelanjutan: Ketika pengguna berinteraksi dengan sistem yang digunakan, input baru dikumpulkan secara otomatis, menciptakan loop yang meningkatkan diri tanpa upaya pelabelan manusia tambahan.
Komputasi waktu tes bukanlah ide baru. Openai menggunakan komputasi waktu tes untuk mengembangkan model penalaran O1, dan Deepseek menerapkan teknik serupa untuk melatih model R1. Yang membedakan TAO dari metode komputasi waktu tes lainnya adalah bahwa meskipun menggunakan komputasi tambahan selama pelatihan, model yang disetel akhir memiliki biaya inferensi yang sama dengan model asli. Ini menawarkan keuntungan kritis untuk penyebaran produksi di mana skala biaya inferensi dengan penggunaan.
“TAO hanya menggunakan komputasi tambahan sebagai bagian dari proses pelatihan; itu tidak meningkatkan biaya inferensi model setelah pelatihan,” jelas CUI. “Dalam jangka panjang, kami pikir TAO dan pendekatan komputasi test-time seperti O1 dan R1 akan saling melengkapi-Anda dapat melakukan keduanya.”
Tolok ukur mengungkapkan keunggulan kinerja yang mengejutkan atas penyempurnaan tradisional
Penelitian DataBricks mengungkapkan TAO tidak hanya cocok dengan fine-tuning tradisional-itu melampaui itu. Di beberapa tolok ukur yang relevan dengan perusahaan, databricks mengklaim pendekatan ini lebih baik meskipun menggunakan upaya manusia yang jauh lebih sedikit.
On FinanceBench (dokumen keuangan tanya jawab), TAO meningkatkan kinerja LLAMA 3.1 8B sebesar 24,7 poin persentase dan LLAMA 3.3 70B sebesar 13,4 poin. Untuk generasi SQL menggunakan benchmark burung-SQL yang diadaptasi dengan dialek databricks, TAO memberikan peningkatan masing-masing 19.1 dan 8.7 poin.
Yang paling luar biasa, Llama 3.3 70b Tao-tuned mendekati kinerja GPT-4O dan O3-Mini di seluruh tolok ukur ini-model yang biasanya berharga 10-20x lebih banyak untuk dijalankan di lingkungan produksi.
Ini menyajikan proposisi nilai yang menarik untuk pembuat keputusan teknis: kemampuan untuk menggunakan model yang lebih kecil dan lebih terjangkau yang berkinerja sebanding dengan rekan-rekan premium mereka pada tugas-tugas khusus domain, tanpa biaya pelabelan yang luas secara tradisional diperlukan.
TAO memungkinkan keunggulan waktu-ke-pasar untuk perusahaan
Sementara TAO memberikan keunggulan biaya yang jelas dengan memungkinkan penggunaan model yang lebih kecil dan lebih efisien, nilai terbesarnya mungkin dalam mempercepat waktu-ke-pasar untuk inisiatif AI.
“Kami pikir Tao menghemat perusahaan sesuatu yang lebih berharga daripada uang: itu menghemat waktu,” Cui menekankan. “Mendapatkan data berlabel biasanya membutuhkan batas -batas organisasi yang melintasi, menyiapkan proses baru, mendapatkan ahli materi pelajaran untuk melakukan pelabelan dan memverifikasi kualitas. Perusahaan tidak memiliki bulan untuk menyelaraskan banyak unit bisnis hanya untuk membuat prototipe satu kasus penggunaan AI.”
Kompresi kali ini menciptakan keunggulan strategis. Misalnya, perusahaan jasa keuangan yang menerapkan solusi analisis kontrak dapat mulai menggunakan dan mengulangi hanya menggunakan kontrak sampel, daripada menunggu tim hukum untuk memberi label ribuan dokumen. Demikian pula, organisasi layanan kesehatan dapat meningkatkan sistem pendukung keputusan klinis hanya menggunakan pertanyaan dokter, tanpa memerlukan respons ahli berpasangan.
“Peneliti kami menghabiskan banyak waktu berbicara dengan pelanggan kami, memahami tantangan nyata yang mereka hadapi ketika membangun sistem AI, dan mengembangkan teknologi baru untuk mengatasi tantangan itu,” kata Cui. “Kami sudah menerapkan TAO di banyak aplikasi perusahaan dan membantu pelanggan terus mengulang dan meningkatkan model mereka.”
Apa artinya ini bagi pembuat keputusan teknis
Bagi perusahaan yang ingin memimpin dalam adopsi AI, TAO mewakili titik belok potensial dalam bagaimana sistem AI khusus digunakan. Mencapai kinerja spesifik domain berkualitas tinggi tanpa dataset berlabel yang luas menghilangkan salah satu hambatan paling signifikan untuk implementasi AI yang meluas.
Pendekatan ini khususnya menguntungkan organisasi dengan perahu yang kaya dari data yang tidak terstruktur dan persyaratan khusus domain tetapi sumber daya yang terbatas untuk pelabelan manual-tepatnya posisi di mana banyak perusahaan menemukan diri mereka sendiri.
Ketika AI menjadi semakin sentral bagi keunggulan kompetitif, teknologi yang memompres waktu dari konsep ke penyebaran sementara secara bersamaan meningkatkan kinerja akan memisahkan pemimpin dari lamban. Tao tampaknya siap menjadi teknologi seperti itu, yang berpotensi memungkinkan perusahaan untuk menerapkan kemampuan AI khusus dalam beberapa minggu daripada bulan atau tempat.
Saat ini, TAO hanya tersedia di platform DataBricks dan dalam pratinjau pribadi.