
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Model yang lebih besar tidak mendorong gelombang inovasi AI berikutnya. Gangguan sebenarnya lebih tenang: standardisasi.
Diluncurkan oleh Anthropic pada November 2024, Model Context Protocol (MCP) menstandarkan bagaimana aplikasi AI berinteraksi dengan dunia di luar data pelatihan mereka. Sama seperti HTTP dan REST standar bagaimana aplikasi web terhubung ke layanan, MCP menstandarkan bagaimana model AI terhubung ke alat.
Anda mungkin membaca selusin artikel yang menjelaskan apa itu MCP. Tapi yang paling merindukan adalah bagian yang membosankan – dan kuat – MCP adalah standar. Standar tidak hanya mengatur teknologi; Mereka menciptakan roda gila pertumbuhan. Adopsi lebih awal, dan Anda mengendarai ombak. Abaikan mereka, dan Anda tertinggal. Artikel ini menjelaskan mengapa MCP penting sekarang, tantangan apa yang diperkenalkannya, dan bagaimana itu sudah membentuk kembali ekosistem.
Bagaimana MCP menggerakkan kita dari kekacauan ke konteks
Temui Lily, seorang manajer produk di perusahaan infrastruktur cloud. Dia menyulap proyek di setengah lusin alat seperti Jira, Figma, GitHub, Slack, Gmail dan Confluence. Seperti banyak orang, dia tenggelam dalam pembaruan.
Pada tahun 2024, Lily melihat seberapa baik model bahasa besar (LLM) menjadi dalam mensintesis informasi. Dia melihat peluang: Jika dia bisa memberi makan semua alat timnya ke dalam model, dia dapat mengotomatiskan pembaruan, menyusun komunikasi dan menjawab pertanyaan tentang permintaan. Tetapi setiap model memiliki cara khusus untuk menghubungkan ke layanan. Setiap integrasi menariknya lebih dalam ke platform vendor tunggal. Ketika dia perlu menarik transkrip dari Gong, itu berarti membangun koneksi yang dipesan lebih dahulu, membuatnya lebih sulit untuk beralih ke LLM yang lebih baik nanti.
Kemudian Anthropic meluncurkan MCP: protokol terbuka untuk menstandarkan bagaimana konteks mengalir ke LLMS. MCP dengan cepat mengambil dukungan dari Openai, AWS, Azure, Microsoft Copilot Studio dan, segera, Google. SDK resmi tersedia untuk Python, TypeScript, Java, C#, Rust, Kotlin dan Swift. SDK komunitas untuk go dan yang lainnya mengikuti. Adopsi cepat.
Hari ini, Lily menjalankan semuanya melalui Claude, terhubung ke aplikasi kerjanya melalui server MCP lokal. Laporan Status Menyusun diri mereka sendiri. Pembaruan kepemimpinan adalah salah satu prompt. Ketika model baru muncul, dia dapat menukarnya tanpa kehilangan integrasinya. Ketika dia menulis kode di samping, dia menggunakan kursor dengan model dari OpenAi dan server MCP yang sama seperti yang dia lakukan di Claude. IDE -nya sudah memahami produk yang dia bangun. MCP membuat ini mudah.
Kekuatan dan implikasi dari suatu standar
Kisah Lily menunjukkan kebenaran sederhana: tidak ada yang suka menggunakan alat yang terfragmentasi. Tidak ada pengguna yang suka dikunci ke vendor. Dan tidak ada perusahaan yang ingin menulis ulang integrasi setiap kali mereka mengubah model. Anda ingin kebebasan untuk menggunakan alat terbaik. MCP memberikan.
Sekarang, dengan standar datang implikasi.
Pertama, penyedia SaaS tanpa API publik yang kuat rentan terhadap usang. Alat MCP bergantung pada API ini, dan pelanggan akan menuntut dukungan untuk aplikasi AI mereka. Dengan standar de facto muncul, tidak ada alasan.
Kedua, siklus pengembangan aplikasi AI akan mempercepat secara dramatis. Pengembang tidak lagi harus menulis kode khusus untuk menguji aplikasi AI sederhana. Sebagai gantinya, mereka dapat mengintegrasikan server MCP dengan klien MCP yang tersedia, seperti Claude Desktop, Cursor dan Windsurf.
Ketiga, biaya switching runtuh. Karena integrasi dipisahkan dari model tertentu, organisasi dapat bermigrasi dari Claude ke OpenAi ke Gemini – atau model campuran – tanpa membangun kembali infrastruktur. Penyedia LLM masa depan akan mendapat manfaat dari ekosistem yang ada di sekitar MCP, memungkinkan mereka untuk fokus pada kinerja harga yang lebih baik.
Menavigasi tantangan dengan MCP
Setiap standar memperkenalkan titik gesekan baru atau meninggalkan titik gesekan yang ada belum terpecahkan. MCP tidak terkecuali.
Kepercayaan itu penting: Lusinan pendaftar MCP telah muncul, menawarkan ribuan server yang dipelihara oleh komunitas. Tetapi jika Anda tidak mengontrol server – atau mempercayai pihak yang melakukannya – Anda berisiko membocorkan rahasia kepada pihak ketiga yang tidak dikenal. Jika Anda seorang perusahaan SaaS, berikan server resmi. Jika Anda seorang pengembang, cari server resmi.
Kualitasnya bervariasi: API berevolusi, dan server MCP yang tidak dipelihara dengan buruk dapat dengan mudah tidak sinkron. LLMS mengandalkan metadata berkualitas tinggi untuk menentukan alat mana yang akan digunakan. Belum ada pendaftaran MCP otoritatif, memperkuat perlunya server resmi dari partai tepercaya. Jika Anda seorang perusahaan SaaS, pertahankan server Anda saat API Anda berkembang. Jika Anda seorang pengembang, cari server resmi.
Server MCP besar meningkatkan biaya dan utilitas yang lebih rendah: Bundling terlalu banyak alat ke dalam satu server meningkatkan biaya melalui konsumsi token dan menganjurkan model dengan terlalu banyak pilihan. LLMS mudah bingung jika mereka memiliki akses ke terlalu banyak alat. Ini yang terburuk dari kedua dunia. Server yang lebih kecil dan berfokus pada tugas akan menjadi penting. Ingatlah hal ini saat Anda membangun dan mendistribusikan server.
Tantangan otorisasi dan identitas bertahan: Masalah -masalah ini ada sebelum MCP, dan mereka masih ada dengan MCP. Bayangkan Lily memberi Claude kemampuan untuk mengirim email, dan memberikan instruksi yang bermaksud baik seperti: “Dengan cepat mengirim Chris pembaruan status.” Alih -alih mengirim email bosnya, Chris, LLM mengirim email kepada semua orang bernama Chris dalam daftar kontaknya untuk memastikan Chris mendapat pesan. Manusia perlu tetap berada di loop untuk tindakan penilaian tinggi.
Melihat ke depan
MCP bukan hype – ini adalah perubahan mendasar dalam infrastruktur untuk aplikasi AI.
Dan, sama seperti setiap standar yang diadopsi dengan baik sebelum itu, MCP menciptakan roda gila yang menguatkan diri: setiap server baru, setiap integrasi baru, setiap aplikasi baru menambah momentum.
Alat, platform, dan pendaftar baru sudah muncul untuk menyederhanakan pembangunan, pengujian, penyebaran, dan menemukan server MCP. Seiring berkembangnya ekosistem, aplikasi AI akan menawarkan antarmuka sederhana untuk dihubungkan ke kemampuan baru. Tim yang merangkul protokol akan mengirimkan produk lebih cepat dengan cerita integrasi yang lebih baik. Perusahaan yang menawarkan API publik dan server MCP resmi dapat menjadi bagian dari kisah integrasi. Pengadopsi yang terlambat harus berjuang untuk relevansi.
Noah Schwartz adalah kepala produk untuk Tukang pos.