Home Teknologi Bagaimana Kapa menggunakan LLM untuk membantu perusahaan menjawab pertanyaan teknis pengguna dengan...

Bagaimana Kapa menggunakan LLM untuk membantu perusahaan menjawab pertanyaan teknis pengguna dengan andal

35
0
Bagaimana Kapa menggunakan LLM untuk membantu perusahaan menjawab pertanyaan teknis pengguna dengan andal


AI generatif dan model bahasa besar (LLM) telah populer dalam beberapa tahun terakhir, meningkatkan penelusuran online tradisional melalui ChatGPT sekaligus meningkatkan dukungan pelanggan, pembuatan konten, terjemahan, dan banyak lagi. Kini, salah satu startup pemula menggunakan LLM untuk membangun asisten AI yang mampu secara khusus menjawab pertanyaan kompleks bagi pengembang, pengguna akhir perangkat lunak, dan karyawan — seperti ChatGPT, namun untuk produk teknis.

Didirikan pada bulan Februari tahun lalu, Kapa.ai adalah lulusan Y Combinator (YC) Program musim panas 2023dan telah mengumpulkan banyak pelanggan yang cukup mengesankan, termasuk pembuat ChatGPT OpenAI, Docker, Reddit, Monday.com, dan Mapbox. Lumayan untuk bisnis berusia 18 bulan.

“Konsep awal kami muncul setelah beberapa teman yang menjalankan perusahaan teknologi menyampaikan masalah yang sama, dan setelah kami membuat prototipe pertama Kapa.ai untuk mengatasi masalah ini, kami mendapatkan uji coba berbayar pertama kami dalam waktu seminggu,” CEO dan rekan -pendiri Emil Sorensen kata TechCrunch. “Hal ini menghasilkan pertumbuhan organik dari mulut ke mulut — pelanggan kami menjadi pendukung terbesar kami.”

Untuk membangun daya tarik awal tersebut, Kapa.ai kini telah mengumpulkan $3,2 juta dalam putaran pendanaan awal yang dipimpin oleh Modal Inisialisasi.

Menjadi teknis

Dalam istilah yang lebih luas, perusahaan memasukkan dokumentasi teknis mereka ke Kapa.ai, yang kemudian menyajikan antarmuka yang dapat digunakan oleh pengembang dan pengguna akhir untuk mengajukan pertanyaan. buruh pelabuhan, misalnya, baru saja diluncurkan asisten dokumentasi baru bernama Docker Docs AI, yang memberikan respons instan terhadap pertanyaan terkait Docker dari dalam halaman dokumentasinya — ini dibuat menggunakan Kapa.ai.

Kapa.ai di Docker. Kredit Gambar:Kapa.ai

Namun Kapa.ai dapat digunakan untuk berbagai kasus penggunaan seperti dukungan pelanggan, keterlibatan komunitas, dan sebagai asisten tempat kerja untuk membantu karyawan menanyakan basis pengetahuan perusahaan mereka.

Pada dasarnya, Kapa.ai didasarkan pada beberapa LLM dari penyedia berbeda dan bersandar pada kerangka pembelajaran mesin yang disebut Retrieval Augmented Generation (RAG), yang meningkatkan kinerja LLM dengan memungkinkan mereka dengan mudah memanfaatkan sumber data eksternal yang relevan untuk memberikan informasi yang lebih kaya. tanggapan.

“Kami tidak memiliki model – kami bekerja dengan banyak penyedia, termasuk menggunakan model kami sendiri, untuk menggunakan tumpukan dan teknik pengambilan dengan kinerja terbaik untuk setiap kasus penggunaan tertentu,” kata Sorensen.

Perlu dicatat bahwa sudah ada sejumlah alat serupa di luar sana, termasuk startup yang didukung ventura seperti Sana dan Kore.ai, yang secara substansial berupaya menghadirkan AI percakapan ke basis pengetahuan perusahaan. Kapa.ai, pada bagiannya, cocok dengan hal tersebut, namun perusahaan mengatakan bahwa pembeda utamanya adalah bahwa mereka lebih berfokus pada pengguna eksternal dibandingkan karyawan – dan hal ini memiliki pengaruh besar pada desainnya.

“Saat menerapkan asisten AI secara eksternal kepada pengguna akhir, tingkat pengawasan melonjak sepuluh kali lipat,” kata Sorensen. “Akurasi adalah satu-satunya hal yang penting, karena perusahaan khawatir AI akan menyesatkan pelanggan, dan semua orang telah mencoba membuat ChatGPT atau Claude berhalusinasi. Beberapa jawaban buruk dan perusahaan akan segera kehilangan kepercayaan pada sistem Anda. Jadi itulah yang kami pedulikan.”

Ketepatan

Fokus pada penyediaan tanggapan akurat tentang dokumentasi teknis, dengan halusinasi minimal, menyoroti bagaimana Kapa.ai adalah jenis hewan LLM yang berbeda — ia dibuat untuk kasus penggunaan yang jauh lebih sempit.

“Mengoptimalkan akurasi sistem tentu saja memiliki konsekuensi, karena ini berarti kita harus merancang sistem menjadi kurang kreatif dibandingkan sistem LLM lainnya,” kata Sorensen. “Ini untuk menjamin jawaban hanya dihasilkan dari konten yang mereka berikan.”

Lalu ada masalah privasi data yang pelik – salah satu hambatan utama bagi perusahaan untuk melakukan hal tersebut ingin untuk mengadopsi AI generatif tetapi berhati-hati dalam memaparkan data sensitif ke sistem pihak ketiga. Dengan demikian, Kapa.ai termasuk Deteksi dan penyembunyian data PII (informasi pengenal pribadi), yang memastikan informasi pribadi tidak disimpan atau dibagikan.

Ini termasuk pemindaian PII waktu nyata: Ketika sebuah pesan diterima oleh Kapa.ai, pesan tersebut dipindai untuk mencari data PII, dan jika ada data pribadi yang terdeteksi, maka pesan tersebut ditolak dan tidak disimpan. Pengguna juga dapat mengonfigurasi Kapa.ai sehingga data PII apa pun yang terdeteksi dalam dokumen akan dianonimkan.

Tentu saja, bisnis dapat merakit sendiri sesuatu yang mirip dengan Kapa.ai menggunakan alat pihak ketiga seperti Layanan OpenAI Azure atau Tumpukan Jerami Deepset. Namun hal ini memerlukan waktu dan sumber daya yang intensif, terutama ketika Anda cukup mengetuk widget situs web Kapa, ​​menerapkan botnya untuk Slack atau Zendesk, atau menggunakan API-nya yang memungkinkan perusahaan untuk sedikit menyesuaikan berbagai hal dengan antarmuka mereka sendiri.

“Sebagian besar orang yang bekerja dengan kami tidak ingin melakukan semua pekerjaan teknis, atau tidak memiliki sumber daya AI di tim mereka untuk melakukan hal tersebut,” kata Sorensen. “Mereka menginginkan mesin AI yang akurat dan andal yang cukup mereka percayai untuk dipaparkan langsung kepada pelanggan, dan yang telah dioptimalkan untuk kasus penggunaan mereka dalam menjawab pertanyaan teknis tentang produk.”

Dalam hal harga, Kapa.ai mengatakan mereka menggunakan model berlangganan SaaS, menawarkan harga berjenjang berdasarkan kompleksitas penerapan dan penggunaan — meskipun mereka tidak mempublikasikan harga tersebut.

Perusahaan ini memiliki tim jarak jauh beranggotakan sembilan orang yang tersebar di seluruh dunia di dua pusat utama di Kopenhagen, tempat Sorensen bermarkas, dan San Francisco.

Selain pendukung utama Initialized Capital, putaran awal Kapa.ai juga diikuti oleh Y Combinator dan sejumlah angel investor, termasuk pendiri Docker Solomon Hykes, profesor Stanford, dan peneliti AI Keela sayangdan pendiri Replit Amjad Masad.


LEAVE A REPLY

Please enter your comment!
Please enter your name here