Home Teknologi TechCrunch AI Glosarium | TechCrunch

TechCrunch AI Glosarium | TechCrunch

18
0
TechCrunch AI Glosarium | TechCrunch


Kecerdasan buatan adalah dunia yang dalam dan berbelit -belit. Para ilmuwan yang bekerja di bidang ini sering mengandalkan jargon dan istilah untuk menjelaskan apa yang sedang mereka kerjakan. Akibatnya, kami sering harus menggunakan istilah teknis dalam liputan kami tentang industri kecerdasan buatan. Itu sebabnya kami pikir akan sangat membantu untuk menyusun glosarium dengan definisi beberapa kata dan frasa terpenting yang kami gunakan dalam artikel kami.

Kami akan secara teratur memperbarui glosarium ini untuk menambahkan entri baru sebagai peneliti terus -menerus mengungkap metode baru untuk mendorong perbatasan kecerdasan buatan sambil mengidentifikasi risiko keselamatan yang muncul.


Agen AI mengacu pada alat yang memanfaatkan teknologi AI untuk melakukan serangkaian tugas atas nama Anda – di luar apa yang bisa dilakukan AI Chatbot yang lebih mendasar – seperti pengajuan biaya, memesan tiket atau meja di restoran, atau bahkan menulis dan memelihara kode. Namun, seperti yang telah kami jelaskan sebelumnya, ada banyak bagian bergerak di ruang yang muncul ini, sehingga orang yang berbeda dapat berarti hal yang berbeda ketika mereka merujuk ke agen AI. Infrastruktur juga masih dibangun untuk memenuhi kemampuan yang dibayangkan. Tetapi konsep dasar menyiratkan sistem otonom yang dapat menggunakan beberapa sistem AI untuk melakukan tugas multi-langkah.

Diberi pertanyaan sederhana, otak manusia dapat menjawab tanpa terlalu memikirkannya – hal -hal seperti “hewan mana yang lebih tinggi antara jerapah dan kucing?” Tetapi dalam banyak kasus, Anda sering membutuhkan pena dan kertas untuk menghasilkan jawaban yang tepat karena ada langkah perantara. Misalnya, jika seorang petani memiliki ayam dan sapi, dan bersama -sama mereka memiliki 40 kepala dan 120 kaki, Anda mungkin perlu menuliskan persamaan sederhana untuk menghasilkan jawabannya (20 ayam dan 20 sapi).

Dalam konteks AI, penalaran rantai untuk model bahasa besar berarti memecah masalah menjadi langkah-langkah menengah yang lebih kecil untuk meningkatkan kualitas hasil akhir. Biasanya butuh lebih lama untuk mendapatkan jawaban, tetapi jawabannya lebih cenderung benar, terutama dalam konteks logika atau pengkodean. Apa yang disebut model penalaran dikembangkan dari model bahasa besar tradisional dan dioptimalkan untuk pemikiran rantai berkat pembelajaran penguatan.

(Melihat: Model Bahasa Besar)

Subset pembelajaran mesin yang meningkatkan diri di mana algoritma AI dirancang dengan struktur jaringan saraf buatan (JST) multi-lapis. Ini memungkinkan mereka untuk membuat korelasi yang lebih kompleks dibandingkan dengan sistem berbasis pembelajaran mesin yang lebih sederhana, seperti model linier atau pohon keputusan. Struktur algoritma pembelajaran mendalam menarik inspirasi dari jalur neuron yang saling berhubungan di otak manusia.

AI Pembelajaran yang mendalam dapat mengidentifikasi karakteristik penting dalam data itu sendiri, daripada mengharuskan insinyur manusia untuk mendefinisikan fitur -fitur ini. Struktur ini juga mendukung algoritma yang dapat belajar dari kesalahan dan, melalui proses pengulangan dan penyesuaian, meningkatkan output mereka sendiri. Namun, sistem pembelajaran yang mendalam membutuhkan banyak titik data untuk menghasilkan hasil yang baik (jutaan atau lebih). Biasanya juga membutuhkan waktu lebih lama untuk melatih pembelajaran mendalam vs algoritma pembelajaran mesin yang lebih sederhana – sehingga biaya pengembangan cenderung lebih tinggi.

(Melihat: Jaringan saraf)

Ini berarti pelatihan lebih lanjut dari model AI yang dimaksudkan untuk mengoptimalkan kinerja untuk tugas atau area yang lebih spesifik daripada titik fokus sebelumnya dari pelatihannya-biasanya dengan memberi makan dalam data baru yang khusus (yaitu tugas yang berorientasi pada tugas).

Banyak startup AI mengambil model bahasa besar sebagai titik awal untuk membangun produk komersial tetapi bersaing untuk meningkatkan utilitas untuk sektor target atau tugas dengan melengkapi siklus pelatihan sebelumnya dengan penyesuaian berdasarkan pengetahuan dan keahlian khusus domain mereka sendiri.

(Melihat: Model Bahasa Besar (LLM))

Model bahasa besar, atau LLM, adalah model AI yang digunakan oleh asisten AI populer, seperti ChatGPT, Claude, Google Gemini, Meta's Ai Llama, Microsoft Copilot, atau Mistral's Le Chat. Saat Anda mengobrol dengan AI Assistant, Anda berinteraksi dengan model bahasa besar yang memproses permintaan Anda secara langsung atau dengan bantuan berbagai alat yang tersedia, seperti penjelajahan web atau penerjemah kode.

AI Assistants dan LLMS dapat memiliki nama yang berbeda. Misalnya, GPT adalah model bahasa besar Openai dan ChatGPT adalah produk asisten AI.

LLM adalah jaringan saraf yang dalam yang terbuat dari miliaran parameter numerik (atau bobot, lihat di bawah) yang mempelajari hubungan antara kata -kata dan frasa dan membuat representasi bahasa, semacam peta kata -kata multidimensi.

Itu dibuat dari pengkodean pola yang mereka temukan dalam miliaran buku, artikel, dan transkrip. Saat Anda meminta LLM, model menghasilkan pola yang paling mungkin sesuai dengan prompt. Kemudian mengevaluasi kata berikutnya yang paling mungkin setelah yang terakhir berdasarkan apa yang dikatakan sebelumnya. Ulangi, ulangi, dan ulangi.

(Melihat: Jaringan saraf)

Jaringan saraf mengacu pada struktur algoritmik berlapis-lapis yang menopang pembelajaran mendalam-dan, secara lebih luas, seluruh ledakan alat AI generatif mengikuti munculnya model bahasa besar.

Meskipun gagasan untuk mengambil inspirasi dari jalur otak manusia yang saling berhubungan dengan kuat sebagai struktur desain untuk algoritma pemrosesan data sepanjang jalan kembali ke tahun 1940 -an, itu adalah peningkatan perangkat keras pemrosesan grafis (GPU) yang jauh lebih baru – melalui industri video game – yang benar -benar membuka kunci kekuatan teori. Chip-chip ini terbukti sangat cocok untuk algoritma pelatihan dengan lebih banyak lapisan daripada yang mungkin terjadi di zaman sebelumnya-memungkinkan sistem AI berbasis jaringan saraf untuk mencapai kinerja yang jauh lebih baik di banyak domain, baik untuk pengenalan suara, navigasi otonom, atau penemuan obat.

(Melihat: Model Bahasa Besar (LLM))

Bobot adalah inti dari pelatihan AI karena mereka menentukan seberapa penting (atau berat) diberikan pada fitur yang berbeda (atau variabel input) dalam data yang digunakan untuk melatih sistem – dengan demikian membentuk output model AI.

Dengan kata lain, bobot adalah parameter numerik yang menentukan apa yang paling menonjol dalam set data untuk tugas pelatihan yang diberikan. Mereka mencapai fungsinya dengan menerapkan multiplikasi pada input. Pelatihan model biasanya dimulai dengan bobot yang ditugaskan secara acak, tetapi ketika prosesnya terungkap, bobotnya menyesuaikan ketika model berusaha untuk mencapai output yang lebih cocok dengan target.

Misalnya, model AI untuk memprediksi harga rumah yang dilatih pada data real estat historis untuk lokasi target dapat mencakup bobot untuk fitur seperti jumlah kamar tidur dan kamar mandi, apakah properti terpisah, semi-terpisah, jika memiliki atau tidak memiliki parkir, garasi, dan sebagainya.

Pada akhirnya, bobot model yang melekat pada masing -masing input ini adalah cerminan dari seberapa banyak mereka mempengaruhi nilai properti, berdasarkan set data yang diberikan.


LEAVE A REPLY

Please enter your comment!
Please enter your name here