Home Teknologi Minggu ini di AI: miliarder berbicara pekerjaan mengotomatiskan

Minggu ini di AI: miliarder berbicara pekerjaan mengotomatiskan

12
0
Minggu ini di AI: miliarder berbicara pekerjaan mengotomatiskan


Hiya, teman -teman, selamat datang di buletin AI reguler TechCrunch. Jika Anda menginginkan ini di kotak masuk Anda setiap hari Rabu, daftar di sini.

Anda mungkin memperhatikan kami melewatkan buletin minggu lalu. Alasannya? Sebuah siklus berita AI yang kacau menjadi lebih memanggul oleh perusahaan AI China yang tiba -tiba meningkat menjadi terkenal, dan tanggapan dari sudut industri dan pemerintah yang praktis.

Untungnya, kami kembali ke jalurnya – dan tidak terlalu cepat, mengingat perkembangan Newsy akhir pekan lalu dari Openai.

CEO Openai Sam Altman berhenti di Tokyo untuk melakukan obrolan di atas panggung dengan Masayoshi Son, CEO Softbank Konglomerat Jepang. SoftBank adalah investor openai utama dan mitratelah berjanji untuk membantu mendanai proyek infrastruktur pusat data besar -besaran di AS di AS

Jadi Altman mungkin merasa dia berutang pada putra beberapa jam dari waktunya.

Apa yang dibicarakan oleh kedua miliarder? Banyak abstrak kerja melalui “agen” AI, per pelaporan bekas. Son mengatakan perusahaannya akan menghabiskan $ 3 miliar per tahun untuk produk openai dan akan bekerja sama dengan Openai untuk mengembangkan platform, “Cristal [sic] Kecerdasan, ”dengan tujuan mengotomatisasi jutaan alur kerja kerah putih tradisional.

“Dengan mengotomatisasi dan mengindirahkan semua tugas dan alur kerjanya, SoftBank Corp akan mengubah bisnis dan layanannya, dan menciptakan nilai baru,” kata SoftBank dalam a Siaran Pers Senin.

Saya bertanya, bagaimanapun, apa yang dipikirkan pekerja yang rendah hati tentang semua yang mengotomatisasi dan otonom ini?

Seperti Sebastian Siemiatkowski, CEO Fintech Klarna, yang sering membual tentang AI menggantikan manusiaSon tampaknya berpendapat bahwa stand-in agen bagi pekerja hanya dapat memicu kekayaan yang luar biasa. Terjadi adalah biaya kelimpahan. Jika otomatisasi pekerjaan yang meluas terjadi, pengangguran dalam skala yang sangat besar tampaknya hasil yang paling mungkin.

Sangat mengecewakan bahwa mereka yang berada di garis depan dalam perlombaan AI – perusahaan seperti Openai dan investor seperti SoftBank – memilih untuk menghabiskan konferensi pers melukis gambar perusahaan otomatis dengan lebih sedikit pekerja pada penggajian. Mereka adalah bisnis, tentu saja – bukan badan amal. Dan pengembangan AI tidak murah. Tapi mungkin orang akan mempercayai AI Jika mereka yang membimbing penyebarannya menunjukkan sedikit lebih banyak keprihatinan untuk kesejahteraan mereka.

Bahan untuk dipikirkan.

Berita

Penelitian mendalam: Openai telah meluncurkan “agen” AI baru yang dirancang untuk membantu orang melakukan penelitian yang mendalam dan kompleks menggunakan chatgpt, platform chatbot bertenaga AI perusahaan.

O3-Mini: Dalam berita Openai lainnya, perusahaan meluncurkan model “penalaran” AI baru, O3-Mini, mengikuti pratinjau Desember lalu. Ini bukan model Openai yang paling kuat, tetapi O3-Mini menawarkan peningkatan efisiensi dan kecepatan respons.

Saya melarang berisiko di sana: Pada hari Minggu di Uni Eropa, regulator blok dapat melarang penggunaan sistem AI yang mereka anggap sebagai “risiko yang tidak dapat diterima” atau membahayakan. Itu termasuk AI yang digunakan untuk skor sosial dan iklan subliminal.

Sebuah drama tentang AI “Doomers”: Ada permainan baru tentang budaya “Doomer” AI, secara longgar berdasarkan pada penggulingan Sam Altman sebagai CEO Openai pada November 2023. Rekan -rekan saya Dominic dan Rebecca berbagi pemikiran mereka setelah menonton pemutaran perdana.

Tech untuk meningkatkan hasil panen: Google X “Moonshot Factory” minggu ini mengumumkan lulusan terbarunya. Pertanian yang diwariskan adalah startup yang digerakkan oleh pembelajaran data dan mesin yang bertujuan untuk meningkatkan bagaimana tanaman ditanam.

Makalah Penelitian Minggu Ini

Model penalaran lebih baik daripada AI rata-rata Anda dalam memecahkan masalah, terutama pertanyaan terkait sains dan matematika. Tapi mereka bukan peluru perak.

A Studi baru dari peneliti di perusahaan Cina Tencent menyelidiki masalah “menyamar” dalam model penalaran, di mana model sebelum waktunya, secara tak terduga meninggalkan rantai pemikiran yang berpotensi menjanjikan. Sesuai hasil penelitian, pola “pupuk” cenderung terjadi lebih sering dengan masalah yang lebih sulit, memimpin model untuk beralih di antara rantai penalaran tanpa sampai pada jawaban.

Tim mengusulkan perbaikan yang menggunakan “penalti pemikiran” untuk mendorong model untuk “secara menyeluruh” mengembangkan setiap garis penalaran sebelum mempertimbangkan alternatif, meningkatkan akurasi model.

Model minggu ini

Kredit gambar:Yue

Sebuah tim peneliti yang didukung oleh pemilik Tiktok Bytedance, perusahaan AI Cina Moonshot, dan lainnya merilis model terbuka baru yang mampu menghasilkan musik berkualitas tinggi dari petunjuk.

Model, disebut Yuedapat mengeluarkan lagu hingga beberapa menit lengkap dengan vokal dan backing track. Ini di bawah lisensi Apache 2.0, yang berarti model dapat digunakan secara komersial tanpa batasan.

Namun, ada kerugian. Menjalankan Yue membutuhkan GPU yang gemuk; Menghasilkan lagu 30 detik membutuhkan waktu enam menit dengan NVIDIA RTX 4090. Selain itu, tidak jelas apakah model tersebut dilatih menggunakan data yang dilindungi hak cipta; Penciptanya belum mengatakannya. Jika ternyata lagu berhak cipta memang ada di set pelatihan model, pengguna dapat menghadapi tantangan IP di masa depan.

Ambil tas

Klasifikasi Konstitusi
Kredit gambar:Antropik

AI Lab Anthropic mengklaim bahwa ia telah mengembangkan teknik untuk lebih andal bertahan terhadap “jailbreak,” metode yang dapat digunakan untuk mem -bypass langkah -langkah keselamatan sistem AI.

Tekniknya, Klasifikasi Konstitusibergantung pada dua set model AI “classifier”: “input” classifier dan classifier “output”. Klasifikasi input menambahkan permintaan untuk model perlindungan dengan templat yang menggambarkan jailbreak dan konten lain yang tidak diizinkan, sementara classifier output menghitung kemungkinan bahwa respons dari model membahas info berbahaya.

Antropik mengatakan bahwa pengklasifikasi konstitusional dapat menyaring “mayoritas besar” dari jailbreak. Namun, itu datang dengan biaya. Setiap kueri 25% lebih menuntut secara komputasi, dan model perlindungannya 0,38% lebih kecil kemungkinannya untuk menjawab pertanyaan yang tidak berbahaya.


LEAVE A REPLY

Please enter your comment!
Please enter your name here