Mitra dan kolaborator dekat Microsoft, Openai, mungkin menyarankan bahwa Deepseek mencuri IP -nya dan melanggar ketentuan layanannya. Tapi Microsoft masih menginginkan model -model baru yang mengkilap Deepseek di platform cloud -nya.
Microsoft hari ini mengumumkan bahwa R1, model penalaran Deepseek yang disebut, tersedia di Azure AI Foundry Service, platform Microsoft yang menyatukan sejumlah layanan AI untuk perusahaan di bawah satu spanduk. Di sebuah Posting BlogMicrosoft mengatakan bahwa versi R1 di Azure AI Foundry telah “menjalani evaluasi tim merah dan keselamatan yang ketat,” termasuk “penilaian otomatis perilaku model dan ulasan keamanan yang luas untuk mengurangi potensi risiko.”
Dalam waktu dekat, Microsoft mengatakan, pelanggan akan dapat menggunakan rasa “suling” R1 untuk berjalan secara lokal di Copilot+ PC, merek perangkat keras Windows Microsoft yang memenuhi persyaratan kesiapan AI tertentu.
“Saat kami terus memperluas katalog model di Azure AI Foundry, kami senang melihat bagaimana pengembang dan perusahaan memanfaatkan […] R1 untuk mengatasi tantangan dunia nyata dan memberikan pengalaman transformatif, ”lanjut Microsoft di pos.
Penambahan R1 ke Layanan Cloud Microsoft adalah yang aneh, mengingat Microsoft dilaporkan memprakarsai penyelidikan potensi penyalahgunaan Deepseek terhadap layanannya dan Openai. Menurut para peneliti keamanan yang bekerja untuk Microsoft, Deepseek mungkin telah mengeksfiltrasi sejumlah besar data menggunakan API Openai pada musim gugur 2024. Microsoft, yang juga merupakan pemegang saham terbesar Openai, memberi tahu Openai tentang aktivitas yang mencurigakan, per Bloomberg.
Tapi R1 adalah pembicaraan kota, dan Microsoft mungkin telah dibujuk untuk membawanya ke lipatan awannya saat masih memegang daya pikat.
Tidak jelas adalah apakah Microsoft membuat modifikasi pada model untuk meningkatkan keakuratannya – dan memerangi sensornya. Menurut tes Dengan Newsguard Organisasi Peragaan Informasi, R1 memberikan jawaban yang tidak akurat atau non-jawaban 83% dari waktu ketika ditanya tentang topik terkait berita. Tes terpisah menemukan bahwa R1 menolak untuk menjawab 85% dari petunjuk yang terkait dengan Cina, mungkin merupakan konsekuensi dari sensor pemerintah yang dikembangkan oleh model AI di negara ini.