329 bacaan
329 bacaan

Meta’s $14B Bet on Scale AI Backfires, Triggers AI Trust Crisis

oleh davidjdeal...4m2025/06/30
Read on Terminal Reader

Terlalu panjang; Untuk membaca

Dengan berinvestasi di Scale, Meta telah memperkuat percakapan yang sedang berlangsung tentang kepercayaan pada ekosistem AI dan kualitas data yang dibutuhkan untuk melatih AI. penyulingan data dan perusahaan yang membentuk hubungan yang dipercaya dan melatih data dengan keahlian topik akan muncul sebagai pemenang.
featured image - Meta’s $14B Bet on Scale AI Backfires, Triggers AI Trust Crisis
David Deal HackerNoon profile picture
0-item

Investasi $ 14,3 miliar di Scale AI telah mengintensifkan diskusi yang sedang berlangsung tentang kualitas dan kepercayaan data AI - kadang-kadang dengan cara yang mencerminkan buruk pada Meta dan Scale, tetapi tidak diragukan lagi dengan cara yang penting.

Investasi ini, yang diumumkan pada Juni 2025, memberikan Meta 49% kepemilikan non-voting di startup label data AI.Menyewa CEO, Alexandr WangApa yang diikuti hanyalah bencana rantai pasokan yang mengungkapkan kerentanan fundamental di seluruh ekosistem AI.

Menyewa CEO, Alexandr Wang

Dalam beberapa hari, klien utama termasuk Google, OpenAI, dan xAI mulai mematahkan hubungan dengan Scale AI, memicu apa yang digambarkan oleh satu pesaing sebagai “Ini setara dengan ledakan pipa minyak antara Rusia dan Eropa.“”

Ini setara dengan ledakan pipa minyak antara Rusia dan Eropa.

Hasilnya telah membawa fokus baru pada dua bidang penting yang membentuk masa depan pengembangan AI: infrastruktur kepercayaan yang mendukung kemitraan dan kebutuhan yang semakin meningkat untuk data pelatihan berkualitas tinggi.

Imperatif untuk mempercayai pengembangan AI

Scale telah membangun penilaian mereka pada proposisi yang sederhana tetapi kuat: bertindak sebagai arbiter netral di pasar label data, menyediakan layanan untuk hampir setiap laboratorium AI besar tanpa memainkan favorit.

Investasi Meta menghancurkan kepercayaan itu sepanjang malam.Seperti Garrett Lord, CEO dari pesaing Scale Handshake,Menjelaskan“Lab tidak ingin lab lain untuk mencari tahu data apa yang mereka gunakan untuk membuat model mereka lebih baik.Jika Anda adalah General Motors atau Toyota, Anda tidak ingin pesaing Anda datang ke pabrik Anda dan melihat bagaimana Anda menjalankan proses Anda.”

Menjelaskan

A client exodus was swift and decisive. Google, Scale’s largest customer with plans to spend approximately $200 million on Scale’s services in 2025, Tiba-tiba dia mulai merencanakan untuk memotong ikatan.OpenAI mengkonfirmasi bahwa ia mengakhiri hubungan yang telah berlangsung selama berbulan-bulan. xAI menangguhkan proyek.

Tiba-tiba dia mulai merencanakan untuk memotong ikatan.

Tetapi krisis kepercayaan itu lebih dalam daripada kekhawatiran kompetitif. penyelidikan berikutnya dari Business Insider mengungkapkan bahwa Scale AIMenggunakan Google Docs PublikUntuk melacak pekerjaan untuk klien profil tinggi, meninggalkan ribuan halaman dokumen proyek rahasia yang dapat diakses oleh siapa saja dengan tautan. materi yang dipaparkan termasuk rincian sensitif tentang bagaimana Google menggunakan ChatGPT untuk meningkatkan bot chatbot Bard yang berjuang, dokumen pelatihan untuk Project Xylophone xAI, dan materi pelatihan AI rahasia milik Meta.

Menggunakan Google Docs Publik

Pelanggaran keamanan meluas ke tenaga kerja Scale, dengan dokumen publik yang berisi alamat email pribadi ribuan kontraktor, informasi gaji, dan penilaian kinerja - termasuk daftar pekerja yang dicurigai "pelecehan." para ahli keamanan siber menggambarkan praktik Scale sebagai "sangat tidak dapat diandalkan," memperingatkan bahwa kerentanan tersebut dapat mengekspos perusahaan dan kliennya ke berbagai bentuk serangan siber.

Scale menanggapi dengan berjanji untuk melakukan penyelidikan menyeluruh dan menonaktifkan berbagi dokumen publik,Namun kerusakan tersebut telah dilakukan.

Tantangan Kualitas Data

Sementara kepercayaan mendominasi headlines, kesepakatan Meta-Scale menyoroti tantangan yang lebih fundamental: kekurangan data pelatihan berkualitas tinggi yang meningkat yang mengancam akan membatasi pengembangan AI.

Krisis kualitas data adalah baik kuantitatif dan kualitatif. penelitian oleh Epoch AI menunjukkan bahwaSemua data teks publik yang dihasilkan manusia, diperkirakan sekitar 300 triliun token, bisa habis antara 2026 dan 2032. tetapi masalahnya lebih dalam daripada kekurangan sederhana.57% dari konten online sekarang dihasilkan oleh AI, menciptakan “krisis keaslian” yang merusak kualitas data pelatihan.

Semua data teks publik yang dihasilkan manusia57% dari konten online sekarang dihasilkan oleh AI

Proliferasi konten sintetis menciptakan siklus jahat. model AI yang dilatih pada data yang dihasilkan oleh AI menderita dari apa yang disebut penelitimodel collapseSebuah fenomena di mana generasi model berturut-turut kehilangan kemampuan mereka untuk menangkap kompleksitas penuh dan variabilitas data dunia nyata. kolaps model awal mempengaruhi data minoritas dan kasus tepi, sementara kolaps model akhir dapat membuat model hampir tidak berguna karena mereka kehilangan sebagian besar varians mereka dan mulai membingungkan konsep dasar.

Model Runtuh

Solusi adalah mengandalkan para ahli topik yang menerapkan pengetahuan mereka untuk melatih dan memeriksa kualitas aplikasi AI. Sebagai contoh, model AI dalam perawatan kesehatan membutuhkan wawasan mendalam yang terletak di dalam pikiran praktisi industri. para praktisi itu, pada gilirannya, perlu diajarkan bagaimana untuk mendorong model bahasa besar untuk melatih mereka. Anda hanya tidak menemukan para ahli di luar rak.It’s no wonder that 81% of businesses say that they have significant data quality issues.

It’s no wonder that 81% of businesses say that they have significant data quality issues

Model bisnis Scale AI dibangun untuk memecahkan tantangan ini melalui jaringan global lebih dari 240.000 kontraktor yang secara manual menganotasi gambar, teks, dan video, tetapi dokumen internal perusahaan mengungkapkan masalah kontrol kualitas yang melampaui pelanggaran keamanan.Pekerjaan yang transparan yang berhasil menghindari deteksi“”

Pekerjaan yang transparan yang berhasil menghindari deteksi

Tekanan untuk melayani klien utama selama boom AI pasca-ChatGPT menyebabkan kompromi dalam kontrol kualitas. program yang dimaksudkan untuk dipekerjakan secara eksklusif oleh para ahli menjadi “terpancar dengan spam,” menurut dokumen internal.

Efek Ripple di seluruh ekosistem AI

Kontroversi Meta-Scale telah mempercepat fragmentasi pasar karena perusahaan berjuang untuk mengurangi ketergantungan pada penyedia tunggal.Kompetitor Scale Melaporkan Peningkatan Dramatik Dalam PermintaanIni, sebaliknya, bukan hal yang buruk. Persaingan bagus. Fragmensi ini juga mencerminkan pengakuan yang lebih luas bahwa bisnis perlu memeriksa penyedia data mereka dengan hati-hati, terutama karena satu kelelahan dapat mengkompromikan infrastruktur AI. Pengembangan AI bergantung pada jaringan hubungan yang kompleks. Integritas data, netralitas vendor, dan kecerdasan kompetitif saling berhadapan dengan cara yang dapat dengan cepat menghancurkan seluruh rantai pasokan. Keputusan infrastruktur AI membawa risiko yang melampaui metrik kinerja teknis. Di sisi lain, perusahaan dan pengolahan data yang berkolaborasi dalam pelatihan AI dengan keahlian subjek memiliki keuntungan besar saat ini. pengolahan data yang membangun kepercayaan dan memiliki proses yang terbukti untuk memastikan kualitas data akan muncul sebagai penggemar AI.

Kompetitor Scale Melaporkan Peningkatan Dramatik Dalam Permintaan

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks