Njegova investicija od 14,3 milijardi dolara u Scale AI pojačala je raspravu o kvalitetu i poverenju podataka o AI-u – ponekad na načine koji loše odražavaju Meta i Scale, ali nedvojbeno na načine koji su važni.
Investicija, najavljena u junu 2025. godine, dodijelila je Meta 49% ne-glasujućeg udjela u startup-u za označavanje podataka AI, dok
U roku od nekoliko dana, veliki klijenti uključujući Google, OpenAI i xAI počeli su prekinuti veze sa Scale AI, što je izazvalo ono što je jedan konkurent opisao kao "
Rezultat je donio obnovljen fokus na dva ključna područja koja oblikuju budućnost razvoja AI: infrastrukturu poverenja koja podržava partnerstva i rastuću potrebu za visokokvalitetnim podacima o obuci.
Imperativ za poverenje u razvoj AI
Scale je svoju procjenu izgradio na jednostavnom, ali snažnom prijedlogu: služiti kao neutralni arbiter na tržištu označavanja podataka, pružajući usluge gotovo svakom velikom laboratoriju AI bez igranja favorita.
Meta je investicija razbila to poverenje preko noći. Kao Garrett Lord, izvršni direktor konkurenta Scale Handshake,
Google, najveći kupac Scale-a s planovima da potroši oko 200 miliona dolara na usluge Scale-a 2025. godine,
Ali kriza povjerenja bila je dublja od konkurentnih zabrinutosti. naknadna istraga Business Insider-a otkrila je da je Scale AI
Bezbednosni propusti proširili su se na radnu snagu Scale-a, s javnim dokumentima koji sadrže privatne adrese e-pošte hiljada izvođača, informacije o plaćama i procjene performansi – uključujući liste radnika osumnjičenih za „prevara“.
Scale je odgovorio obećanjem da će provesti temeljitu istragu i onemogućiti javno dijeljenje dokumenata,Međutim, šteta je učinjena.
Izazov kvaliteta podataka
Dok je povjerenje dominiralo naslovnicama, sporazum Meta-Scale naglasio je još fundamentalniji izazov: rastući nedostatak visokokvalitetnih podataka o obuci koji prijeti da će ograničiti razvoj AI.
Kriza kvaliteta podataka je i kvantitativna i kvalitativna.Istraživanje Epoch AI ukazuje na to da
Proliferacija sintetičkog sadržaja stvara začarani krug. AI modeli obučeni na AI generisanim podacima pate od onoga što istraživači nazivaju
Rješenje je da se oslanjamo na stručnjake koji primjenjuju svoje znanje za obuku i kvalitetnu kontrolu aplikacija AI. Na primer, AI modeli u zdravstvenoj skrbi trebaju duboke uvidove koji se nalaze u umovima praktikanata industrije. Ti praktikanti, zauzvrat, moraju biti naučeni kako da pokrenu velike jezikovne modele kako bi ih obučili.
Poslovni model Scale AI izgradjen je na rješavanju tih izazova kroz globalnu mrežu od preko 240.000 izvođača koji ručno anotiraju slike, tekstove i video zapise.Ali unutarnji dokumenti kompanije otkrili su probleme kontrole kvalitete koji se protežu izvan sigurnosnih kršenja.
Pritisak da služimo velikim klijentima tokom post-ChatGPT AI buma doveo je do kompromisa u kontroli kvalitete. Programi koji su bili namijenjeni isključivo stručnjacima postali su "zaplavljeni spamom", prema unutrašnjim dokumentima. Čak i kada su projekti bili namijenjeni da budu anonimni, izvođači su lako mogli identificirati klijente po prirodi zadataka ili uputstvu, ponekad jednostavno pozivajući modele izravno.
Ripple učinci širom AI ekosustava
Kontroverza o meta-skali ubrzala je fragmentaciju tržišta jer se kompanije bore da smanje ovisnost o pojedinim pružateljima.