Cine-ar fi crezut că o să citim titluri despre Meta acuzată că a piratat mii de filme pentru adulți ca să-și antreneze inteligența artificială? Și totuși, exact asta s-a întâmplat în vară, când TorrentFreak a publicat știrea despre procesul intentat de Strike 3 Holdings și Counterlife Media.
Cele două companii susțin că Meta ar fi descărcat ilegal aproape 2.400 de filme prin BitTorrent pentru a-și antrena modelele AI, printre care și Movie Gen — un sistem care, teoretic, ar putea genera filme complete. Suma cerută în instanță este pe măsură: 359 de milioane de dolari.
Răspunsul Meta a venit abia de curând și, conform Gizmodo, compania cere anularea procesului.
Ela. Manuela.
Explicația oficială este că „e mult mai probabil ca videoclipurile respective să fi fost descărcate pentru uz personal privat”. Cu alte cuvinte, n-ar fi vorba de o strategie sistematică, ci doar de niște angajați mai… familiarizați cu Manuela.
Acum, nu sunt judecător și nici avocat. Dar din perspectiva mea, după două decenii în suport IT și helpdesk, mi-e foarte greu să cred așa ceva. Într-o companie de anvergura Meta, ideea că cineva poate descărca mii de filme deocheate de pe laptopul de serviciu fără ca nimeni să observe pare fantezistă. Știu prea bine cât control există, câte loguri, filtre și politici interne se aplică în fiecare zi.
Pe de altă parte, e la fel de greu de înțeles la ce ar folosi astfel de materiale pentru antrenarea unei inteligențe artificiale. Deși nu exclud că poate îmi lipsește mie perspectiva necesară pentru a înțelege astfel de comportamente, explicația inițială (cea cu antrenarea AI) pare, paradoxal, singura logică. Și, până la urmă, cred că percepția asta e tot ce contează.
Imaginea aceasta, cu Meta dând vina pe un angajat „curios”, îmi va rămâne în minte indiferent de verdictul judecătoresc. Poate că exact așa a fost, dar dacă nu? Dacă, pur și simplu, mută responsabilitatea în cârca unui angajat care, evident, nu-și permite avocați la fel de buni ca gigantul pentru care lucrează?
Pentru mine, problema nu mai e despre filme sau despre AI, ci despre încredere. Sincer, nu m-ar deranja atât de tare ideea că o companie folosește materiale neconvenționale într-un experiment de machine learning. Ceea ce mă deranjează este că neagă, iar explicația oferită în schimb este complet neconvingătoare.
Vă cred, că și eu mai mint.
Dacă Meta îmi va spune mâine să stau liniștit, că datele mele sunt în siguranță, cum aș putea să-i cred? Istoricul nu ajută. Povestea aceasta, combinată cu scandalul Cambridge Analytica și atâtea alte episoade în care compania a fost prinsă „cu mâța-n sac”, formează un tipar clar: greșeala e mereu „a altcuiva”. Iar explicațiile, precum cea de acum, au darul de a îngrijora și mai tare, nicidecum de a liniști apele.
