- O imagine fake cu o femeie de 122 de ani, cu un tort în față a strand strâns peste 4.000 de distribuiri, 20.000 de comentarii și 100.000 de reacții pe Facebook
- Imaginile de acest fel reprezintă doar vârful aisbergului pentru provocările generate de dezinformare
- Au fost create standarde pentru verificarea și etichetare imaginilor, pentru a depista deepfake-ul
Pe măsură ce tehnologia se îmbunătățește, imaginile fake, generale cu AI, nu mai pot fi identificate. În această cauză, experții încearcă să găsească metode noi pentru combaterea dezinformării. Un exemplu recent în acest sens, este fotografia unei femei de 122 de ani, cu un tort în față. Imaginea a captat rapid atenția publicului, strângând peste 4.000 de distribuiri, 20.000 de comentarii și 100.000 de reacții pe Facebook
În descrierea postării, se menționa că femeia a început să facă prajituri încă de la vârsta de cinci ani. Totuși, a fost evident pentru cei cu un ochi critic că această imagine era falsă. Detaliile precum lumânările suspendate și petele neclare de pe tortul ridică semne de întrebare.
Deși fotografiile de acest gen pot fi considerate inocente, ele sunt doar vârful aisbergului în ceea ce privește dezinformarea. Pe măsură ce AI avansează, identificarea deepfakes-urilor este tot mai dificilă.
„Nu mai avem timp să facem detecția manual”, a subliniat Mike Speirs de la firma de consultanță în domeniul inteligenței artificiale Faculty. „Modelele se dezvoltă cu o viteză și un ritm incredibil din punct de vedere tehnic și, în mod alarmant, acest lucru este destul de tulburător.”
Există diverse tehnici manuale pentru a identifica imaginile false, însă, în prezent, acestea necesită mult timp și efort. „Mâinile sunt o trăsătură clasică, iar apoi ochii sunt, de asemenea, un indicator destul de bun”, adaugă Speirs. „Dar chiar și în prezent, acest lucru consumă mult timp.”
Poate scade etichetarea fenomenul de deepfakes?
Companiile din domeniul tehnologiei au început să reacționeze la fluxul de media generat artificial. Coaliția pentru proveniența și autenticitatea conținutului, care include printre membrii săi BBC, Google, Microsoft și Sony, a produs standarde pentru de verificare și etichetare, iar în februarie OpenAI a anunțat că le va adopta pentru DALL-E 3. Acum, imaginile generate de instrument au o etichetă vizibilă și un filigran lizibil de către mașină. La nivelul distribuției, Meta a început să adauge propriile etichete la conținutul generat de AI, asigurând că va elimina postările fără etichete.
Aceasta este o problemă, deoarece etichetarea nu este în niciun caz universală – și nici nu este probabil să fie. Companiile mari, precum OpenAI, ar putea fi de acord să își eticheteze creațiile, dar startup-uri precum Midjourney nu au capacitatea de a dedica timp suplimentar de inginerie acestei probleme. Iar în cazul proiectelor „open source”, cum ar fi Stable Diffusion, este imposibil să se forțeze aplicarea filigranului, deoarece există întotdeauna opțiunea de a „bifurca” pur și simplu tehnologia și de a o construi pe a ta.
Citește și