Papa Franja nije zaista nosio zimsku jaknu firme Balensijaga … a bivši predsednik Donald Tramp nije fotografisan kako beži od policije. Te lažne slike napravio je softver koji koristi generativnu veštačku inteligenciju.
Tehnologija lažnih slika “dipfejk” već je deo predsedničke kampanje u Americi 2024. Tako Trampovi protivnici emituju snimak na kome se vidi kako grli bivšeg zdravstvenog savetnika Bele kuće Entonija Faučija, sa kojim se često sporio za vreme pandemije kovida 19.
Autori emisije “Verify”, koja razotkriva dezinformacije, ustanovili su da su te tri slike – lažne.
Your browser doesn’t support HTML5
“Ako pažljivo pogledate ove slike, vidite dokaze da ih je proizvela veštačka inteligencija. Ovde u pozadini, umesto da piše Bela kuća, piše “miphep”, ukazuje Kejsi Deker, reporter emisije "Verify".
Lažni snimci u političkom marketing brinu neprofitnu organizaciju za prava potrošača Public Citizen, čija je potpredsednica Lisa Gilbert.
“Jedna od stvari koju veštačka inteligencija, a posebno generativna, može da lako proizvodi su lažni snimci – takozvani dipfejk. To je audio ili video koji izgleda neverovatno realno i ponekad je nemoguće golim okom ga razlikovati od stvarnog videa”.
Organizacija Public Citizen je zatražila od Federalne izborne komisije da uvede pravila za spotove u kampanji koji koriste kompjuterski proizvedene snimke, ali je komisija odgovorila da to nije u njenoj nadležnosti. Trenutno nema mnogo pravne infrastrukture za regulisanje dipfejkova, kaže Džejms Grimelman, profesor prava u informatici na pravnom fakultetu Univerziteta Kornel.
“Vrhovni sud je zapravo prilično jasno stavio na znanje da je za njih veoma teško da regulišu bilo šta osim duboko i izrazito netačnog i štetnog govora”.
On očekuje da će se lažni snimci sve više koristiti u političkim kampanjama.
“I biće veoma teško da se ustanovi ko ih je napravio”.
U Kongresu se trenutno razmatra zakon prema kojem bi se od autora političkih spotova zahtevalo da navedu da li je korišćena generativna veštačka inteligencija.