Ono što je već viđeno u svetu, dogodilo se i u Srbiji. Vlasnik TV Pink Željko Mitrović napravio je dipfejk video snimke opozicionara iz Stranke slobode i pravde, Dragana Đilasa i Marinike Tepić – odnosno manipulisao njihovim likovima i glasom, i stavio im u usta nešto što nikada nisu rekli. Ti snimci su emitovani na televiziji Pink i proširili su se po društvenim mrežama.
Na snimcima ne postoji nikakva oznaka da nisu autentični, odnosno da su proizvedeni uz pomoć veštačke inteligencije.
Đilas je najavio tužbu protiv vlasnika Pinka zbog „nezakonite obrade njegovog glasa i lika“ i ocenio da „oni koji imaju veliku moć, imaju manjak srama i morala“. Sa druge strane, Željko Mitrović je ocenio da je reč o „satiričnom“ programu.
Kako je u Srbiji regulisana ova oblast?
Zakon o veštačkoj inteligenciji ne postoji, ali bi u ovom konkretnom slučaju mogao da se primeni Zakon o zaštiti podataka o ličnosti koji zabranjuje manipulisanje identitetom.
Iako nema zakona, o upotrebi veštačke inteligencije u Srbiji postoje Etičke smernice za razvoj, primenu i upotrebu pouzdane i odgovorne veštačke inteligencije usvojene u martu 2023. One bi trebalo da obezbede da se ne zloupotrebljavaju podaci o ličnosti, da štite od diskriminacije, i da se odgovorno razvija veštačka inteligencija.
Smernice, međutim, nisu obavezujuće.
„U našim smernicama je prepoznato da bi tehnologija treba da se koristi za dobro, znači da ne bi trebalo da se koristi u vojne svrhe, razvoj biohemijskih oružja i slično. Etičke smernice moraju da budu podložne lokalnoj kulturi i društvu. One imaju veći značaj nego zakoni, zakoni su tu da definišu šta su problematične stavke, a šta nisu, nikad zakonom ne može da se uredi čitav sistem, mora da se ostavi deo slobodnom tumačenju, da se da sloboda inovativnosti“, kaže za Glas Amerike Aleksandar Linc Đorđević, osnivač i direktor e-konferencije Data Science Conference (DSC).
Ipak, ono gde bi zakon mogao da nastupi je oblast kažnjavanja za zloupotrebu veštačke inteligencije.
„Moramo da vidimo koji tipovi podataka se koriste, ne treba da zabijamo glavu u pesak i kažemo da je isto ako neko objavi lažnu reklamu i ako se napravi da je neko rekao nešto što nije rekao, nije ista težina. Sa te strane mislim mogu da se pooštre kazne za neke stvari koje imaju širi društveni uticaj, kako bi se prevenirale“.
Kakva je regulativa u svetu?
Evropska unija je u junu ove godine donela zakon o veštačkoj inteligenciji (AI Act) koji će stupiti na snagu 2025. godine.
Zakon klasifikuje veštačku inteligenciju u četiri nivoa rizika, od minimalnog do neprihvatljivog, i propisuje i kazne. Dipfejk tehnologija je u ovom zakonu označena kao kategorija ograničenog rizika i zahteva od onih koji je prave da jasno naznače da je reč o izmontiranom video ili audio snimku. Izuzetak su sadržaji koji su umetnički, satirični, filmovi, video igrice.
U SAD ne postoji federalni zakon koji reguliše dipfejk – iako se izmontirani sadržaji pojavljuju već duže vreme.
Rojters podseća na skore dipfejk snimke Hilari Klinton, u kojem podržava Trampovog glavnog republikanskog rivala Rona Desantisa.
Tramp je takođe na svojoj društvenoj mreži objavio dipfejk video gde voditelj CNN-a izgovara nešto što nikada nije zaista rekao.
U anlizi Rojtersa se navodi i podatak da je ove godine objavljeno tri puta više lažnih snimaka nego u istom periodu prošle godine i postavlja se pitanje uticaja na birače u predizbornoj kampanji za 2024. godinu.
Direktor komanije OpenAI, koja je tvorac programa ChatGPT, Sem Altman, apelovao je na Kongres da reguliše oblast veštačke inteligencije i upozorio da ona može da bude opasna.
„Regulacija treba da postoji ne samo na novim, nego i na postojećim rešenjima“, kaže Linc Đorđević, a na pitanje da li je moguće regulisati nešto retroaktivno, odgovara: „Realno? Nije. Ako već imate istrenirani model, onda nije“.
Ne propustite: Američki predsednički izbori i veštačka inteligencijaSagovornik Glasa Amerike ističe da su „zato bitne etičke smernice, kao i u životu – bilo da ima zakona ili ne“. U osvrtu na slučaj dipfejka Đilasa i Tepić, Linc Đorđević zaključuje da je važno pozivati one koji kreiraju sadržaje na ličnu odgovornost.
I dodaje – veštačka inteligencija se može mnogo bolje upotrebiti.
„Ne podržavam korišćenje tehnologije u te svrhe, recimo to oko zamene glasa. To može na mnogo lepši način da se iskoristi – da naši lekari to koriste, recimo da kroz glas generišu tekst, slična je tehnologija. Ili, recimo, da koristimo veštačku inteligenciju za rano dijagnostikovanje kancera dojke. Da, treba da se igramo sa veštačkom inteligencijom, zato što na kraju dana taj deo istraživanja – igranje – i jeste bitna stavka. Ali, bolje da se ta tehnologija da stručnjacima da naprave nešto korisno, nego da se koristi u dnevnopolitičke svrhe“.