Deepfake
Deepfake je AI-generisani sintetički video, audio, ili slika koji realistično oponaša stvarnog čoveka. Koristi deep learning (specijalna vrsta veštačke inteligencije) i izgleda nalik pravom bez minimalnih dokaza manipulacije. Termin dolazi od „deep learning“ + „fake“.
Kako se pravi deepfake? Algoritam se obučava na stotinama ili hiljadama fotografija/videa stvarne osobe. Zatim, AI može da generiše novi video gde ta osoba izgleda da govori, ide, ili cini stvari koju nikada nije uradila. Tehnički, to je moguće zbog tehnologije kao što su GANs (Generative Adversarial Networks).
Praktični primeri deepfake-a: (1) Video od nekog poznatog političara koji kaže nešto što nikada nije rekao; (2) „Pornografski deepfake“ – video gde se čini da poznata osoba je u pornografskoj sadržaju (bez dozvole); (3) Audio deepfake – zvuk koji zvuči kao određena osoba ali nije.
Opasnosti deepfake-a: (1) Dezinformacija – lažne vesti mogu da se brzo šire; (2) Zloupotreba – seksualna ucena, fake video za sramotu; (3) Identitetska krađa – korišćenje deepfake-a da se pravi da si neka poznata osoba; (4) Demokratske probleme – fake videi od kandidata tokom izbora mogu da skrene rezultate; (5) Reputacijska šteta – čak i ako se kasnije dokaže da je fake, reputacijska šteta je već učinjena.
Kako zaštititi se od deepfake-a? (1) Sumnjičav – ako video izgleda čudno ili neproporciono (recimo, ochi se ne kinu prirodno), može biti deepfake; (2) Provera izvora – ako nešto čuješ prvi put od nekog sumnjivog izvora, skoro je deepfake; (3) Deepfake detektori – postoje AI alati koji pokušavaju detektovati deepfake-a; (4) Legislacija – sve više zemalja donose zakone koji zabranjuju zlonamerne deepfake-e.
Za startape: Ako razvijate AI tehnologije, odgovornost je da ne bude korišćena za deepfake-e.
