„Deepfakes” nu pot fi oprite, nici măcar cu inteligența artificială
Tehnologia perfecționează modul în care este posibil să schimbi fețe prin Inteligența Artificială; De aceea, deepfakes-urile sau știrile false sunt mai prezente în rețelele de socializare.
Intrăm într-o nouă etapă a fake news şi videoclipuri modificate digital; Acest lucru ar epuiza și ar slăbi încrederea publicului în informații.
Creșterea numărului de deepfakes sau videoclipuri create cu inteligență artificială ceea ce poate face să pară că o persoană a făcut sau a spus ceva ce nu a făcut niciodată a ridicat îngrijorări cu privire la modul în care o astfel de tehnologie ar putea fi utilizată pentru a răspândi dezinformarea și a dăuna reputației cuiva.
Software-ul care folosește învățarea automată a apărut recent.
Cu acest nou software, utilizatorii pot edita transcrierea textului unui videoclip pentru a șterge, adăuga sau modifica cuvintele care ies din gura cuiva, atunci când doresc să realizeze un deepfake.
În decembrie 2017, cuvântul „deepfake” provine de la un utilizator anonim de pe site-ul web „Reddit” folosind porecla „deepfakes”. El a folosit algoritmi de învățare profundă pentru a suprapune digital chipuri de vedete pe actorii din conținut pornografic și, deși i s-a interzis accesul la „Reddit”, nenumărate copiate l-au înlocuit pe alte platforme. Se crede că există în medie 10.000 videoclipuri false care circulă online.
Inteligența artificială reușește să învingă oamenii într-un joc video
Personalități de renume precum Mark Zuckerberg, CEO-ul Facebook, Barack Obama, fostul președinte SUA și actrița Gal Gadot, care interpretează Wonder Woman, au făcut titluri pentru apariția pe videoclipuri deepfakes, care timp de ore s-au crezut a fi reale.
Ali Farhadi asigură că încă nu pot face nimic; În prezent, este managerul principal de cercetare al Institutului Allen, care conduce grupul Vision. De asemenea, indică faptul că tehnologia este la îndemâna multora și o pot folosi în orice mod și după bunul lor plac; indiferent dacă dăunează sau nu altora.