Urmăriți un material care trage un semnal de alarmă relativ la conținutul Deepfake (imaginile video trucate astfel încât o persoană să fie folosită ca personaj fals) pentru adulți. Este o problemă serioasă și terifiantă pentru că astfel se pot distruge vieți, persoanele exploatate astfel neputând dovedi falsul.
Vizionare plăcută! (după clip aveți podcastul și transcriptul)
(pentru o vizionare optimă vă rugăm întoarceți celularul sau tableta pe orizontală înainte de a porni clipul)
Powered by RedCircle
Începând cu 2019, 96% din video-urile falsificate cu ajutorul IA (deepfake) de pe internet, au fost de natură sexuală și, practic, toate au fost cu femei care nu își exprimaseră acordul. O dată cu lansarea unor instrumente de IA precum Dall-E și Midjourney, realizarea acestor falsuri a devenit mai ușoară ca oricând și repercusiunile pentru femeile implicate sunt mult mai devastatoare.
Recent, o profesoară, dintr-un orășel din SUA, a fost concediată după ce imaginea ei a apărut într-un videoclip pentru adulți. Părinții elevilor au găsit clipul și au spus clar că nu vor ca acestă femeie să le predea copiilor lor. Ea a fost concediată imediat din funcție. Dar această femeie nu filmase niciodată un video explicit. IA generativă a creat o imagine asemănătoare cu ea și a suprapus-o pe corpul unei actrițe de film pentru adulți. Ea și-a pledat nevinovăția, dar părinții elevilor nu au putut înțelege cum un astfel de video ar putea fi fals. Au refuzat să o creadă. Și, sincer, e greu să-i învinovățim.
Am văzut cu toții cât de bine se poate truca cu IA generativă (GenAI). Acest incident și multe altele similare dovedesc cât de periculoasă e IA cu conținut pentru adulți, iar dacă e lăsată necontrolată ar putea fi mult mai rău. Adevărul e că nu tehnologia în sine e problema, ci modul în care oamenii o folosesc, în lipsa cadrului legislativ pentru utilizarea ei.
La o prima vedere, pornografia IA ar putea părea inofensivă. Dacă putem genera alte forme de conținut [pornografic], fără actori umani, de ce nu? Cu siguranță ar putea reduce munca în domeniu, dar ar putea, de asemenea, să genereze mai multe situații problematice în industrie. Dacă IA ar obișnui să creeze imaginea unor oameni artificiali, nu ar fi atât de rău, însă, problema este că GenAI a fost folosită în principal pentru a face falsuri ca să convingă telespectatorii că persoana pe care o văd este o anumită persoană reală, cineva care nu și-a dat niciodată consimțământul pentru a apărea în acel video.
Vorbind de consimțământ, înfățișând convingător femei în ipostaze sugestive, autorii comit acte sau comportamente de natură sexuală, fără permisiunea victimei și asta, prin definiție, este agresiune sexuală. Dar oare utilizarea GenIA pentru a produce aceste videoclipuri provoacă un prejudiciu real, fără ca acesta să fie definit ca agresiune? Pentru victimele implicate există numeroase consecințe ale faptului că au fost portretizate în aceste clipuri.
Iată cum arată să te vezi dezbrăcat împotriva voii tale peste tot pe internet. QTCinderella este un streamer Twitch care și-a construit o rețea masivă de urmăritori pentru conținutul ei despre jocuri, gătit și stil de viață. Ea a mai creat și streamer-ul Awards pentru a-și onora colegii creatori de conținut, dintre care unul a fost Brandon Ewing, alias Atrioc. În ianuarie 2023, Atrioc transmitea în direct pe streaming, când telespectatorii săi au văzut o filă deschisă în browserul lui pentru un site web de deepfake. După ce un screenshot a fost postat pe Reddit, utilizatorii au constatat că pe adresa siteului erau videouri cu deepfakeuri despre streameri precum QTCindarella făcând acte sexuale explicite.
Cindarella a început să fie hărțuită cu aceste imagini și videoclipuri și după ce le-a văzut a spus: ”Dismorfia corporală pe care am experimentat-o văzând aceste imagini m-a distrus! Nu este doar ca și cum ai fi violată, e mult mai mult de atât.” Luni de zile după aceea, QTCindarella a fost constant hărțuită cu aceste amintiri și videoclipuri. Unii oameni oribili au trimis pozele verișorului ei de 17 ani și acesta nu e un caz izolat. Autorii falsurilor cu IA se știe că trimit aceste videoclipuri membrilor familiei victimelor, mai ales dacă acestora nu le place ce face victima în public.
Fondatoarea grupului „Not Your Porn”, dedicat eliminării pornografiei fără consimțământ de pe internet, a fost vizată de ”troli” ai internetului, care folosesc video generate cu IA care o înfățișau în acte explicite. Apoi, cineva a trimis aceste clipuri membrilor familiei ei… Imaginați-vă cât de îngrozitor trebuie să se fi simțit ea și rudele ei. Tristul adevăr este că și atunci când o victimă poate discredita videourile, răul ar putea să fie deja făcut. Un clip ”deepfake” poate afecta cariera cuiva la într-un moment crucial.
Cindarella a reușit să se repună pe picioare și să-și păstreze calea, dar profesoara care și-a pierdut serviciul nu a fost așa norocoasă. Imaginați-vă că cineva e în campanie electorală și conduce în sondaje și e vizat de un clip falsificat prin IA cu 24 de ore înainte de noaptea alegerilor. Imaginați-vă cât de mult râu poate provoca asta înainte ca echipa lui să poată dovedi că videoclipul a fost falsificat. Din păcate, e foarte puțină legislație privind falsificarea prin IA și până acum doar trei state din SUA au adoptat legi care să o abordeze în mod direct. Chiar și cu aceste legi, tehnologia face dificilă depistarea persoanelor care le creează. De asemenea, pentru că majoritatea postează pe site-urile lor personale mai degrabă decât pe rețelele de socializare, nu există reglementări sau limite de moderare a conținutului pe care îl pot împărtăși.
Deoarece găsirea și urmărirea penală a indivizilor care fac acest tip de conținut e atât de dificilă, proprietarii companiilor care produc aceste instrumente spun ca vor să împiedice ca ele să fie folosite în scopuri malefice și de fapt, unii dintre ei chiar încearcă. Platforme precum Dall-E și Midjourney au luat măsuri pentru a preveni ca oamenii să folosească imaginea unei persoane reale, în viață. Reddit lucrează, de asemenea, pentru a-și îmbunătăți sistemul de detecție IA și a făcut deja progrese considerabile în interzicerea acestui conținut pe platforma sa. Aceste eforturi sunt importante, dar nu sunt sigur că vor elimina complet amenințarea falsurilor prin IA. Vor apărea mai multe instrumente de generare prin IA în scenă și va fi nevoie de noi eforturi de moderare și, în cele din urmă, unora dintre aceste platforme nu le va păsa, mai ales, dacă asta le oferă un avantaj față de platformele cunoscute. Și apoi mai este și afluxul de conținut încărcat.
În 2022 PornHub a primit peste 2 milioane de încărcări de videoclipuri pe site-ul său. Acest număr va crește o dată cu noile instrumente de IA care pot genera conținut, fără a avea nevoie de o cameră fizică. Cum poate un sistem de moderare să țină pasul cu acest volum nebunesc. Cel mai rău lucru despre aceste falsuri prin IA, este că victimele nu se pot deconecta pur și simplu de pe internet. Aproape toate mijloacele lor de trai depind de internet, așa că deconectarea ar fi un dezavantaj enorm în cariera și viața lor personală. Și a ne aștepta ca cineva să părăsească internetul pentru a se proteja nu este o cerere rezonabilă. Singura șansă ca situația victimelor să se schimbe e în mâna platformelor și a guvernului, să creeze instrumente care să prevină aceste lucruri să se întâmple atât de ușor. Dacă toate femeile care sunt hărțuite ar trece în offline, trolii ar câștiga, iar această tactică a lor ar fi foarte de succes. Ar putea reduce eficient la tăcere criticii și pe oricine ar simți să atace.
Mai e o problemă cu instrumentele generatoare IA, care produc atât de mult conținut pentru adulți. Introduce prejudecăți puternice în algoritmii de prezentare a femeilor. Multe femei au raportat că imaginile create sunt extra-sexualizate, atunci când încearcă să-și creeze o imagine cu ele însele cu ajutorul IA. Aceste prejudecăți sunt introduse de sursa datelor de instruire a IA, adică de internet. Deși imaginile nud și imaginile explicite au fost scoase pentru unele platforme de generare prin IA, aceste prejudecăți persistă. Aceste platforme ar trebui să facă mai mult decât doar să lase internetul să le antreneze IA-ul, dacă vor să prevină ca extra-sexualizarea femeilor să fie trăsătura implicită a imaginilor produse.
Videoclipurile false ar putea fi pe prima pagină a ziarelor acum, dar adevărul este că ele există de foarte mult timp. Înainte de IA generativă, oamenii foloseau unelte precum Photoshop și softuri de editare video pentru a suprapune capete ale celebrităților pe corpurile actorilor de filme pentru adulți. În general, aceste videoclipuri trucate nu erau convingătoare, dar lucrurile sunt acum foarte diferite cu ajutorul IA.
Ne apropiem periculos de mult de un punct în care nu mai putem discerne realitatea de fals. Filosoful francez postmodern, Jean Baudrillard, a avertizat asupra unui moment în care nu vom mai putea distinge între realitate și simulare. Oamenii folosesc tehnologia pentru a naviga într-un realitate complexă. Am inventat hărți pentru a ne ghida și în zone complicate de pe pământ. Până la urmă am creat mass-media pentru a înțelege lumea din jur și să ne ajute să-i simplificăm complexitatea. Dar, va exista un moment în care vom pierde urma realității, punctul în care vom petrece mai mult timp privind la o simulare a lumii pe telefonul nostru, decât să participăm la lumea reală din jurul nostru și suntem aproape acolo deja. Prin IA generativă, conexiunea noastră cu realitatea este și mai deconectată. Pentru că tehnologia poate replica bine realitatea pe dispozitivele noastre, suntem mai puțin înclinați să ieșim noi înșine afară să vedem ce e real. Această incapacitate a conștiinței umane de a distinge ceea ce e real de ceea ce este simulare este ceea ce Baudrillard a numit „hiper-realitate”, o stare care ne lasă vulnerabili la manipulări malițioase, de la lucruri precum videoclipuri false făcute cu IA până la concedierea unor oameni, până la propagande care duc la pierderea a milioane de vieți.
Poate vă amintiți că, în urmă cu câțiva ani, au fost numeroase spoturi publicitare, adesea de la celebrități, avertizându-ne să fim atenți la deepfake-uri. Erau enervante, dar în cele din urmă au reușit să facă publicul să fie foarte conștient de videoclipuri false. Dar, nu așa de mult cu falsurile din conținutul pentru adulți. Poate pentru că spoturile despre deepfake-uri nu menționau pornografia, ci făceau referire doar la discursuri false ale președinților și persoanelor celebre sau poate, pentru că celor care consumă acest tip de conținut, nu le pasă dacă este real sau fals, adică ei sunt de acord cu iluzia.
Un lucru e adevărat, totuși… Dacă publicul larg ar fi antrenat să recunoască pornografia falsă, potențialul de a face rău ar fi limitat. Fiind mai critici ca și consumatori de informații și prin raportarea acestor videoclipuri dăunătoare când le vedem, am putea fi capabili să limităm efectele acestui nou mediu periculos. Nu este ca și cum nu am fi critici cu ceea ce vedem și citim online… Când Wikipedia a fost introdusă prima dată, ideea că ar putea deveni o sursă legitimă de informații părea ridicolă. Era luată în derâdere în seriale de comedie și în emisiuni TV seara târziu, simboliza absurditatea de a crede ceea ce citești pe internet. Această percepție s-a schimbat cu timpul, pe bună dreptate cu Wikipedia, dar, am avut un scepticism sănătos față de utilizarea platformelor de internet generate de IA pentru un timp.
Întrebarea este dacă putem fi critici și să discernem deepfake-urile de acele conținuturi care sunt reale? Sau vom pierde urma a ceea ce este simulare și ceea ce este realitate și vom ajunge să nu mai avem încredere în nimic din ceea ce vedem online? Sau, mai rău, vor reuși manipulatorii să facă deepfake-ul o suferință continuă în viața de zi cu zi, și vom ajunge să acceptăm asta ca pe un cost al existenței online? Există vreo speranță de reglementare, care să oprească asaltul constant al GenIA asupra sănătății noastre?
Un lucru a devenit clar de când ChatGPT și Dall-E au început să țină titlurile de primă pagină anul trecut, că IA va înlocui inevitabil o mare parte din ceea ce oamenii fac în prezent. IA poate deja să reproducă convingător comunicarea și aspectul uman, iar incapacitatea noastră de a distinge între conținut uman și cel generat de IA a creat o listă de probleme, care va fi dificil de rezolvat. Întreprinderile folosesc deja ChatGPT pentru scriere și marketing, în departamentele de vânzări și e posibil să avem chiar emisiuni TV generate de IA în curând. Pentru scriitori, jobul de vis și slujba lor de zi cu zi dispar peste noapte. Și apoi, vor fi tot felul de posibilități de înșelăciune cu ajutorul IA. Să ne imaginăm ce escrocherii vor fi peste un an, când escrocii vor putea cu ușurință să fabrice videoclipuri și înregistrări audio cu oricine cunoscut. Oamenii cu intenții rele pot crea conținut care să provoace mult rău. Și acum acela este conținutul pentru adulți generat de IA, care provoacă durere femeilor. Dacă nu suntem în stare să distingem ce e real și ce e un fals generat de IA, omenirea are un drum greu de parcurs și nu sunt sigur că vreunul dintre noi este pregătit pentru asta.
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!