Fotografii generate de AI?

Chiar dacă crezi că ești bun la analiza fețelor, cercetarile arata mulți oameni nu pot distinge în mod fiabil între fotografiile cu fețe reale și imaginile care au fost generate de computer. Acest lucru este deosebit de problematic acum că sistemele computerizate pot crea fotografii realiste ale unor oameni care nu există.

Recent, un profil fals LinkedIn cu o poză de profil generată de computer a făcut știrea pentru că asta conectat cu succes cu oficiali americani și cu alte persoane influente pe platforma de rețea, de exemplu. Experții în contrainformații spun chiar că spionii creează în mod obișnuit profiluri fantomă cu astfel de imagini acasă la ținte străine prin intermediul rețelelor sociale.

Aceste falsuri profunde devin din ce în ce mai răspândite în cultura de zi cu zi, ceea ce înseamnă că oamenii ar trebui să fie mai conștienți de modul în care sunt folosite în marketing, publicitate și rețelele sociale. Imaginile sunt, de asemenea, folosite în scopuri rău intenționate, cum ar fi propaganda politică, spionajul și războiul informațional.

Realizarea lor implică ceva numit o rețea neuronală profundă, un sistem informatic care imită modul în care creierul învață. Acesta este „antrenat” prin expunerea la seturi de date din ce în ce mai mari de fețe reale.

De fapt, două rețele neuronale profunde sunt puse una împotriva celeilalte, concurând pentru a produce imaginile cele mai realiste. Ca rezultat, produsele finale sunt denumite imagini GAN, unde GAN înseamnă Generative Adversarial Networks. Procesul generează imagini noi care nu se pot distinge statistic de imaginile de antrenament.


innerself abonare grafică


În studiul nostru publicat în iScience, am arătat că eșecul de a distinge aceste fețe artificiale de lucrul real are implicații pentru comportamentul nostru online. Cercetările noastre sugerează că imaginile false ne pot eroda încrederea în ceilalți și pot schimba profund modul în care comunicăm online.

Eu și colegii mei am descoperit că oamenii au perceput fețele GAN ca fiind chiar mai reale decât fotografiile autentice ale fețelor oamenilor reale. Deși nu este încă clar de ce se întâmplă acest lucru, această constatare o face evidențiază progresele recente în tehnologie folosit pentru a genera imagini artificiale.

Și am găsit, de asemenea, o legătură interesantă cu atractivitatea: fețele care au fost evaluate ca fiind mai puțin atractive au fost, de asemenea, evaluate ca mai reale. Fețele mai puțin atractive ar putea fi considerate mai tipice și chipul tipic poate fi folosit ca referință față de care sunt evaluate toate fețele. Prin urmare, aceste fețe GAN ar părea mai reale, deoarece sunt mai asemănătoare cu șabloanele mentale pe care oamenii le-au construit din viața de zi cu zi.

Dar a vedea aceste fețe artificiale ca fiind autentice poate avea, de asemenea, consecințe asupra nivelurilor generale de încredere pe care le extindem la un cerc de persoane nefamiliare - un concept cunoscut sub numele de „încredere socială”.

Citim adesea prea mult pe fețele pe care le vedem și primele impresii pe care ni le formăm ne ghidează interacțiunile sociale. Într-un al doilea experiment care a făcut parte din ultimul nostru studiu, am văzut că oamenii aveau mai multe șanse să aibă încredere în informațiile transmise de fețele pe care le consideraseră anterior ca fiind reale, chiar dacă au fost generate artificial.

Nu este surprinzător faptul că oamenii au mai multă încredere în fețele pe care le consideră a fi reale. Dar am descoperit că încrederea a fost erodata odată ce oamenii au fost informați despre potențiala prezență a fețelor artificiale în interacțiunile online. Apoi au arătat niveluri mai scăzute de încredere, în general, indiferent dacă fețele erau reale sau nu.

Acest rezultat ar putea fi considerat util în anumite privințe, deoarece a făcut oamenii mai suspicioși într-un mediu în care utilizatorii falși pot funcționa. Dintr-o altă perspectivă, însă, poate eroda treptat însăși natura modului în care comunicăm.

În general, avem tendința de a opera o presupunere implicită că alți oameni sunt practic sinceri și de încredere. Creșterea profilurilor false și a altor conținuturi online artificiale ridică întrebarea cât de mult prezența lor și cunoștințele noastre despre ele pot modifica această stare de „adevăr implicit”, erodând în cele din urmă încrederea socială.

Schimbându-ne setările implicite

Tranziția către o lume în care ceea ce este real nu se poate distinge de ceea ce nu este, de asemenea, ar putea schimba peisajul cultural de la a fi în primul rând veridic la a fi în primul rând artificial și înșelător.

Dacă punem la îndoială în mod regulat veridicitatea a ceea ce trăim online, s-ar putea să ne impună să ne redistribuim efortul mental de la procesarea mesajelor în sine până la procesarea identității mesagerului. Cu alte cuvinte, utilizarea pe scară largă a conținutului online extrem de realist, dar artificial, ne-ar putea impune să gândim diferit – în moduri la care nu ne așteptam.

În psihologie, folosim un termen numit „monitorizarea realității” pentru modul în care identificăm corect dacă ceva vine din lumea exterioară sau din interiorul creierului nostru. Progresul tehnologiilor care pot produce chipuri, imagini și apeluri video false, dar extrem de realiste, înseamnă că monitorizarea realității trebuie să se bazeze pe alte informații decât propriile noastre judecăți. De asemenea, solicită o discuție mai amplă asupra faptului dacă omenirea își poate permite încă să accepte adevărul.

Este esențial ca oamenii să fie mai critici atunci când evaluează fețele digitale. Aceasta poate include utilizarea căutărilor inverse de imagini pentru a verifica dacă fotografiile sunt autentice, a fi atenți la profilurile de rețele sociale cu puține informații personale sau un număr mare de urmăritori și a fi conștienți de potențialul ca tehnologia deepfake să fie utilizată în scopuri nefaste.

Următoarea frontieră pentru această zonă ar trebui să fie algoritmii îmbunătățiți pentru detectarea fețelor digitale false. Acestea ar putea fi apoi încorporate în platformele de social media pentru a ne ajuta să distingem realul de fals atunci când vine vorba de chipurile noilor conexiuni.

Despre autor

Manos Tsakiris, Profesor de Psihologie, Director al Centrului pentru Politica Sentimentelor, Universitatea Royal Holloway din Londra

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.