Algoritmii YouTube ar putea radicaliza oamenii - Dar adevărata problemă este că nu avem nicio idee despre modul în care funcționează Domnul Tempter / Shutterstock

YouTube creează extremiști? A studiu recent a cauzat argumente în rândul oamenilor de știință, susținând că algoritmii care alimentează site-ul nu ajută la radicalizarea oamenilor, recomandând videoclipuri din ce în ce mai extreme, precum a fost sugerat in ultimii ani.

Lucrarea, trimisă jurnalului cu acces liber Prima zi de luni, dar care încă nu a fost revizuită în mod oficial, a analizat recomandările video primite de diferite tipuri de canale. Acesta a susținut că algoritmul YouTube favorizează canalele media principale decât conținutul independent, concluzionând că radicalizarea are mai mult de-a face cu persoanele care creează conținut dăunător decât algoritmul site-ului.

Specialiștii în domeniu au intrat rapid răspunzând la studiu, cu unele critici metodele lucrării iar alții care argumentează algoritmul a fost unul dintre mai mulți factori importanți și doar știința datelor nu ne va da răspunsul.

Problema acestei discuții este că nu putem răspunde cu adevărat la întrebarea ce rol joacă algoritmul YouTube în radicalizarea oamenilor, deoarece nu înțelegem cum funcționează. Și acesta este doar un simptom al unei probleme mult mai largi. Acești algoritmi joacă un rol din ce în ce mai mare în viața noastră de zi cu zi, dar nu au niciun fel de transparență.

Este greu să susții că YouTube nu joacă un rol în radicalizare. Acest lucru a fost subliniat pentru prima dată de sociologul tehnologic Zeynep Tufekci, care a ilustrat modul în care videoclipurile recomandate conduc treptat utilizatorii spre conținut mai extrem. În cuvintele lui Tufekci, videoclipurile despre jogging conduc la videoclipuri despre alergarea ultramaratonelor, videoclipurile despre vaccinuri duc la teorii ale conspirației, iar videoclipurile despre politică duc la „negări ale Holocaustului și alt conținut deranjant”.


innerself abonare grafică


Despre aceasta s-a mai scris în detaliu de fostul angajat YouTube Guillaume Chaslot care a lucrat la algoritmul de recomandare al site-ului. De când a părăsit compania, Chaslot a continuat să încerce să facă aceste recomandări mai transparent. El spune că recomandările YouTube sunt părtinitoare teorii ale conspirației și videoclipuri inexacte de fapt, care totuși îi determină pe oameni să petreacă mai mult timp pe site.

De fapt, maximizarea timpului de vizionare este întregul punct al algoritmilor YouTube, iar acest lucru îi încurajează pe creatorii video să lupte pentru atenție în orice mod posibil. Compania pură lipsa de transparență despre exact cum funcționează acest lucru face aproape imposibilă combaterea radicalizării pe site. La urma urmei, fără transparență, este greu de știut ce se poate schimba pentru a îmbunătăți situația.

Algoritmii YouTube ar putea radicaliza oamenii - Dar adevărata problemă este că nu avem nicio idee despre modul în care funcționează Cum funcționează algoritmul YouTube rămâne un mister. Cine este Danny / Shutterstock

Dar YouTube nu este neobișnuit în această privință. O lipsă de transparență cu privire la modul în care funcționează algoritmii este de obicei cazul oricând sunt utilizați în sisteme mari, fie de către companii private, fie de către organisme publice. Pe lângă a decide cu ce videoclip să vă arătăm în continuare, algoritmii de învățare automată sunt acum obișnuiți plasează copiii în școli, decide cu privire la pedepse cu închisoarea, a determina scoruri de credit și ratele de asigurare, precum și soarta lui imigranți, candidați la post și solicitanții universității. Și, de obicei, nu înțelegem modul în care aceste sisteme își iau deciziile.

Cercetătorii au găsit modalități creative de a arăta impactul acestor algoritmi asupra societății, fie examinând ascensiunea dreptului reacționar sau răspândirea teoriilor conspirației pe YouTube sau arătând cum motoarele de căutare reflectă prejudecățile rasiste a oamenilor care le creează.

Sistemele de învățare automată sunt de obicei mari, complexe și opace. În mod adecvat, acestea sunt adesea descrise ca cutii negre, unde intră informații și ies informații sau acțiuni, dar nimeni nu poate vedea ce se întâmplă între ele. Acest lucru înseamnă că, deoarece nu știm exact cum funcționează algoritmi precum sistemul de recomandare YouTube, încercarea de a afla cum funcționează site-ul ar fi ca și cum ați încerca să înțelegeți o mașină fără a deschide capota.

La rândul său, acest lucru înseamnă că încercarea de a scrie legi pentru a reglementa ceea ce ar trebui sau nu ar trebui să facă algoritmii devine un proces orb sau încercare și eroare. Aceasta se întâmplă cu YouTube și cu atât de mulți alți algoritmi de învățare automată. Încercăm să avem un cuvânt de spus în rezultatele lor, fără a înțelege în mod real modul în care funcționează cu adevărat. Trebuie să deschidem aceste tehnologii brevetate sau cel puțin să le facem suficient de transparente încât să le putem reglementa.

Explicații și testare

O modalitate de a face acest lucru ar fi furnizarea de algoritmi explicații contrafactual împreună cu deciziile lor. Aceasta înseamnă elaborarea condițiilor minime necesare pentru ca algoritmul să ia o decizie diferită, fără a descrie logica sa completă. De exemplu, un algoritm care ia decizii cu privire la împrumuturile bancare ar putea produce o ieșire care spune că „dacă ai avea peste 18 ani și nu ai avea datorii anterioare, ți-ar fi acceptat împrumutul bancar”. Dar acest lucru ar putea fi dificil de făcut cu YouTube și alte site-uri care utilizează algoritmi de recomandare, deoarece în teorie orice videoclip de pe platformă ar putea fi recomandat în orice moment.

Un alt instrument puternic este testarea și auditul algoritmilor, care a fost deosebit de util în diagnosticarea algoritmilor părtinitori. Într-un caz recent, o companie profesională de screening-CV a descoperit că algoritmul său era prioritizând doi factori ca cei mai buni predictori ai performanței la locul de muncă: dacă candidatul se numea Jared și dacă au jucat lacrosse în liceu. Aceasta se întâmplă atunci când aparatul rămâne nesupravegheat.

În acest caz, algoritmul de examinare a CV-ului a observat că bărbații albi au șanse mai mari de a fi angajați și au găsit caracteristici proxy corelate (cum ar fi numele Jared sau jocul lacrosse) prezente la candidații angajați. Cu YouTube, auditul algoritmului ar putea ajuta la înțelegerea tipurilor de videoclipuri prioritare pentru recomandare - și poate ajuta la soluționarea dezbaterii dacă recomandările YouTube contribuie sau nu la radicalizare.

Introducerea explicațiilor contrafactual sau utilizarea auditului algoritmic este un proces dificil și costisitor. Dar este important, pentru că alternativa este mai rea. Dacă algoritmii rămân necontrolați și nereglementați, am putea vedea un flux treptat de teoreticieni și extremiști ai conspirației în mass-media noastră, iar atenția noastră este controlată de oricine poate produce conținutul cel mai profitabil.Conversaţie

Despre autor

Chico Q. Camargo, cercetător postdoctoral în știința datelor, Universitatea din Oxford

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.