De ce tehnologia pune în pericol drepturile omului
Spainter_vfx / Shutterstock.com

Filme precum 2001: A Space Odyssey, Blade Runner și Terminator a adus roboți și sisteme informatice necinstite pe ecranele noastre de cinema. În zilele noastre, astfel de spectacole clasice de science fiction nu par atât de îndepărtate de realitate.

Din ce în ce mai mult, trăim, lucrăm și ne jucăm cu tehnologii de calcul care sunt autonome și inteligente. Aceste sisteme includ software și hardware cu capacitate de raționament independent și de luare a deciziilor. Lucrează pentru noi la fabrica; ei decid dacă putem obține o ipotecă; ne urmăresc și ne măsoară activitatea și nivelul de fitness; ne curăță podelele din sufragerie și ne tăie peluzele.

Sistemele autonome și inteligente au potențialul de a afecta aproape fiecare aspect al vieții noastre sociale, economice, politice și private, inclusiv aspectele cotidiene zilnice. Multe dintre acestea par inocente, dar există motive de îngrijorare. Tehnologiile computaționale au impact asupra fiecărui drept al omului, de la dreptul la viață la dreptul la viață privată, libertatea de exprimare la drepturile sociale și economice. Deci, cum putem apăra drepturile omului într-un peisaj tehnologic modelat din ce în ce mai mult de robotică și inteligență artificială (AI)?

AI și drepturile omului

În primul rând, există o teamă reală că autonomia sporită a mașinilor va submina statutul oamenilor. Această teamă este agravată de o lipsă de claritate cu privire la cine va fi tras la răspundere, fie în sens legal, fie moral, atunci când mașinile inteligente fac rău. Dar nu sunt sigur că preocuparea noastră pentru drepturile omului ar trebui să se afle cu adevărat roboți necinstiți, așa cum pare în prezent. Mai degrabă, ar trebui să ne îngrijorăm cu privire la utilizarea umană a roboților și a inteligenței artificiale și la desfășurarea lor în contexte politice, militare, economice și sociale nedrepte și inegale.

Această îngrijorare este deosebit de pertinentă în ceea ce privește sistemele de arme autonome letale (LEGI), adesea descrise ca roboți ucigași. Așa cum am mutați către o cursă de înarmare AI, savanții și militanții pentru drepturile omului precum Christof Heyns, fostul raportor special al ONU pentru execuții extrajudiciare, sumare sau arbitrare, se tem că utilizarea LEGILOR va pune sisteme robotizate autonome însărcinat cu deciziile de viață și moarte, cu control uman limitat sau deloc.


innerself abonare grafică


AI revoluționează, de asemenea, legătura dintre război și practicile de supraveghere. Grupuri precum Comitetul internațional pentru controlul armelor robotizate (ICRAC) și-au exprimat recent opoziția față de participarea Google la Proiectul Maven, un program militar care folosește învățarea automată pentru a analiza înregistrările de supraveghere a dronelor, care pot fi utilizate pentru uciderile extrajudiciare. ICRAC a apelat către Google pentru a se asigura că datele pe care le colectează asupra utilizatorilor săi nu sunt utilizate niciodată în scopuri militare, alăturându-se protestelor angajaților Google privind implicarea companiei în proiect. Google a anunțat recent că nu va fi reînnoit contractul său.

În 2013, amploarea practicilor de supraveghere a fost evidențiată de Edward Snowden revelaţii. Acestea ne-au învățat multe despre amenințarea la dreptul la viață privată și schimbul de date între serviciile de informații, agențiile guvernamentale și corporațiile private. Recenta controversă din jurul Cambridge AnalyticaRecoltarea datelor cu caracter personal prin utilizarea platformelor de socializare, cum ar fi Facebook, continuă să provoace o reținere serioasă, de data aceasta în legătură cu manipularea și interferența în alegerile democratice care afectează dreptul la libertatea de exprimare.

Între timp, analiștii de date critice provoacă practici discriminatorii asociate cu ceea ce ei numesc „problema tipului alb” a AI. Aceasta este îngrijorarea că sistemele de AI instruite pe date existente reproduc replicile existente de rasă și de gen care perpetuează practicile discriminatorii în domenii precum poliția, deciziile judiciare sau ocuparea forței de muncă.

AI poate reproduce și consolida stereotipurile.
AI poate reproduce și consolida stereotipurile.
Ollyy / Shutterstock.com

Roboți ambigui

Amenințarea potențială a tehnologiilor de calcul pentru drepturile omului și pentru securitatea fizică, politică și digitală a fost evidențiată într-un studiu publicat recent despre Utilizarea rău intenționată a inteligenței artificiale. Preocupările exprimate în acest raport al Universității din Cambridge trebuie luate în serios. Dar cum ar trebui să facem față acestor amenințări? Sunt pregătite drepturile omului pentru era roboticii și AI?

Există eforturi continue pentru actualizarea principiilor existente ale drepturilor omului pentru această eră. Acestea includ Încadrarea ONU și principiile directoare privind afacerile și drepturile omului, încearcă să scrie un Magna Carta pentru era digitală și Institutul pentru Viitorul Vieții Principiile Asilomar AI, care identifică linii directoare pentru cercetarea etică, aderarea la valori și un angajament pentru dezvoltarea benefică pe termen lung a IA.

Aceste eforturi sunt lăudabile, dar nu suficiente. Guvernele și agențiile guvernamentale, partidele politice și corporațiile private, în special cele mai importante companii de tehnologie, trebuie să se angajeze în utilizarea etică a IA. De asemenea, avem nevoie de un control legislativ eficient și aplicabil.

Indiferent de măsurile noi pe care le-am introduce, este important să recunoaștem că viața noastră este tot mai încurcată cu mașini autonome și sisteme inteligente. Această încurcătură îmbunătățește bunăstarea umană în domenii precum cercetarea și tratamentul medical, în sistemul nostru de transport, în mediile sociale și în eforturile de protejare a mediului.

Dar în alte domenii această încurcătură generează perspective îngrijorătoare. Tehnologiile computaționale sunt folosite pentru a urmări și urmări acțiunile și comportamentele noastre, urmări pașii noștri, locația noastră, sănătatea noastră, gusturile și prietenia noastră. Aceste sisteme modelează comportamentul uman și ne împing spre practici de auto-supraveghere care ne limitează libertatea și subminează ideile și idealurile drepturilor omului.

ConversaţieȘi aici se află esența: capacitatea de utilizare duală a tehnologiilor de calcul estompează linia dintre practicile benefice și cele răuvoitoare. Mai mult, tehnologiile de calcul sunt profund implicate în relațiile de putere inegale dintre cetățenii individuali, statul și agențiile sale și corporațiile private. Dacă sunt dezlănțuite de sistemele eficiente naționale și internaționale de verificare și echilibrare, acestea reprezintă o amenințare reală și îngrijorătoare pentru drepturile omului.

Despre autor

Birgit Schippers, cercetător invitat, senatorul George J Mitchell Institute for Global Peace, Security and Justice, Universitatea Reginei din Belfast

Acest articol a fost publicat inițial Conversaţie. Citeste Articol original.

Cărți conexe

{amazonWS:searchindex=Books;Birgit Schippers=innerself" target="_blank" rel="nofollow noopener">InnerSelf Market și Amazon