încredere în ai 7 20
 Chatboții AI devin din ce în ce mai puternici, dar de unde știi dacă funcționează în interesul tău? 

Dacă întrebi Alexa, sistemul AI al asistentului vocal al Amazon, dacă Amazon este un monopol, acesta răspunde prin spunând că nu știe. Nu este nevoie de mult pentru a o face scăpați de ceilalți giganți ai tehnologiei, dar tace cu privire la faptele greșite ale propriului părinte corporativ.

Când Alexa răspunde în acest fel, este evident că își pune interesele dezvoltatorului înaintea ta. De obicei, totuși, nu este atât de evident cui servește un sistem AI. Pentru a evita exploatarea de către aceste sisteme, oamenii vor trebui să învețe să abordeze AI cu scepticism. Asta înseamnă să construiești în mod deliberat intrarea pe care i-o oferi și să te gândești critic la rezultatul său.

Noile generații de modele de inteligență artificială, cu răspunsurile lor mai sofisticate și mai puțin memorabile, fac mai greu de spus cine beneficiază atunci când vorbesc. Manipularea de către companiile de internet a ceea ce vezi pentru a-și servi propriile interese nu este nimic nou. Rezultatele căutării Google și feedul dvs. Facebook sunt plin cu intrări plătite. Facebook, TIC-tac iar alții îți manipulează feedurile pentru a maximiza timpul pe care îl petreci pe platformă, ceea ce înseamnă mai multe vizionări de anunțuri, asupra bunăstării tale.

Ceea ce distinge sistemele AI de aceste alte servicii de internet este cât de interactive sunt acestea și modul în care aceste interacțiuni vor deveni din ce în ce mai mult ca niște relații. Nu este nevoie de multă extrapolare din tehnologiile actuale pentru a imagina AI care să planifice călătorii pentru tine, să negocieze în numele tău sau să acționeze ca terapeuți și antrenori de viață.


innerself abonare grafică


Este posibil să vă fie alături 24/7, să vă cunoască intim și să vă poată anticipa nevoile. Acest tip de interfață conversațională cu rețeaua vastă de servicii și resurse de pe web se încadrează în capacitățile AI-urilor generative existente, cum ar fi ChatGPT. Sunt pe cale să devină asistenți digitali personalizați.

Ca expert în securitate și om de știință de date, credem că oamenii care vin să se bazeze pe aceste IA vor trebui să aibă încredere în ei implicit pentru a naviga în viața de zi cu zi. Asta înseamnă că vor trebui să se asigure că AI-urile nu lucrează în secret pentru altcineva. Pe internet, dispozitivele și serviciile care par să funcționeze pentru dvs. lucrează deja în secret împotriva dvs. Televizoare inteligente te spionezi. Aplicații pentru telefon colectați și vindeți datele dvs. Multe aplicații și site-uri web te manipulează prin modele întunecate, elemente de design care induce în eroare, constrânge sau înșela în mod deliberat vizitatorii site-ului web. Acest lucru este capitalismul de supraveghere, iar AI se pregătește să facă parte din ea. Inteligența artificială joacă un rol în capitalismul de supraveghere, care se rezumă la a te spiona pentru a câștiga bani din tine.

In intuneric

Foarte posibil, ar putea fi mult mai rău cu AI. Pentru ca acel asistent digital AI să fie cu adevărat util, va trebui să te cunoască cu adevărat. Mai bine decât te cunoaște telefonul. Mai bine decât te cunoaște căutarea Google. Poate mai bine decât prietenii tăi apropiați, partenerii intimi și terapeutul te cunosc.

Nu aveți niciun motiv să aveți încredere în instrumentele AI generative de top de astăzi. Lasă deoparte halucinații, „faptele” inventate pe care le produc GPT și alte modele mari de limbaj. Ne așteptăm ca acestea să fie în mare măsură curățate pe măsură ce tehnologia se îmbunătățește în următorii câțiva ani.

Dar nu știți cum sunt configurate AI-urile: cum au fost instruiți, ce informații le-au primit și ce instrucțiuni li s-a ordonat să urmeze. De exemplu, cercetătorii a descoperit regulile secrete care guvernează comportamentul chatbot-ului Microsoft Bing. Sunt în mare parte benigne, dar se pot schimba în orice moment.

A face bani

Multe dintre aceste IA sunt create și antrenate cu cheltuială enormă de unele dintre cele mai mari monopoluri tehnologice. Acestea sunt oferite oamenilor pentru a le folosi gratuit sau la un cost foarte mic. Aceste companii vor trebui să le monetizeze cumva. Și, ca și în restul internetului, este posibil să includă cumva supravegherea și manipularea.

Imaginați-vă că vă cereți chatbot-ului să vă planificați următoarea vacanță. A ales o anumită companie aeriană sau un lanț hotelier sau un restaurant pentru că era cel mai bun pentru dvs. sau pentru că producătorul ei a primit un recul din partea afacerilor? Ca și în cazul rezultatelor plătite în căutarea pe Google, reclamelor din fluxul de știri pe Facebook și plasamentelor plătite pe interogările Amazon, aceste influențe plătite sunt susceptibile să devină mai secrete în timp.

Dacă cereți chatbot-ului dvs. informații politice, rezultatele sunt distorsionate de politica corporației care deține chatbot-ul? Sau candidatul care a plătit-o cei mai mulți bani? Sau chiar opiniile demografice ale persoanelor ale căror date au fost folosite în formarea modelului? Agentul tău AI este în secret un agent dublu? În acest moment, nu există nicio modalitate de a ști.

De încredere prin lege

Credem că oamenii ar trebui să se aștepte la mai mult de la tehnologie și că companiile de tehnologie și IA pot deveni mai demne de încredere. Propunerea Uniunii Europene AI Act ia câțiva pași importanți, necesitând transparență cu privire la datele utilizate pentru antrenarea modelelor AI, atenuarea potențialelor părtiniri, dezvăluirea riscurilor previzibile și raportarea testelor standard din industrie. Uniunea Europeană continuă cu reglementarea AI.

Majoritatea AI-urilor existente nu se conformează cu acest mandat european în curs de dezvoltare și, în ciuda prodding recent de la liderul majorității din Senat, Chuck Schumer, SUA sunt cu mult în urmă cu o astfel de reglementare.

AI-urile viitorului ar trebui să fie de încredere. Cu excepția cazului în care și până când guvernul nu oferă protecție robustă pentru consumatori pentru produsele AI, oamenii vor fi singuri să ghicească potențialele riscuri și părtiniri ale AI și să atenueze efectele lor cele mai grave asupra experienței oamenilor cu acestea.

Așadar, atunci când primiți o recomandare de călătorie sau informații politice de la un instrument AI, abordați-o cu același ochi sceptic pe care l-ați face cu un anunț publicitar sau un voluntar de campanie. Cu toată vrăjitoria sa tehnologică, instrumentul AI poate fi puțin mai mult decât același.Conversaţie

Despre autor

Bruce Schneier, Lector adjunct în Politici Publice, Școala Harvard Kennedy și Nathan Sanders, afiliat, Berkman Klein Center for Internet & Society, Universitatea Harvard

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.