pericol de ai 7 11
Nu este probabil ca AI să înrobească omenirea, dar ar putea prelua multe aspecte ale vieții noastre. elenabs/iStock prin Getty Images

Creșterea ChatGPT și a sistemelor similare de inteligență artificială a fost însoțită de o bruscă creșterea anxietății cu privire la IA. În ultimele luni, directorii și cercetătorii în domeniul siguranței AI au oferit predicții, numite „P (doom)”, despre probabilitatea ca AI să provoace o catastrofă la scară largă.

Îngrijorările au atins apogeul în mai 2023, când organizația nonprofit de cercetare și advocacy Center for AI Safety a lansat o afirmație cu o singură propoziție: „Atenuarea riscului de dispariție din cauza inteligenței artificiale ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear.” Declarația a fost semnată de mulți jucători cheie din domeniu, inclusiv liderii OpenAI, Google și Anthropic, precum și doi dintre așa-numiții „nași” ai AI: Geoffrey Hinton și Yoshua Bengio.

Te-ai putea întreba cum ar trebui să se manifeste astfel de temeri existențiale. Un scenariu celebru este „maximizator de agrafe” experiment de gândire articulat de un filosof de la Oxford Nick Bostrom. Ideea este că un sistem de inteligență artificială însărcinat să producă cât mai multe agrafe de hârtie ar putea face eforturi extraordinare pentru a găsi materii prime, cum ar fi distrugerea fabricilor și cauzarea accidentelor de mașină.

A variație mai puțin intensivă în resurse are un AI însărcinat să obțină o rezervare la un restaurant popular care închide rețelele celulare și semafoarele pentru a împiedica alți clienți să primească o masă.


innerself abonare grafică


Rechizite de birou sau cina, ideea de bază este aceeași: AI devine rapid o inteligență extraterestră, bună la îndeplinirea obiectivelor, dar periculoasă pentru că nu se va alinia neapărat cu valorile morale ale creatorilor săi. Și, în versiunea sa cea mai extremă, acest argument se transformă în anxietăți explicite legate de IA înrobirea sau distrugerea rasei umane.

O AI care face agrafe de hârtie se înnebunește este o variantă a scenariului apocalipsei AI.

 

Prejudiciu real

În ultimii ani, eu și colegii mei la Centrul de etică aplicată al UMass Boston am studiat impactul angajării cu inteligența artificială asupra înțelegerii oamenilor despre ei înșiși și cred că aceste anxietăți catastrofale sunt exagerat și greșit direcționat.

Da, capacitatea AI de a crea videoclipuri și sunet false convingătoare este înfricoșătoare și poate fi abuzată de oameni cu intenții rele. De fapt, asta se întâmplă deja: agenții ruși probabil au încercat să-l facă de rușine pe criticul Kremlinului Bill Browder prin a-l captiva într-o conversație cu un avatar pentru fostul președinte ucrainean Petro Poroșenko. Infractorii cibernetici au folosit clonarea vocii AI pentru o varietate de crime – de la furturi de înaltă tehnologie la înșelătorii obișnuite.

sisteme de luare a deciziilor AI care oferi aprobarea de împrumut și recomandări de angajare prezintă riscul de părtinire algoritmică, deoarece datele de antrenament și modelele de decizie pe care le rulează reflectă prejudecăți sociale de lungă durată.

Acestea sunt probleme mari și necesită atenția factorilor de decizie politică. Dar există de ceva vreme și nu sunt deloc cataclismici.

Nu în aceeași ligă

Declarația Centrului pentru Siguranță AI a combinat AI cu pandemiile și armele nucleare ca un risc major pentru civilizație. Sunt probleme cu acea comparație. COVID-19 a dus la aproape 7 milioane de decese în întreaga lume, a adus pe o criză masivă și continuă de sănătate mintală și creat provocări economice, inclusiv penuria cronică a lanțului de aprovizionare și inflația fulgerătoare.

Armele nucleare probabil ucise mai mult de 200,000 de persoane în Hiroshima și Nagasaki în 1945, au câștigat mult mai multe vieți din cauza cancerului în anii care au urmat, au generat zeci de ani de anxietate profundă în timpul Războiului Rece și au adus lumea în pragul anihilării în timpul crizei rachetelor cubaneze din 1962. De asemenea, au a schimbat calculele liderilor naționali cu privire la modul de răspuns la agresiunea internațională, așa cum se joacă în prezent cu invazia Rusiei în Ucraina.

AI pur și simplu nu este aproape de a câștiga capacitatea de a face acest tip de daune. Scenariul agrafă și altele asemenea sunt science fiction. Aplicațiile AI existente execută sarcini specifice, mai degrabă decât să emită judecăți ample. Tehnologia este departe de a putea decide și apoi de a planifica obiectivele și scopurile subordonate necesare pentru a opri traficul pentru a vă obține un loc într-un restaurant sau pentru a arunca în aer o fabrică de mașini pentru a vă satisface mâncărimea după agrafe.

Nu numai că tehnologiei îi lipsește capacitatea complicată de judecată pe mai multe straturi care este implicată în aceste scenarii, dar nu are acces autonom la suficiente părți ale infrastructurii noastre critice pentru a începe să provoace acest tip de daune.

Ce înseamnă să fii om

De fapt, există un pericol existențial inerent utilizării inteligenței artificiale, dar acest risc este existențial în sens mai degrabă filozofic decât apocaliptic. AI în forma sa actuală poate modifica modul în care oamenii se privesc pe ei înșiși. Poate degrada abilitățile și experiențele pe care oamenii le consideră esențiale pentru a fi uman.

De exemplu, oamenii sunt creaturi care fac judecati. Oamenii cântăresc rațional detaliile și fac apeluri zilnice la locul de muncă și în timpul liber despre cine să angajeze, cine ar trebui să obțină un împrumut, ce să urmărească și așa mai departe. Dar din ce în ce mai multe dintre aceste judecăți sunt fiind automatizate și adaptate la algoritmi. Când se întâmplă asta, lumea nu se va sfârși. Dar oamenii își vor pierde treptat capacitatea de a face ei înșiși aceste judecăți. Cu cât oamenii fac mai puține dintre ele, cu atât ei vor deveni mai prost în a le face.

Sau luați în considerare rolul întâmplării în viața oamenilor. Oamenii prețuiesc întâlnirile întâmplătoare: întâlnirea accidentală a unui loc, persoană sau activitate, a fi atrași în el și apreciind retrospectiv rolul jucat de accident în aceste descoperiri semnificative. Dar rolul motoarelor de recomandare algoritmică este de a reduce acest tip de serendipitate și înlocuiți-l cu planificare și predicție.

În cele din urmă, luați în considerare capacitățile de scriere ale ChatGPT. Tehnologia este în proces de eliminare a rolului temelor scrise în învățământul superior. Dacă se întâmplă, educatorii vor pierde un instrument cheie pentru predarea studenților cum sa gandesti critic.

Nu a murit, ci a diminuat

Deci, nu, AI nu va arunca lumea în aer. Dar îmbrățișarea din ce în ce mai necritică a acesteia, într-o varietate de contexte înguste, înseamnă erodarea treptată a unora dintre cele mai importante abilități ale oamenilor. Algoritmii subminează deja capacitatea oamenilor de a judeca, de a se bucura de întâlniri întâmplătoare și de a perfecționa gândirea critică.

Specia umană va supraviețui unor astfel de pierderi. Dar modul nostru de a exista va fi sărăcit în acest proces. Anxietățile fantastice legate de viitorul cataclism AI, singularitatea, Skynet sau, oricum v-ați gândi la asta, ascund aceste costuri mai subtile. Amintiți-vă de celebrele versuri de încheiere ale lui TS Eliot din „Oamenii Hollow”: „Așa se termină lumea”, a scris el, „nu cu o bubuitură, ci cu un scâncet”.Conversaţie

Despre autor

Nir Eisikovits, profesor de filozofie și director, Centrul de etică aplicată, UMass Boston

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.