chat GPT
Un grup de informaticieni proeminenți și alți cunoscuți din industria tehnologiei solicită o pauză de șase luni pe tehnologia inteligenței artificiale. (Shutterstock)

O scrisoare deschisă recentă a oamenilor de știință în domeniul informaticii și a liderilor din industria tehnologiei cerând o interdicție de șase luni a dezvoltării inteligenței artificiale are a primit o atenție larg răspândită online. Chiar și ministrul inovației din Canada, François-Philippe Champagne a răspuns scrisorii pe Twitter.

Scrisoarea, publicată de institutul non-profit Future of Life, a cerut tuturor laboratoarelor de inteligență artificială să nu mai antreneze sisteme de inteligență artificială mai puternice decât GPT-4, modelul din spatele ChatGPT. Scrisoarea susține că AI a fost „blocat într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale din ce în ce mai puternice pe care nimeni – nici măcar creatorii lor – nu le poate înțelege, prezice sau controla în mod fiabil”.

Scrisoarea presupune că AI devine sau ar putea deveni „minți digitale puternice” - a interpretare pe termen lung a dezvoltării IA acea ignoră dezbaterile importante despre AI astăzi în locul preocupărilor viitoare.

Pe termen lung și IA

Longtermismul este convingerea că inteligența artificială prezintă riscuri pe termen lung sau existențiale pentru viitorul umanității, devenind o superinteligență scăpată de sub control.


innerself abonare grafică


Grijile cu privire la IA superinteligente sunt de obicei lucruri SF. Fantezii AI sunt una dintre multele temeri din Silicon Valley care poate duce la profeții întunecate. Dar la fel ca Meme Torment Nexus, aceste griji se traduc prin investiții majore, nu prudență. Majoritatea firmelor importante de tehnologie au tăiați echipele AI responsabile.

ChatGPT, evident, nu este o cale către superinteligență. Scrisoarea deschisă vede tehnologia limbajului AI, cum ar fi ChatGPT, ca o descoperire cognitivă - ceva care permite unei AI să concureze cu oamenii la sarcini generale. Dar asta e doar o părere.

Există mulți alții care văd ChatGPT, modelul său GPT-4 și alte modele de învățare a limbilor străine „papagali stochastici” care doar repetă ceea ce învață online, așa că ei apărea inteligent pentru oameni.

Punctele oarbe ale superinteligenței

Pe termen lung are implicații directe de politică care acordă prioritate superinteligenței față de chestiuni mai presante, cum ar fi Dezechilibrele de putere ale AI. Unii susținători ai pe termen lung chiar să ia în considerare reglementarea pentru a opri superintelligence mai urgentă decât abordarea urgenței climatice.

Implicațiile politicii AI sunt imediate, nu foarte îndepărtate. Deoarece GPT-4 este antrenat pe întregul internet și are scopuri expres comerciale, ridică întrebări cu privire la utilizarea corectă și la utilizarea loială.

Încă nu știm dacă textele și imaginile generate de AI sunt protejate prin drepturi de autor în primul rând, din moment ce mașini și animale nu poate deține drepturi de autor.

Și când vine vorba de chestiuni de confidențialitate, abordarea ChatGPT este greu de diferențiat de altă aplicație AI, clearview AI. Ambele modele AI au fost antrenate folosind cantități masive de informații personale colectate pe internetul deschis. Autoritatea italiană de protecție a datelor tocmai a interzis ChatGPT din cauza problemelor de confidențialitate.

Aceste riscuri imediate sunt lăsate nemenționate în scrisoarea deschisă, care oscilează între filozofia sălbatică și soluțiile tehnice, ignorând problemele care ne sunt chiar în fața.

Îneca pragmatismul

Scrisoarea urmează o dinamică veche pe care eu și coautorul meu o identificăm în a viitorul capitol revizuit de colegi despre guvernarea AI. Există tendința de a vedea AI fie ca un risc existențial, fie ca ceva banal și tehnic.

Tensiunea dintre aceste două extreme este afișată în scrisoarea deschisă. Scrisoarea începe prin a afirma că „IA avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ” înainte de a solicita „finanțare publică solidă pentru cercetarea tehnică a siguranței AI”. Acesta din urmă sugerează că daunele sociale ale inteligenței artificiale sunt doar proiecte tehnice care trebuie rezolvate.

Accentul pus pe aceste două extreme alunga vocile importante care încearcă să discute pragmatic riscurile imediate ale inteligenței artificiale menționate mai sus, precum și probleme de muncă și multe altele.

Atenția acordată scrisorii deschise este deosebit de problematică în Canada, deoarece alte două scrisori, scrise de artişti și organizații pentru libertăți civile, nu au primit aceeași atenție. Aceste scrisori solicită reforme și o abordare mai solidă a guvernării AI pentru a-i proteja pe cei afectați de aceasta.

O distragere inutilă a atenției către legislația AI

Răspunsurile guvernului la scrisoarea deschisă au subliniat că Canada are legislație - Legea privind inteligența artificială și datele (AIDA). Riscurile pe termen lung ale inteligenței artificiale sunt folosite pentru a accelera legislația acum, precum AIDA.

AIDA este un pas important către un regim adecvat de guvernare a AI, dar trebuie mai bine consultați cei afectați de IA înainte de a fi implementate. Nu se poate grăbi să răspundă la temerile percepute pe termen lung.

Apelurile scrisorii de a grăbi legislația AI ar putea ajunge să avantajeze aceleași câteva firme care conduc astăzi cercetarea AI. Fără timp să se consulte, să îmbunătățească alfabetizarea publicului și să-i asculte pe cei afectați de AI, AIDA riscă să transmită responsabilitatea și auditul AI către instituții deja bine poziționate pentru a beneficia de pe urma tehnologiei, creând o piață pentru o nouă industrie de audit AI.

Soarta umanității ar putea să nu fie pe linie, dar buna guvernare a AI este cu siguranță.Conversaţie

Despre autor

Fenwick McKelvey, Profesor asociat în Politica Tehnologiei Informației și Comunicațiilor, Universitatea Concordia

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.