test de turing și ai 10 17

Pexels/Google Deepmind, CC BY-SA

În 1950, informaticianul britanic Alan Turing a propus o metodă experimentală pentru a răspunde la întrebarea: pot mașinile să gândească? El a sugerat că dacă un om nu ar putea spune dacă vorbește cu o mașină inteligentă artificială (AI) sau cu un alt om după cinci minute de întrebări, acest lucru ar demonstra că AI are o inteligență asemănătoare omului.

Deși sistemele AI au rămas departe de a trece testul lui Turing în timpul vieții sale, el a speculat asta

„[…] în aproximativ cincizeci de ani va fi posibil să programăm computerele […] pentru a le face să joace jocul de imitație atât de bine încât un interogator mediu nu va avea mai mult de 70% șanse de a face identificarea corectă după cinci minute de chestionare.

Astăzi, la mai bine de 70 de ani de la propunerea lui Turing, niciun AI nu a reușit să treacă cu succes testul îndeplinind condițiile specifice pe care le-a subliniat. Cu toate acestea, ca unele titluri reflecta, câteva sisteme s-au apropiat destul de mult.

Un experiment recent a testat trei modele mari de limbaj, inclusiv GPT-4 (tehnologia AI din spatele ChatGPT). Participanții au petrecut două minute discutând fie cu o altă persoană, fie cu un sistem AI. AI a fost solicitat să facă mici greșeli de ortografie și să renunțe dacă testerul a devenit prea agresiv.


innerself abonare grafică


Cu acest îndemn, AI-ul a făcut o treabă bună de a păcăli testatorii. Când sunt asociate cu un bot AI, testerii au putut ghici corect dacă vorbeau cu un sistem AI doar în 60% din timp.

Având în vedere progresul rapid realizat în proiectarea sistemelor de procesare a limbajului natural, este posibil să vedem AI să treacă testul original al lui Turing în următorii câțiva ani.

Dar este imitarea oamenilor un test eficient pentru inteligență? Și dacă nu, care sunt câteva repere alternative pe care le-am putea folosi pentru a măsura capacitățile AI?

Limitele testului Turing

În timp ce un sistem care trece testul Turing ne oferă unele dovezi că este inteligent, acest test nu este un test decisiv al inteligenței. O problemă este că poate produce „negative false”.

Modelele de limbaj mari de astăzi sunt adesea concepute pentru a declara imediat că nu sunt oameni. De exemplu, atunci când pui o întrebare ChatGPT, acesta prefață adesea răspunsul cu expresia „ca model de limbaj AI”. Chiar dacă sistemele AI au capacitatea de a trece testul Turing, acest tip de programare ar depăși această capacitate.

Testul riscă, de asemenea, anumite tipuri de „fals pozitive”. Ca filozoful Ned Block a subliniat într-un articol din 1981, un sistem ar putea trece testul Turing pur și simplu fiind codificat cu un răspuns asemănător omului la orice posibilă intrare.

Dincolo de asta, testul Turing se concentrează în special pe cunoașterea umană. Dacă cogniția AI diferă de cogniția umană, un interogator expert va putea găsi o sarcină în care IA și oamenii diferă în performanță.

Referitor la această problemă, Turing a scris:

Această obiecție este una foarte puternică, dar cel puțin putem spune că, dacă, totuși, o mașină poate fi construită pentru a juca jocul de imitație în mod satisfăcător, nu trebuie să fim tulburați de această obiecție.

Cu alte cuvinte, în timp ce trecerea testului Turing este o dovadă bună că un sistem este inteligent, eșecul nu este o dovadă bună că un sistem este nu inteligent.

Mai mult, testul nu este o măsură bună pentru a stabili dacă IA sunt conștiente, dacă pot simți durere și plăcere sau dacă au o semnificație morală. Potrivit multor oameni de știință cognitiv, conștiința implică un anumit grup de abilități mentale, inclusiv a avea o memorie de lucru, gânduri de ordin superior și abilitatea de a percepe mediul cuiva și de a modela modul în care corpul se mișcă în jurul lui.

Testul Turing nu răspunde la întrebarea dacă sunt sau nu sisteme AI au aceste abilitati.

Capabilitățile în creștere ale AI

Testul Turing se bazează pe o anumită logică. Adică: oamenii sunt inteligenți, așa că orice poate imita efectiv oamenii este probabil să fie inteligent.

Dar această idee nu ne spune nimic despre natura inteligenței. O modalitate diferită de a măsura inteligența AI implică să ne gândim mai critic despre ce este inteligența.

În prezent, nu există un singur test care să poată măsura cu autoritate inteligența artificială sau umană.

La cel mai larg nivel, ne putem gândi la inteligență ca la capacitate pentru a atinge o serie de obiective în diferite medii. Sistemele mai inteligente sunt cele care pot atinge o gamă mai largă de obiective într-o gamă mai largă de medii.

Ca atare, cea mai bună modalitate de a urmări progresele în proiectarea sistemelor AI de uz general este evaluarea performanței acestora într-o varietate de sarcini. Cercetătorii de învățare automată au dezvoltat o serie de criterii de referință care fac acest lucru.

De exemplu, GPT-4 a fost capabil să răspundă corect 86% dintre întrebări în înțelegerea masivă a limbajului multitask – un etalon care măsoară performanța la testele cu variante multiple într-o serie de discipline academice la nivel de colegiu.

De asemenea, a marcat favorabil în AgentBench, un instrument care poate măsura capacitatea unui model lingvistic mare de a se comporta ca un agent, de exemplu, navigând pe web, cumpărând produse online și concurând în jocuri.

Este încă relevant testul Turing?

Testul Turing este o măsură a imitației – a capacității AI de a simula comportamentul uman. Modelele de limbaj mari sunt imitatori experți, ceea ce se reflectă acum în potențialul lor de a trece testul Turing. Dar inteligența nu este același lucru cu imitația.

Există atâtea tipuri de inteligență câte obiective sunt de atins. Cel mai bun mod de a înțelege inteligența AI este de a monitoriza progresul acesteia în dezvoltarea unei game de capabilități importante.

În același timp, este important să nu continuăm să „schimbăm stâlpii de poartă” atunci când vine vorba de întrebarea dacă AI este inteligentă. Deoarece capacitățile AI se îmbunătățesc rapid, criticii ideii de inteligență AI găsesc în mod constant noi sarcini pe care sistemele AI ar putea avea dificultăți să le ducă la bun sfârșit – doar pentru a descoperi că au sărit peste încă un obstacol.

În acest context, întrebarea relevantă nu este dacă sistemele AI sunt inteligente, ci mai precis, ce tipurile de inteligenţă pe care o pot avea.Conversaţie

Simon Goldstein, profesor asociat, Institutul de Filosofie Dianoia, Universitatea Catolică Australiană, Universitatea Catolică australiană și Cameron Domenico Kirk-Giannini, profesor asistent de filozofie, Universitatea Rutgers

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.