Inteligența artificială poate acum imita comportamentele umane și în curând va fi periculos de bunăEste această față doar un ansamblu de biți de computer? PHOTOCREO Michal Bednarek / Shutterstock.com

Când sistemele de inteligență artificială încep să devină creative, pot crea lucruri grozave - și înfricoșătoare. Luați, de exemplu, un program AI care permite utilizatorii web compun muzică împreună cu o virtual Johann Sebastian Bach prin introducerea de note într-un program care generează armonii asemănătoare lui Bach pentru a le potrivi.

Gestionat de Google, aplicația drew mare laudă pentru că a fost revoluționar și distractiv cu care să te joci. A atras și ea criticăși și-a exprimat îngrijorarea cu privire la pericolele AI.

Studiul meu despre cum tehnologiile emergente afectează viața oamenilor m-a învățat că problemele depășesc îngrijorarea admisibilă fie algoritmi chiar poate crea muzică sau arta în general. Unele reclamații păreau mici, dar într-adevăr nu erau, cum ar fi observațiile conform cărora era AI AI Google încălcarea regulilor de bază de compoziție muzicală.

De fapt, eforturile de a avea calculatoare imită comportamentul oamenilor reali pot fi confuze și potențial dăunătoare.


innerself abonare grafică


Tehnologii de suplinire

Programul Google a analizat notele din 306 ale operelor muzicale ale lui Bach, găsind relații între melodie și notele care asigurau armonia. Deoarece Bach a respectat reguli stricte de compoziție, programul a învățat efectiv aceste reguli, astfel încât să le poată aplica atunci când utilizatorii și-au furnizat propriile note.

 Echipa Google Doodle explică programul Bach.

{youtube}XBfYPp6KF2g{/youtube}

Aplicația Bach în sine este nouă, dar tehnologia de bază nu este. Algoritmi instruiți pentru recunoaște tiparele si fa decizii probabilistice au existat de mult timp. Unii dintre acești algoritmi sunt atât de complexi încât oamenii nu înteleg întotdeauna modul în care iau decizii sau produc un anumit rezultat.

Sistemele AI nu sunt perfecte - multe dintre ele se bazează pe date care nu sunt reprezentative din întreaga populație, sau care sunt influențată de părtiniri umane. Nu este complet clar cine ar putea fi responsabil legal atunci când un sistem AI face o eroare sau cauzează o problemă.

Acum, însă, tehnologiile de inteligență artificială devin suficient de avansate pentru a putea aproxima stilul de scriere sau vorbire al indivizilor și chiar expresiile faciale. Acest lucru nu este întotdeauna rău: o IA destul de simplă i-a dat lui Stephen Hawking capacitatea de a comunica mai eficient cu alții prin prezicerea cuvintelor pe care le-ar folosi cel mai mult.

Programe mai complexe care imită vocile umane ajuta persoanele cu dizabilități - dar poate fi folosit și pentru a înșela ascultătorii. De exemplu, producătorii de păsările liră, un program de imitare a vocii, au lansat un conversație simulată între Barack Obama, Donald Trump și Hillary Clinton. Poate suna real, dar acel schimb nu s-a întâmplat niciodată.

De la bine la rău

În februarie 2019, compania nonprofit OpenAI a creat un program care generează text care este practic indistinct de text scris de oameni. Poate „scrie” un discurs în stilul John F. Kennedy, JRR Tolkien în „Lord of the Rings”Sau un student care scrie o sarcină școlară despre Războiul Civil al SUA.

Textul generat de software-ul OpenAI este atât de credibil încât compania a ales-o să nu elibereze programul în sine.

Tehnologii similare pot simula fotografii și videoclipuri. La începutul anului 2018, de exemplu, actorul și regizorul Jordan Peele a creat un videoclip care părea să-l arate pe fostul președinte american Barack Obama spunând lucruri pe care Obama nu le-a spus niciodată pentru a avertiza publicul despre pericolele pe care le prezintă aceste tehnologii.

Aveți grijă la ce videoclipuri credeți.

{youtube}cQ54GDm1eL0{/youtube}

La începutul anului 2019, a fotografie nud falsă al Rep. SUA Alexandria Ocasio-Cortez a circulat online. Videoclipuri fabricate, adesea numit "deepfakes, ”Se așteaptă să fie tot mai mult utilizat în campaniile electorale.

Membrii Congresului au început să analizeze această problemă înainte de alegerile din 2020. Departamentul de Apărare al SUA predă publicului cum să vezi videoclipuri medicate și audio. Organizațiilor de știri le place Reuters încep să-i pregătească pe jurnaliști să identifice deepfakes.

Dar, în opinia mea, rămâne o preocupare și mai mare: utilizatorii ar putea să nu poată învăța suficient de repede pentru a distinge conținutul fals, pe măsură ce tehnologia AI devine mai sofisticată. De exemplu, pe măsură ce publicul începe să devină conștient de deepfakes, AI este deja folosit pentru înșelări și mai avansate. Acum există programe care pot genera chipuri false și amprente digitale false, crearea eficientă a informațiilor necesare fabricării unei întregi persoane - cel puțin în înregistrările corporative sau guvernamentale.

Mașinile continuă să învețe

În acest moment, există suficiente erori potențiale în aceste tehnologii pentru a oferi oamenilor șansa de a detecta fabricații digitale. Compozitorul Bach al Google a făcut câteva greșeli un expert putea detecta. De exemplu, când l-am încercat, programul mi-a permis să intru cincimi paralele, un interval muzical pe care Bach studios evitat. De asemenea, aplicația a încălcat regulile muzicale de contrapunct prin armonizarea melodiilor în tasta greșită. În mod similar, programul de generare a textului OpenAI a scris ocazional fraze precum „incendii care se petrec sub apă”Care nu avea sens în contextele lor.

Pe măsură ce dezvoltatorii lucrează la creațiile lor, aceste greșeli vor deveni mai rare. Efectiv, tehnologiile AI vor evolua și vor învăța. Performanța îmbunătățită are potențialul de a aduce multe beneficii sociale - inclusiv o mai bună îngrijire a sănătății, deoarece programele de AI ajută democratizează practica medicinii.

A oferi cercetătorilor și companiilor libertatea de a explora, pentru a căuta aceste realizări pozitive din sistemele de IA, înseamnă a deschide riscul dezvoltării unor modalități mai avansate de a crea înșelăciune și alte probleme sociale. Limitarea severă a cercetării AI ar putea reduce acest progres. Dar oferind tehnologii benefice cameră pentru a crește nu are costuri mici - și potențialul de utilizare abuzivă, indiferent dacă este de a face muzică inexactă de tip „Bach” sau de a înșela milioane, este probabil să crească în moduri pe care oamenii nu le pot anticipa încă.Conversaţie

Despre autor

Ana Santos Rutschman, profesor asistent de drept, Universitatea Saint Louis

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.

Cărți conexe

at InnerSelf Market și Amazon