4rupi02z

R. Classen / Shutterstock

Chatbot-urile AI sunt deja utilizate pe scară largă de companii pentru a saluta clienții și a răspunde la întrebările acestora – fie prin telefon, fie pe site-uri web. Unele companii au descoperit că pot, într-o oarecare măsură, să înlocuiască oamenii cu mașini în rolurile de call center.

Cu toate acestea, dovezile disponibile sugerează că există sectoare - cum ar fi asistența medicală și resursele umane - în care trebuie să se acorde o atenție extremă cu privire la utilizarea acestor instrumente de primă linie și poate fi necesară supravegherea etică.

Un exemplu recent și foarte mediatizat este cel al lui a chatbot numită Tessa, care a fost folosit de către Asociația Națională pentru Tulburările Alimentare (NEDA) in Statele Unite ale Americii. Organizația a menținut inițial o linie de asistență operată de o combinație de angajați salariați și voluntari. Acesta a avut scopul expres de a ajuta persoanele vulnerabile care suferă de tulburări de alimentație.

Cu toate acestea, în acest an, organizația și-a desființat personalul liniei de asistență, anunțând că le va înlocui cu chatbot-ul Tessa. Motivele pentru aceasta sunt contestate. Foștii lucrători susțin că schimbarea a urmat o decizie a personalului liniei de asistență de a se sindicaliza. The vicepreședintele NEDA citat un număr crescut de apeluri și timpi de așteptare, precum și obligații legale legate de utilizarea personalului voluntar.

Oricum ar fi cazul, după o perioadă foarte scurtă de funcționare, Tessa a fost luată offline din cauza unor rapoarte conform cărora chatbot-ul ar fi emis sfaturi problematice care ar fi putut exacerba simptomele persoanelor care caută ajutor pentru tulburări de alimentație.


innerself abonare grafică


S-a mai raportat că Dr. Ellen Fitzsimmons-Craft și Dr. C Barr Taylor, doi cercetători de înaltă calificare care au asistat la crearea lui Tessa, au stipulat că chatbot-ul nu a fost niciodată menit să înlocuiască o linie de asistență existentă sau să ofere asistență imediată celor care se confruntă cu simptome intense de tulburare de alimentație.

Upgrade semnificativ

Deci, pentru ce a fost concepută Tessa? Cercetătorii, alături de colegi, au generat un studiu de observare evidențiind provocările cu care s-au confruntat în proiectarea unui chatbot bazat pe reguli pentru a interacționa cu utilizatorii care sunt preocupați de tulburările de alimentație. Este o lectură destul de fascinantă, ilustrând alegerile de design, operațiunile, capcanele și modificările.

Versiunea originală a lui Tessa a fost o tradiție, chatbot bazat pe reguli, deși unul foarte rafinat, care este unul care urmează o structură predefinită bazată pe logică. Nu se putea abate de la răspunsurile standardizate preprogramate calibrate de creatorii săi.

Concluzia lor a inclus următorul punct: „Chatbot-urile bazate pe reguli au potențialul de a ajunge la populații mari la costuri reduse prin furnizarea de informații și interacțiuni simple, dar sunt limitate în înțelegerea și răspunsul adecvat la răspunsurile neprevăzute ale utilizatorilor”.

Acest lucru ar putea părea să limiteze utilizările pentru care Tessa era potrivită. Deci, cum a ajuns să înlocuiască linia de asistență folosită anterior de NEDA? Lanțul exact de evenimente este în discuție pe fondul unor conturi diferite, dar, potrivit NPR, compania de găzduire a chatbot-ului a schimbat-o pe Tessa de la un chatbot bazat pe reguli cu răspunsuri preprogramate la unul cu un „funcție îmbunătățită de întrebări și răspunsuri”.

Versiunea ulterioară a Tessa a fost una care folosea AI generativă, la fel ca ChatGPT și produse similare. Acești chatbot AI avansati sunt proiectați să simuleze tiparele conversaționale umane cu intenția de a oferi răspunsuri mai realiste și mai utile. Generarea acestor răspunsuri personalizate se bazează pe baze de date mari de informații, pe care modelele AI sunt antrenate să le „înțeleagă” printr-o varietate de procese tehnologice: masina de învățare, învățare profundă și prelucrarea limbajului natural.

Învățarea lecțiilor

În cele din urmă, chatbot-ul a generat ceea ce au fost descrise drept răspunsuri potențial dăunătoare la întrebările unor utilizatori. Discuțiile care au urmat au transferat vina de la o instituție la alta. Cu toate acestea, rămâne ideea că circumstanțele care au urmat ar fi putut fi evitate dacă ar fi existat un organism care să ofere supraveghere etică, un „om în buclă” și o aderență la scopul clar al designului original al Tessei.

Este important să învățăm lecții din astfel de cazuri pe fondul unei grădini către integrarea AI într-o varietate de sisteme. Și deși aceste evenimente au avut loc în SUA, ele conțin lecții pentru cei care doresc să facă același lucru în alte țări.

Regatul Unit pare să aibă o abordare oarecum fragmentată a acestei probleme. Consiliul consultativ al Centrului pentru Etică și Inovare a Datelor (CDEI) a fost dizolvat recent iar locul său la masă a fost ocupat de nou-înființatul Frontier AI Taskforce. Există, de asemenea, rapoarte că sistemele AI sunt deja testate la Londra ca instrumente de ajutorare a lucrătorilor – deși nu ca înlocuitor pentru o linie de asistență.

Ambele exemple evidențiază o potențială tensiune între considerentele etice și interesele de afaceri. Trebuie să sperăm că cele două se vor alinia în cele din urmă, echilibrând bunăstarea indivizilor cu eficiența și beneficiile pe care AI le-ar putea oferi.

Cu toate acestea, în unele zone în care organizațiile interacționează cu publicul, răspunsurile generate de inteligența artificială și empatia simulată nu pot fi niciodată suficiente pentru a înlocui umanitatea și compasiunea autentice – în special în domeniile medicinei și sănătății mintale.Conversaţie

Mark Tsagas, Lector, Drept penal, Universitatea din East London

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.