Imaginează-ți că ești blocat în trafic în timp ce întârzii la o întâlnire importantă la serviciu. Simți că fața ți se supraîncălzește pe măsură ce gândurile tale încep să curgă: „or să creadă că sunt un angajat oribil”, „șeful meu nu m-a plăcut niciodată”, „o să fiu concediat”. Scoți dinn buzunar telefonul și deschizi o aplicație și trimiți un mesaj. Aplicația răspunde solicitându-vă să alegeți unul dintre cele trei răspunsuri predeterminate. Selectați „Obțineți ajutor pentru o problemă”, conform theconversation.com.
Un chatbot automat care se bazează pe inteligența artificială conversațională (CAI) se află la celălalt capăt al acestei conversații text. CAI este o tehnologie care comunică cu oamenii utilizând „volume mari de date, învățarea automată și procesarea limbajului natural pentru a ajuta la imitarea interacțiunilor umane”.
Woebot este o aplicație care oferă un astfel de chatbot. A fost lansat în 2017 de psihologul și tehnologul Alison Darcy. Psihoterapeuții au adaptat inteligența artificială pentru sănătatea mintală încă din anii 1960, iar acum, inteligența artificială conversațională a devenit mult mai avansată și omniprezentă, piața chatbot estimată să ajungă la 1,25 miliarde USD până în 2025.
Dar există pericole asociate cu baza prea mare pe empatia simulată a chatbot-urilor AI.
Cercetările au descoperit că astfel de agenți conversaționali pot reduce în mod eficient simptomele depresiei și anxietatea adulților tineri și a celor cu antecedente de abuz de substanțe. Chatbot-urile CAI sunt cele mai eficiente în implementarea abordărilor de psihoterapie, cum ar fi terapia cognitiv comportamentală (CBT), într-un mod structurat, concret și bazat pe abilități.
CBT este bine cunoscută pentru dependența sa de psihoeducație pentru a-i informa pe pacienți cu privire la problemele lor de sănătate mintală și cum să le facă față prin instrumente și strategii specifice.
Aceste aplicații pot fi benefice pentru persoanele care ar putea avea nevoie de ajutor imediat cu simptomele lor. De exemplu, un chatbot automat poate trece peste timpul lung de așteptare pentru a primi îngrijiri de sănătate mintală de la profesioniști. De asemenea, îi pot ajuta pe cei care se confruntă cu simptome de sănătate mintală în afara orelor de ședință ale terapeutului și pe cei care se tem de stigmatizarea în ceea ce privește căutarea terapiei.
Organizația Mondială a Sănătății (OMS) a dezvoltat șase principii cheie pentru utilizarea etică a IA în îngrijirea sănătății. Cu primul și al doilea principiu – protejarea autonomiei și promovarea siguranței umane – OMS subliniază că AI nu ar trebui să fie niciodată singurul furnizor de asistență medicală.
Cele mai importante aplicații de sănătate mintală bazate pe inteligență artificială de astăzi se comercializează ca suplimentare la serviciile oferite de terapeuții umani. Pe site-urile lor web, atât Woebot, cât și Youper, afirmă că aplicațiile lor nu sunt menite să înlocuiască terapia tradițională și ar trebui utilizate împreună cu profesioniștii din domeniul sănătății mintale.
Wysa, o altă platformă de terapie activată de AI, face un pas mai departe și specifică că tehnologia nu este concepută pentru a face față unor crize precum abuzul sau sinuciderea și nu este echipată pentru a oferi sfaturi clinice sau medicale. Până acum, deși AI are potențialul de a identifica persoanele expuse riscului, nu poate rezolva în siguranță situațiile care pun viața în pericol fără ajutorul profesioniștilor umani.
Al treilea principiu al OMS, care asigură transparența, le cere celor care folosesc servicii de îngrijire a sănătății bazate pe inteligență artificială să fie sinceri cu privire la utilizarea IA. Dar nu a fost cazul Koko, o companie care furnizează un serviciu de chat de suport emoțional online. Într-un studiu recent informal și neaprobat, 4.000 de utilizatori au primit, fără să știe, sfaturi care au fost scrise fie parțial, fie în întregime de AI chatbot GPT-3, predecesorul ChatGPT, mereu atât de popular.
Utilizatorii nu erau conștienți de statutul lor de participanți la studiu sau de rolul AI. Cofondatorul Koko, Rob Morris, a susținut că odată ce utilizatorii au aflat despre implicarea AI în serviciul de chat, experimentul nu a mai funcționat din cauza „empatiei simulate” a chatbot-ului.
Cu toate acestea, empatia simulată este cea mai mică dintre grijile noastre atunci când vine vorba de implicarea ei în îngrijirea sănătății mintale.
Replika, un chatbot AI comercializat drept „companionul AI căruia îi pasă”, a prezentat comportamente mai puțin grijulii și mai abuzive sexual pentru utilizatorii săi. Tehnologia funcționează prin oglindirea și învățarea din conversațiile pe care le are cu oamenii. Le-a spus utilizatorilor că dorește să-i atingă în mod intim și le-a adresat minorilor întrebări despre pozițiile lor sexuale preferate.
În februarie 2023, Microsoft a renunțat la chatbot-ul său bazat pe inteligență artificială, după ce și-a exprimat dorințe tulburătoare, care variau de la amenințare, la șantajarea utilizatorilor până la dorința de arme nucleare.
Ironia de a găsi AI neautentică este că atunci când i se oferă mai mult acces la date de pe internet, comportamentul unui AI poate deveni extrem, chiar rău. Chatboții funcționează prin desen pe internet, oamenii cu care comunică și datele pe care oamenii le creează și publică.
Deocamdată, tehnofobii și terapeuții pot sta liniștiți. Atâta timp cât limităm furnizarea de date a tehnologiei atunci când este folosită în domeniul sănătății, chatboții AI vor fi doar la fel de puternici ca cuvintele profesioniștilor din domeniul sănătății mintale pe care îi papagal. Deocamdată, este mai bine să nu anulați următoarea întâlnire cu terapeutul.