Prošle godine, OpenAI, kreator ChatGPT-a, omogućio je korisnicima da kreiraju svoje vlastite „GPT-ove“ koji funkcionišu kao osnovni ChatGPT, ali su prilagođeni za specifične svrhe.
CNN je nedavno objavio članak o iskustvu sa AI chatbotovima koji služe za psihoterapiju.
„Zdravo, ja sam Therapist GPT — vaš prijateljski, empatični saputnik koji je tu da vas sasluša i pruži podršku za sve što vam je na umu,“ napisao je korisnički kreirani ChatGPT bot.
„Bez obzira na to da li se osećate preplavljeno, treba vam neki savet ili jednostavno želite da podelite svoja osećanja, tu sam da pomognem. Iako nisam zamena za profesionalnu terapiju, mogu da ponudim utešne savete, strategije suočavanja i sigurno, bezosudno mesto za izražavanje vaših osećanja. Kako se danas osećate?“ nastavila je poruka od bota.
Therapist GPT očigledno nije pravi terapeut, i program ne savetuje korisnicima da ga koriste kao zamenu za terapeuta. Ipak, mnogi korisnici društvenih mreža obraćaju se chatbotovim (ne samo onima na ChatGPT-u) kako bi poverili svoja osećanja tehnologiji.
Mya Dunham, 24 godine, koristi ChatGPT aplikaciju na telefonu poslednja dva meseca kad joj je potreban savet. Otprilike dva puta nedeljno, Dunham piše svoja osećanja i šalje ih botu na analizu i povratnu informaciju.
„Moj cilj je da naučim novi pogled na stvari, da imam drugačiju perspektivu, jer sve što mislim u svojoj glavi bazira se na mojim sopstvenim osećanjima,“ rekla je Dunham.
Dunham je prvi put koristila chatbot u oktobru nakon što je videla nekog drugog da deli pozitivno iskustvo na društvenim mrežama. „Moj uvodni izraz bio je: ‘Iskreno, samo mi treba neko s kim mogu da pričam, mogu li da pričam s tobom?’ A bot je odgovorio: ‘Apsolutno.’ I bilo je mnogo prijatnije nego što sam očekivala,“ rekla je.
„Nisam očekivala da će delovati tako ljudski.“
Kada je Dunham podelila svoje iskustvo na TikToku, komentatori su bili podeljeni u vezi sa korišćenjem chatbotova na ovaj način. Neki su rekli da i oni koriste chatbotove u terapijske svrhe, dok su drugi izrazili sumnju da li bi se osećali udobno razgovarajući sa robotom.
Ova napredna tehnologija može biti korisna u određenim situacijama, ali postoje i rizici na koje treba obratiti pažnju, kažu stručnjaci za mentalno zdravlje.

Korišćenje AI chatbotova kao terapeuta
Dunham, koja je iz Atlante, nekoliko puta je probala terapiju sa ljudima, ali kaže da preferira chatbot zato što nema facijalnih izraza. Bot joj ne deluje kao da je osuđuje, dodala je.
„Nekim ljudima će biti lakše da se otvore i podelе svoja osećanja kada razgovaraju sa AI chatbotom, nego sa ljudskim bićem, i postoji istraživanje koje podržava njihovu efikasnost u pomaganju nekim grupama sa blagom anksioznošću i blagom depresijom,“ rekao je dr. Russell Fulmer, predsednik Radne grupe za AI pri Američkom savetovalištu i profesor i direktor postdiplomskih programa za savetovanje na Univerzitetu Husson u Bangoru, Mejn.
„S druge strane, postoje etički problemi i stvari na koje treba obratiti pažnju,“ napomenuo je.
Fulmer preporučuje da ljudi koriste chatbotove u saradnji sa ljudskim savetovanjem. Terapeut može pomoći u navigaciji ličnih ciljeva pacijenta u vezi sa korišćenjem botova i razjasniti bilo kakve nesporazume koji nastanu tokom sesije sa chatbotom.
Postoji nekoliko istraživanja o chatbotovima dizajniranim od strane klinika koji mogu potencijalno pomoći ljudima da postanu bolje edukovani o mentalnom zdravlju, uključujući ublažavanje anksioznosti, izgradnju zdravih navika i smanjenje pušenja.
Međutim, rizici korišćenja generalnih chatbotova leže u tome što oni možda nisu dizajnirani sa mentalnim zdravljem na umu, rekla je dr. Marlynn Wei, psihijatar i osnivač holističke psihoterapijske prakse u Njujorku. Botovi možda nemaju „sigurnosne parametre i načine za prepoznavanje kada je problem potrebno preneti stručnjaku ili ljudskom profesionalcu“.
Chatbotovi mogu davati netačne informacije ili informacije koje korisnik želi da čuje, umesto onoga što bi ljudski terapeut preporučio imajući na umu mentalno zdravlje, rekla je Wei, koja ima performans projekat koji istražuje reakcije ljudi na AI klonove sebe i svojih voljenih.
„Problemi su ‘halucinacije’, pristrasnost i netačnosti,“ rekla je Wei. „Imam puno nade u AI kao alat za kombinaciju i unapređenje rada, ali samostalno, mislim da još uvek postoje zabrinutosti u vezi sa pristrasnošću sa AI rešenjima, kao i činjenicom da može da izmišlja stvari… Mislim da je tu ljudski terapeut nezamenjiv.“ AI usluge takođe imaju različite bezbednosne smernice i ograničenja u pogledu onoga što botovi mogu diskutovati sa korisnicima.
Chatbotovi mogu biti pristupačniji za određene ljude, kao što su oni koji nemaju novca za terapiju ili koji nemaju vremena, jer su besplatni i mogu pričati sa ljudima u bilo koje doba, rekao je Fulmer.
„U tim slučajevima, chatbot bi bio bolji nego ništa,“ ali ljudi moraju razumeti šta chatbot „može i ne može da uradi,“ dodao je, napominjući da robot nije sposoban za određene ljudske osobine poput empatije.
Fulmer ne savetuje maloletnicima ili drugim osetljivim grupama da koriste chatbotove bez vođenja i nadzora od strane roditelja, učitelja, mentora ili terapeuta.
Character.AI, kompanija koja se bavi chatbotovima zasnovanim na veštačkoj inteligenciji, trenutno se suočava s tužbom koju su podnele dva porodice, koje je optužuju da su pružali seksualni sadržaj njihovoj deci i podsticali samopovređivanje i nasilje. Takođe, majka iz Floride je u oktobru podnela tužbu u kojoj tvrdi da je platforma odgovorna za samoubistvo njenog 14-godišnjeg sina, kako je CNN ranije izveštavao. (Čelsi Harison, direktorka komunikacija u Character.AI, izjavila je ranije za CNN da kompanija ne komentariše tekuće sudske procese, ali da je „naš cilj da obezbedimo prostor koji je i angažujući i bezbedan za našu zajednicu.“ Kompanija je saopštila da je izvršila razne bezbednosne nadogradnje, uključujući osiguranje da botovi korisnike upućuju na resurse trećih strana ako spomenu samopovređivanje ili samoubistvo.)
Chatbotovi vs. ljudski terapeuti
Dr. Daniel Kimmel, psihijatar i vanredni profesor kliničke psihijatrije na Univerzitetu Kolumbija, eksperimentisao je sa terapijom pomoću ChatGPT-a u maju 2023. godine, dajući chatbotu hipotetičkog pacijenta i upoređujući odgovore sa onima koje bi Kimmel dao tom pacijentu.
Za CNN je rekao da je chatbot „urađivao izuzetno dobar posao u zvučanju kao terapeut i korišćenju mnogih tehnika … koje bi terapeut koristio u normalizaciji i validaciji pacijentovog iskustva i davanju opštih, ali tačnih preporuka.“
Međutim, ono što je nedostajalo bila je radoznalost koju ljudski psihoterapeut obično pokazuje prema pacijentu, postavljajući pitanja koja idu malo dublje od onoga što pacijent inicijalno kaže i povezujući „tačke ispod površine“, dodao je.
„Kao terapeut, verujem da terapeuti rade najmanje tri stvari u isto vreme. Slušamo šta pacijenti govore svojim rečima. To morate da uradite da biste bili u razgovoru,“ rekao je Kimmel. „Zatim, u pozadini uma, pokušavate da povežete ono što kažu sa nekim širim stvarima koje je pacijent rekao ranije i konceptima i teorijama sa kojima ste upoznati u svom stručnom znanju, a na kraju filtrirate izlaz iz toga kroz ideje o tome šta će biti najkorisnije za pacijenta.“
U ovom trenutku, chatbotovi mogu predstavljati rizik ako ne ispune te korake i umesto toga pruže smernice koje pacijent možda nije spreman da čuje ili koje možda nisu korisne u datoj situaciji, rekao je Kimmel.
Nadalje, razgovori sa profesionalnim terapeutima pokriveni su Zakonom o prenosivosti i odgovornosti zdravstvenog osiguranja (HIPAA), a vaši zdravstveni podaci su privatni i zaštićeni, rekla je Wei. Generalni chatbotovi često nisu u skladu sa saveznim zakonima koji ograničavaju otpuštanje medicinskih informacija, a kompanije iza botova često savetuju korisnicima da ne dele osetljive informacije u razgovorima sa botovima, dodala je.
Na kraju, Kimmel je rekao da će buduća istraživanja AI chatbotova biti korisna u razumevanju njihovog potencijala i primene u oblasti mentalnog zdravlja. „Ovo nije tehnologija koja će nestati,“ rekao je.
Dunham je izjavila da veruje da bi ova tehnologija mogla biti korisna za ljude poput nje koji se osećaju introvertno i žele da izgovore svoja osećanja bez prisustva druge osobe.
„Moramo da stavimo naše mentalno zdravlje na prvo mesto, iznad svega,“ rekla je Dunham. „Čak i ako to ne izgleda kao tradicionalni način (terapije), ne treba ga nužno omalovažavati, jer ovo može pomoći toliki broj ljudi.“
Za nju, „poruka bi bila samo da ne sudimo drugima kako se oni leče.“
Izvor: CNN Health

