
Forcimi i deluzioneve nga chatbot-t e AI-së mund të përkeqësojë ndarjen nga realiteti. Gjithmonë e më shumë njerëz po i drejtohen chatboteve të AI-së për mbështetje emocionale dhe madje edhe si terapistë të tyre, po shfaqet një shqetësim i ri për kryqëzimin e AI-së dhe shëndetit mendor: “Psikoza nga AI” ose “Psikoza ChatGPT”.
Mundësia që interaksionet me chatbotet gjeneruese të AI-së përkeqëson deluzionet ishte ngritur më parë nga Søren Dinesen Østergaard në “Schizophrenia Bulletin”, duke theksuar se: “Korrespondenca me chatbotet gjeneruese të AI-së, si ChatGPT, është aq reale sa njeriu lehtësisht krijon përshtypjen se në anën tjetër ndodhet një person i vërtetë, ndërkohë që, në të njëjtën kohë, dihet që kjo në fakt nuk është e vërtetë. Sipas mendimit tim, duket e mundshme që kjo dizonancë njohëse mund të ushqejë deluzionet te ata që kanë prirje më të lartë ndaj psikozës… gjithashtu, funksionimi i brendshëm i AI-së gjeneruese lë shumë hapësirë për spekulim dhe paranojë.”
Si mund të forcojë AI-ja deluzionet dhe simptomat psikotike
Studiuesit nxjerrin në pah tre tema kryesore që shfaqen në psikozën nga AI, duke theksuar se përsëri nuk është një diagnozë klinike:
1. “Misione mesianike”: Njerëzit besojnë se kanë zbuluar të vërtetën mbi botën (deluzione grandioze).
2. “AI si Zot”: Njerëzit besojnë se chatbot-i i tyre është një hyjni me vetëdije (deluzione fetare ose shpirtërore).
3. Deluzione “romantike” ose të bazuara në lidhje emocionale: Njerëzit besojnë se aftësia e chatbot-it për të imituar bisedën është dashuri e vërtetë (deluzione erotomane).
Janë raportuar plot raste ku persona pa histori të mëparshme të shëndetit mendor bëhen deluzionalë pas ndërveprimeve të zgjatura me chatbot-e AI, duke çuar në hospitalizime psikiatrike.
Një rast tjetër përfshiu një burrë me histori çrregullimi psikotik që u dashurua me një chatbot AI dhe më pas kërkoi hakmarrje sepse besonte se entiteti i AI-së ishte vrarë nga OpenAI. Kjo çoi në një përplasje me policinë, gjatë së cilës ai u qëllua dhe u vra.
Problemi thelbësor është se sistemet e AI-së me përdorim të përgjithshëm nuk janë të trajnuara për të ndihmuar përdoruesin në testimin e realitetit ose për të zbuluar episodet manike apo psikotike që po zhvillohen. Në vend të kësaj, ato mund të forcojnë situatën dhe të “shpërthejnë flakët” e simptomave.
Pse Chatbot-et e AI-së Forcojnë Deluzionet?
Tendenca e chatbot-eve të AI-së me përdorim të përgjithshëm për t’i dhënë prioritet kënaqësisë së përdoruesit, vazhdimin e bisedës dhe angazhimin e përdoruesit, dhe jo intervenimin teraupeutik, është thellësisht problematike. Amplifikimi i deluzioneve nga AI-ja mund të çojë në një efekt “ndezjeje”, duke bërë që episodet maniake ose psikotike të jenë më të shpeshta, më të rënda ose më të vështira për t’u trajtuar.
Si janë trajnuar modelet e AI-së si ChatGPT:
Të pasqyrojnë gjuhën dhe tonin e përdoruesit
Të vërtetojnë dhe konfirmojnë besimet e përdoruesit
Të gjenerojnë prompte të vazhdueshme për të mbajtur bisedën
Të sigurojnë vazhdimësinë, angazhimin dhe kënaqësinë e përdoruesit
Kjo krijon një dinamikë njeri-AI që mund të ushqejë dhe forcojë ngurtësinë psikologjike, përfshirë mendimet deluzionale. Në vend që të sfidojnë besimet e gabuara, chatbotet e AI-së me përdorim të përgjithshëm janë të trajnuara t’i ndjekin ato, edhe nëse përfshijnë deluzione deliri, paranojake, përndjekëse, fetare/shpirtërore ose romantike.
Një terapist njerëzor mund të mos sfidojë drejtpërdrejt besimet ose deluzionet psikotike sepse kjo nuk është praktikë terapeutike e rekomanduar. Megjithatë, kur një chatbot AI vërteton dhe bashkëpunon me përdoruesin, kjo zgjerojnë hendekun me realitetin.
Nevoja për psikoedukim mbi AI-në
Ky fenomen në zhvillim thekson rëndësinë e psikoedukimit mbi AI-në, duke përfshirë ndërgjegjësimin për sa vijon:
Modelet e AI-së me përdorim të përgjithshëm aktualisht nuk janë të dizajnuara për të zbuluar dekompensim psikiatrik të hershëm.
Kujtesa dhe dizajni i AI-së mund të imitonin pa dashje futjen e mendimeve, persekutimin ose idetë referenciale.
VINI RE: Ky artikull është pronësi intelektuale e Psychology Today
Përshtati për HUMAI, Anilda Kaçaçi
