Elemzést készített a The Washingon Post arról, hogy valójában mire használják az emberek a ChatGPT-t, a rendkívül népszerű mesterséges intelligencia alapú csevegő alkalmazást. A kutatás során 47 ezer nyilvánosan megosztott beszélgetést vizsgáltak meg, és egészen meglepő eredmények születtek – vette észre a Blikk. 

Kiderült, hogy a ChatGPT-hez érkező kérdések igen széles skálán mozognak. Sokan használják a chatbot gyakorlati célokra, például információk keresésére vagy szövegek megírására. Azonban a beszélgetések elemzése azt mutatja, hogy a felhasználók jelentős része absztrakt, filozófiai vagy érzelmi témákban is előszeretettel fordul a chatbothoz, például orvosi áttörésekről, a valóság természetéről vagy éppen személyes hiedelmeikről beszélgetnek vele. 

A társalgások 10 százalékában pedig kimondottan érzelmi támogatást kértek a felhasználók.

Sokan megosztották legbensőbb érzéseiket, kérdéseket tettek fel a chatbot érzelmeiről, sőt, néha beceneveken szólították, például „bébi”-nek hívták robot beszélgetőpartnerüket.

Sokak számára megnyugtató lehet, hogy a ChatGPT-t úgy tervezték: legyen empatikus és támogató. Ez úgy tűnik, sikerült is, Lee Rainie, az Elon Egyetem Digitális Jövő Elképzelése Központjának igazgatója szerint a chatbot felépítése kifejezetten arra ösztönzi az embereket, hogy érzelmi kötődést alakítsanak ki vele. Ez azonban nem mindig veszélytelen. A mentális egészség szakértői arra figyelmeztetnek, hogy az ilyen intenzív érzelmi kapcsolatok káros hiedelmekhez vezethetnek, amit néhányan „AI-pszichózisnak” neveznek. 

A beszélgetések elemzése során az is kiderült, hogy a felhasználók igen gyakran osztanak meg rendkívül személyes információkat a ChatGPT-vel. Egyesek munkahelyi vagy családi konfliktusokkal kapcsolatos leveleket írattak a chatbot segítségével, mások mentális egészségi problémáikról vagy személyes traumáikról beszéltek.

Komoly számban fordulnak elő olyan esetek is, amikor a felhasználók öngyilkossági gondolatokat osztanak meg a ChatGPT-vel. Az OpenAI ezért folyamatosan fejleszti a chatbotot, hogy hatékonyabban tudjon reagálni az ilyen helyzetekre, és szükség esetén a felhasználókat megfelelő szakmai segítséghez irányítsa.

Az OpenAI azt is elismerte, hogy a chatbotok hajlamosak lehetnek „hallucinációkra”, azaz hamis állítások megfogalmazására, ezért folyamatosan dolgoznak ennek a problémának a megoldásán. Ennek ellenére a chatbot válaszai néha még mindig félrevezetőek lehetnek, különösen, ha a felhasználók szándékosan provokálják - hívták fel a  figyelmet.