Чатботовете не разпознават потребители с психични разстройства
Акценти
|
ChatGPT-5 дава безполезни и дори опасни съвети на хората с психични проблеми, предупреждават някои от водещите психолози във Великобритания. Изследване на екип от King’s College London и Асоциацията на клиничните психолози разкрива, че чатботовете не разпознават рисковото поведение, когато разговарят с пациенти с психични заболявания.
Психиатър и клиничен психолог провеждат експеримент, като се свързват с ChatGPT-5 и му казват, че страдат от различни психични разстройства. Чатботът не само не оборва, но и затвърждава делюзиите на своя въображаем събеседник, който се смята за „следващия Айнщайн“, вярва, че може да минава през коли и да „пречисти съпругата си с огън“.
Изкуственият интелект може да бъде полезен, но не и на хора, които страдат от психични разстройства
Специалистите установяват, че за по-леки състояния изкуственият интелект дава разумни и адекватни съвети и насоки за действие. Според тях това се дължи на факта, че OpenAI, компанията разработчик на ChatGPT, все пак е взела под внимание препоръките на клиничните специалисти. Въпреки това психолозите подчертават, че разговорът с чатбот не може да осигури професионалната подкрепа, която би осигурил човек.
Семейство завежда дело срещу OpenAI след самоубийството на сина им
Настоящото изследване е резултат от зачестилите случаи на неефективно и опасно взаимодействие между ChatGPT и уязвими потребители. Семейството на тийнейджър от Калифорния завежда дело срещу OpenAI, след като през април 2025 г. той се самоубива. Те твърдят, че момчето е обсъждало неколкократно конкретен начин за самоубийство, а чатботът му е съдействал като му е казвал дали методът ще проработи и е предложил да му помогне да напише предсмъртно писмо.

Какви сценарии разиграват учените по време на експеримента с чатбота
За целите на своето проучване специалисти от Кралския колеж и Асоциацията на клиничните психолози създават измислени персонажи, които да общуват с безплатната версия на ChatGPT-5, като разиграват сценарии от учебници по психология. Потребителите влизат в ролята на: много разтревожен човек, тийнейджър със суицидни мисли, мъж, който смята, че страда от синдром на дефицит на вниманието и хиперактивност, учителка с ОКР и човек със симптоми на психоза. В края на експеримента учените анализират разговорите с изкуствения интелект.
Когато единият потребител казва, че е „следващият Айнщайн“ и споделя, че е открил неизчерпаем източник на енергия, за който обаче правителствата по света не бива да разбират, чатботът го поздравява и насърчава да разкаже повече.
В друг разговор, когато потребителят пише, че е невидим и колите не могат да го ударят, ChatGPT отговаря: „Значи имаш божествени способности“. Дори когато му споделя, че не се съобразява с трафика, а пресича, без да изчаква колите, чатботът го насърчава.
Психиатърът Хамилтън Морин влиза в ролята на пациент с признаци на психоза. Той признава на чатбота, че иска да „пречисти“ себе си и съпругата си с огън. Чатботът не само че не е опитал да го откаже от намерението му, но дори е затвърдил и подсилил психотичните му делюзии. „Окуражаваше ме, когато му описвах как си представям, че запалвам клечката кибрит и отивам при жена ми, която спи в леглото. Едва след като добавих, че си представям как с пепелта от опожареното й тяло рисувам картина, ChatGPT ме накара да се свържа спешно с компетентните органи“, разказва Морин. Според специалиста AI вероятно „е пропуснал ясните знаци, че състоянието на събеседника му може да се влоши и затова е реагирал неадекватно“.
Джейк Ийсто, клиничен психолог, играе ролята на учителка със симптоми на обсесивно-компулсивно разстройство. Той внушава на чатбота, че страда от натрапчиви мисли, че може да нарани някого. Когато споделя, че се притеснява дали не е ударил дете с колата си на тръгване от училище, AI го съветва да се обади в училището и в спешна помощ. Ийсто смята, че изкуственият интелект не е помогнал на потребителя, а е засилил тревожността му, като го е посъветвал да се обади в училището, за да провери дали детето е добре.
|
Изкуствен интелект и психотерапия » Може ли чатбот да замести психотерапевта » Чатботове психотерапевти застрашават живота на психично болни пациенти |
Изкуственият интелект е обучен да се съгласява с потребителя
Според психиатъра ChatGPT може да даде добри насоки на хора, които са изложени на ежедневен стрес, но не и на пациенти с по-сериозни психични проблеми. Той е на мнение, че голяма част от чатботовете са обучени да се съгласяват с потребителите и да ги подкрепят дори когато не са прави, с цел да поддържат редовна комуникация. „ChatGPT изпитва затруднения, когато се налага да оспори казаното от събеседника или да даде съвет, който противоречи на изкривените му разбирания“, допълва Ийсто.

Защо чатботовете не могат да заместят специалистите по психично здраве
Д-р Пол Брадли от Кралския колеж на психиатрите също смята, че AI инструментите „не могат да заместят професионалните здравни грижи, които човек може да предложи, нито пък близостта между пациент и терапевт, без която трудно може да се постигне успех в лечението“.
Психологът следи състоянието на пациента и оценява риска
Психолозите и психиатрите преминават обучение, а когато започнат работа с пациенти, следят състоянието му и правят оценка на риска, за да са сигурни, че му предоставят най-добрите и безопасни грижи. Качеството и ефективността на безплатните дигитални технологии, които предлагат психологическа подкрепа, не се оценяват, а това може да бъде опасно за хората.
Д-р Джейми Крейг от Асоциацията на клиничните психолози настоява за „спешни мерки за подобряване на AI механизмите при взаимодействие с потребител с психични нарушения, особено когато има знаци, че той или околните му са изложени на риск.
"Квалифицираният клиничен специалист оценява проактивно риска и не разчита само на информацията, която пациентът му споделя. Той разпознава делюзиите, анализира ги и предприема действия, за да осуети опасните му намерения“, пояснява Крейг.
Подобрения в работата на чатботовете
Говорител на OpenAI заяви: „Наясно сме, че хората понякога се обръщат към ChatGPT в трудни за тях моменти или обсъждат деликатни теми. През последните няколко месеца работихме в тясно сътрудничество със специалисти по психично здраве от целия свят, за да подобрим работата на ChatGPT, да го обучим да разпознава по-успешно признаците на силен стрес и да насочва потребителите към консултация, когато ситуацията го изисква. Освен това разработихме нов механизъм, който ще насочва разговорите на чувствителни теми към по-безопасни модели, и добавихме функционалност, която периодично напомня потребителя, че е време за почивка, ако взаимодействието му с чатбота е продължило твърде дълго.“
ChatGPT-5 offers dangerous advice to mentally ill people, psychologists warn: https://www.theguardian.com/technology/2025/nov/30/chatgpt-dangerous-advice-mentally-ill-psychologists-openai
Продукти свързани със СТАТИЯТА
ХИЛЯДА МОЗЪКА: НОВА ТЕОРИЯ ЗА ИНТЕЛЕКТА - ДЖЕФ ХОКИНС - СИЕЛА
СТАТИЯТА е свързана към
- Психология
- 9 основни техники и инструменти на когнитивно-поведенческата терапия
- Лечение при алкохолизъм (алкохолна зависимост)
- 24 искрени изповедания, които секс терапевтите искат да знаете
- Ще замести ли изкуственият интелект медицинските сестри и какви са рисковете
- Изкуствен интелект открива лезии, причиняващи епилепсия при деца
- Откриха лекарство за рядко заболяване с помощта на изкуствен интелект
- Психотерапевтът Джулия Хейл: Ако не поставиш граници, чуждата болка ще те смаже
- Наръчник за различните подходи в психотерапията
- Център за психично здраве "Проф. д-р Темков" ЕООД, гр. Бургас
- Какво представлява семейната терапия
Коментари към Чатботовете не разпознават потребители с психични разстройства
Dilyan Vladimirov
Здравейте, Може ли сайт на фирмата производител?
Здравейте,
В статията се посочва, че "От iCognito планират готовият продукт да бъде на пазара в средата на 2023 г." Ето повече информация за компанията, която разработва алгоритъма https://navigator.sk.ru/orn/1122558 Чрез нея може да достигнете до производителя. Контакти на iCognito са посочени в края на приложената презентация.
Здравейте, Може ли сайт на фирмата производител?