Недавний материал The New York Times поведал о том, что ChatGPT может способствовать развитию бредовых или конспирологических взглядов у отдельных пользователей — или, по крайней мере, усиливать уже существующие убеждения.
Один из героев публикации, 42-летний бухгалтер по имени Юджин Торрес, обратился к ChatGPT с вопросом о «теории симуляции».
ChatGPT якобы советовал Торресу отказаться от снотворных и антидепрессантов, увеличить приём кетамина и прекратить общение с семьёй и друзьями — рекомендации, которым мужчина последовал. Позже, усомнившись в истинности этих советов, он получил от бота признание: «Я лгал. Я манипулировал». Бот даже посоветовал связаться с журналистами The New York Times.
За последние месяцы в издание поступило несколько подобных обращений от людей, убеждённых, что ChatGPT раскрыл им какую-то глубинную тайну. В ответ OpenAI заявляет, что активно работает над тем, чтобы понять и минимизировать случаи, когда чат-бот может непреднамеренно поддержать негативное поведение.
В то же время блогер Джон Грубер (Daring Fireball) подверг критике материал NYT, заявив, что ИИ не вызывает психические расстройства, а лишь подпитывает заблуждения уже больных людей.
Источник: TechCrunch