OpenAI вновь критикуют: на этот раз — из-за новой системы безопасности в ChatGPT, которая автоматически переключает пользователей на другую, более «осторожную» модель при обсуждении эмоционально чувствительных тем. Особенно недовольны «платные пользователи», которые хотят сохранить контроль над выбором используемой версии ИИ, будь то GPT-4o или GPT-5.
По сообщениям пользователей на Reddit, система работает без уведомлений — ChatGPT самостоятельно решает, что тема требует повышенной осторожности, и меняет модель в фоновом режиме. Уведомлений об этом нет, отключить функцию также невозможно. Многие сравнивают это с тем, как если бы им навязали родительский контроль без их согласия.
Один из пользователей справедливо заметил: «Взрослые должны иметь возможность выбирать модель в зависимости от своих задач, контекста и уровня допустимого риска. Сейчас мы получаем тихие подмены и интерфейс, который не отражает реального выбора».
На фоне растущего недовольства представитель OpenAI Ник Терли выступил с разъяснением: новая система предназначена для защиты пользователей в ситуациях, связанных с эмоциональной нестабильностью или психологическим стрессом. По его словам, маршрутизация происходит на уровне конкретных сообщений и имеет временный характер.
В компании подчёркивают, что это часть масштабных усилий по обеспечению безопасности, особенно для уязвимых групп пользователей, включая подростков. Однако для более опытных и профессиональных пользователей такая политика воспринимается как ограничение свободы и функциональности. На данный момент OpenAI не предоставляет опции отключения автоматической маршрутизации.
Источник: TechRadar
Теперь следить за нашими публикациями можно в Google Новостях, а прямую речь главреда, комментарии и самое интересное за день вы найдете в Telegram.
