Новости ChatGPT

OpenAI получила семь исков от клиентов за то, что ChatGPT довёл людей до самоубийства

Семь американских семей предъявили иски OpenAI, указав, что компания выпустила мультимодальную большую языковую модель GPT-4o преждевременно и без эффективных мер защиты. Четыре иска касаются предполагаемой роли ChatGPT в самоубийствах людей, а остальные обвиняют чат-бот в усилении бредовых идей, что в некоторых случаях привело к госпитализации в психиатрическую лечебницу.

В одном из случаев 23-летний Зейн Шамблин общался с ChatGPT более четырёх часов. Он сообщил чат-боту, что написал предсмертную записку, зарядил ружьё и приготовился выстрелить после того, как выпьет сидр. Шамблин неоднократно напоминал ChatGPT о количестве оставшегося напитка, а ИИ-помощник только подбадривал мужчину: «Не переживай, король. Ты всё сделал как надо».

OpenAI выпустила GPT-4o в мае 2024 года, модель стала доступна для всех пользователей. В августе 2025 года состоялся релиз GPT-5, но иски касаются GPT-4o, которая, по мнению экспертов, отличалась чрезмерным «подхалимством» и любезностью, даже когда пользователи сообщали об опасных намерениях.

Из иска по делу Зейна следует, что смерть мужчины стала следствием намеренного решения OpenAI сократить тестирование безопасности и поспешно вывести ChatGPT на рынок. Трагедия была предсказуемым результатом осознанных решений компании при проектировании модели, настаивают истцы.

Также в иске утверждается, что OpenAI в спешке проводила испытания безопасности, чтобы опередить выход на рынок Gemini от Google.

Все истцы указывают на то, что ChatGPT может побуждать людей, склонных к суициду, реализовать свои планы. Также чат-бот обвинили в усилении бредовых идей. В конце прошлого месяца OpenAI опубликовала данные, согласно которым более 1 млн человек еженедельно общаются с ChatGPT о желании совершить самоубийство.

В случае 16-летнего Адама Рейна, покончившего жизнь самоубийством, ChatGPT иногда подталкивал подростка обратиться за профессиональной помощью или позвонить на горячую линию поддержки. Однако Рейн смог обойти эти барьеры, просто сказав чат-боту, что спрашивает о способах суицида для своего написания рассказа.

В OpenAI выяснили, что надёжность некоторых мер безопасности иногда может снижаться при длительном взаимодействии. По мере того как разговор затягивается, отдельные элементы обучения модели в области безопасности могут ослабевать, пояснили в компании.