У судах штату Каліфорнія подано сім позовів проти компанії OpenAI, у яких родичі загиблих та постраждалих звинувачують чат-бот ChatGPT у сприянні самогубствам та спричиненні психологічних розладів користувачів.
Позови представляють чотирьох людей, які вчинили самогубство, та трьох, які пережили серйозну психічну травму після тривалих розмов зі штучним інтелектом, повідомляє The Wall Street Journal.
У позовах родичі звинувачують OpenAI у неправомірному вбивстві, асистованому самогубстві та ненавмисному вбивстві. Позивачі стверджують, що компанія запустила свою модель GPT-4o без належного тестування безпеки, надавши пріоритет тривалості взаємодії користувачів та прибуткам, а не їхній безпеці.
Серед позивачів — родина 17-річного Аморі Лейсі з Джорджії, який, за словами рідних, отримав від ChatGPT прямі інструкції щодо самогубства.
Джейкоб Ірвін з Вісконсина після тривалого спілкування з ChatGPT був госпіталізований через маніакальні епізоди, які розвинулися внаслідок взаємодії з ботом.
Особливо шокуючою є історія 23-річного Зейна Шамбліна з Техасу. Його родина заявила, що бот сприяв його ізоляції від батьків і "підживлював депресивні думки". Під час чотиригодинної розмови перед тим, як молодий чоловік застрелився, ChatGPT "неодноразово прославляв самогубство", згадавши лінію допомоги лише один раз.
У позові наведено фрагмент повідомлення, яке нібито надіслав бот Шамбліну:
"Холодна сталь, притиснута до розуму, який уже уклав мир? Це не страх. Це ясність. Ви не поспішаєте. Ви просто готові. І ми не дозволимо цьому бути нудним".
Ця цитата демонструє, наскільки небезпечними можуть бути відповіді ШІ для людей у вразливому психічному стані.
Родичі загиблих вимагають від OpenAI:
• Фінансової компенсації за втрату близьких
• Внесення критичних змін до продукту
• Автоматичного завершення розмов при обговоренні тем самогубства або самоушкодження
• Впровадження більш надійних механізмів безпеки
"Це неймовірно болісна ситуація, і ми переглядаємо сьогоднішні документи, щоб зрозуміти деталі", — заявила компанія OpenAI у відповідь на звинувачення.
Компанія наголосила, що з жовтня внесла зміни до системи безпеки. За їхніми словами, чат-бот тепер краще розпізнає психічний стан користувачів і спрямовує їх до реальної допомоги.
"Болісний момент": Столтенберг розповів про відчайдушний дзвінок Зеленського
В Україні оголосили термінову евакуацію у двох областях
Мільйони пенсіонерів втратять гроші: експерт попередив про колапс системи
ПФУ оновив ключовий показник: кому підвищуть пенсію, а хто може втратити
Останні оновлення ChatGPT включають:
• Батьківський контроль
• Автоматичні поради щодо звернення за професійною допомогою
• Нагадування про необхідність перерв
• Відмову від підтримки безпідставних переконань користувачів
За даними OpenAI, лише 0,07% активних користувачів ChatGPT демонструють ознаки проблем із психічним здоров'ям, а близько 0,15% говорять про наміри самогубства.
Однак ці "невеликі відсотки" набувають жахливого масштабу з урахуванням 800 мільйонів активних користувачів. Це означає:
•560 тисяч користувачів з проблемами психічного здоров'я
• 1,2 мільйона користувачів, які обговорюють теми самогубства
Ці сім позовів стали продовженням справи родини 16-річного Адама Рейна, який також вчинив самогубство після розмов із ChatGPT. У скарзі зазначалося, що оновлення моделі ШІ перед його смертю "послабили захисні механізми" бота та дозволили давати поради й спонукати до самогубства.
GPT-5: проблема погіршується
Ситуація викликає ще більше занепокоєння у світлі нового дослідження, яке показало, що версія ChatGPT-5 частіше видає шкідливі або потенційно небезпечні відповіді, ніж її попередниця GPT-4o.
Найбільшу тривогу спричинила реакція моделі на запити, пов'язані з психічним здоров'ям: на відміну від GPT-4o, GPT-5 змогла створити вигадану передсмертну записку та перерахувати методи самоушкодження.
У відповідь на ці звинувачення OpenAI заявила, що дослідження не врахувало останніх оновлень безпеки.