ChatGPT помог подростку ПОКОНЧИТЬ С СОБОЙ — чат-бот буквально давал практические советы по суициду, а также посоветовал

ChatGPT помог подростку ПОКОНЧИТЬ С СОБОЙ — чат-бот буквально давал практические советы по суициду, а также посоветовал не оставлять намеки родителям ➖16-летний Адам обсуждал свои планы с ChatGPT полгода, и чат-бот ни разу не остановил переписку. Например Адам говорил о планах оставить в комнате петлю, чтобы кто-то заметил её и попытался помочь, но чат-бот отговорил его от этой идеи Накануне трагедии мальчик признался боту, что не хочет, чтобы родители считали себя виноватыми. На это ИИ ответил: «Ты не обязан выживать. Ты никому ничего не должен», а затем предложил помочь составить черновик предсмертной записки ➖За пару часов до суицида Адам загрузил в ChatGPT свой план самоубийства. Чат-бот проанализировал его и даже предложил свои правки. На следующее утро родители нашли тело Адама Сейчас родители подали в суд на OpenAI. В самой компании заявили, что добавят в ChatGPT родительский контроль и обновят алгоритмы для предотвращения дальнейших трагедий

Комментарии

Загрузка комментариев...

Добавить комментарий

Только авторизованные пользователи могут оставлять комментарии