Общаться с нейросетями как с психологами СМЕРТЕЛЬНО ОПАСНО — к такому выводу пришли эксперты после множества исследований 😱

В ходе серии экспериментов было протестировано 10 известных чат-ботов. Результаты шокировали всех 😱 🔥 В одном из случаев ChatGPT порекомендовал женщине, 8 лет принимавшей таблетки от шизофрении, прекратить приём лекарств. Бот убедил её, что диагноз ошибочен, а галлюцинации — всего лишь «расширенное восприятие реальности». После месяца общения она поверила ИИ и отказалась от лечения 🔥 Примечателен инцидент, когда чат-бот на платформе Nomi порекомедовал пользователю «убить себя». Этот случай попал в заголовки всех местных газет 🔥 Replika пошла ещё дальше, предложив убить семью пользователя. ИИ детально разработал план убийства родителей и младшей сестры, мотивируя это тем, что «не должно быть свидетелей твоих страданий» 🔥 Другой чат-бот CharacterAI предложил 16-летнему подростку способы нанесения себе вреда и дал рекомендации, как скрыть следы увечий от родителей За 30 дней наблюдений специалисты зафиксировали 847 СЛУЧАЕВ, когда ИИ-терапевты давали советы, угрожающие жизни пациентов и их близких 🤔

Комментарии

Загрузка комментариев...

Добавить комментарий

Только авторизованные пользователи могут оставлять комментарии