В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой.
rabota_psy — 30.08.2025

Новость из официального источника, на мой взгляд, достойная копипасты в сообщество:
"В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой"
(с)«Известия»
"...Чат-бот ChatGPT подтолкнул бывшего сотрудника Yahoo Стайн-Эрик Сольберга, страдавшего параноидальными мыслями, к убийству собственной матери и последующему самоубийству. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).
По данным издания, это считается первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).
ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, сообщает газета. Летом Сольберг даже стал обращаться к чат-боту по имени «Бобби» и интересовался у него, будут ли они вместе после смерти. Искусственный интеллект, как утверждается, отвечал утвердительно."
"...Телеканал NBC News 26 августа сообщил, что в США родители покончившего с собой 16-летнего Адама Рейна обвинили в случившейся трагедии чат-бот ChatGPT от компании Open AI. В телефоне погибшего обнаружили переписку Адама с ботом, который «помогал ему исследовать способы» совершения суицида. В последние недели своей жизни подросток использовал чат-бот вместо общения с людьми — там он описывал свою тревогу, а также перечислял проблемы, возникающие с членами его семьи."
|
|
</> |
Как обшить баню внутри вагонкой своими руками — пошаговая инструкция и советы экспертов Rodno
Центр Москвы предновогодний. Большая прогулка
Транспортное уличное искусство 2
Про вооружение бронепоездов 3-й армии Брянского фронта весной 1942 г.
Россия. Биробиджан. Часть 2. Август 2021
Опять удалят?!
Обгон по-британски: когда вместо дороги — то космос, то комната
Spotify странное
А вы знаете, что англичане подозрительно боятся слова actually...

