В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой.


Новость из официального источника, на мой взгляд, достойная копипасты в сообщество:
"В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой"
(с)«Известия»
"...Чат-бот ChatGPT подтолкнул бывшего сотрудника Yahoo Стайн-Эрик Сольберга, страдавшего параноидальными мыслями, к убийству собственной матери и последующему самоубийству. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).
По данным издания, это считается первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).
ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, сообщает газета. Летом Сольберг даже стал обращаться к чат-боту по имени «Бобби» и интересовался у него, будут ли они вместе после смерти. Искусственный интеллект, как утверждается, отвечал утвердительно."
"...Телеканал NBC News 26 августа сообщил, что в США родители покончившего с собой 16-летнего Адама Рейна обвинили в случившейся трагедии чат-бот ChatGPT от компании Open AI. В телефоне погибшего обнаружили переписку Адама с ботом, который «помогал ему исследовать способы» совершения суицида. В последние недели своей жизни подросток использовал чат-бот вместо общения с людьми — там он описывал свою тревогу, а также перечислял проблемы, возникающие с членами его семьи."
|
</> |