«Угроза всему человечеству»: Маск, Возняк и тысячи экспертов призвали

топ 100 блогов taransv03.04.2023 т800

Илон Маск, Стив Возняк, а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии,
призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI.

В открытом письме они предупредили о потенциальных рисках для общества.

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми.
Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности,
применение которых будет проверяться независимыми аудиторами.

витя дурень

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, к
оторые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

ии

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман, по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

ии

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.

Надо иметь для ИИ рубильник для отключения, на всякий пожарный.
Если останется тот, кто сможет его дернуть.

Оставить комментарий

Архив записей в блогах:
Из наблюдений вчера на пляже речки Клязьма. Вечер, около семи часов, берег остывает после дневной жары. Люди расходятся по домам. Сдувают бассейн для малыша. Он очень против, рев и обиженное «на весь мир» личико мальчика-одуванчика с кудряшками цвета блонд. Пляж уже полупустой и тут ...
До 17го ноября по промо коду WINTER 20 . Enjoy! Он-лайн магазин End . ...
Экономический кризис в России закончится через 2 недели:   ...
Пришла пора косметических лидеров и лузеров февраля.Этот месяц выдался ...
Американцы стелют соломку: попросили «мягче реагировать на этот визит». То есть сбивать ее самолет не нужно, но принудительно посадить его в одном из аэропортов Китая как бы можно. Так я понял официального представителя Белого дома Карин Жан-Пьер. Возможно, она несколько ...