«Ошибка абстракции», или записка от руки против искусственного интеллекта

топ 100 блогов yushchuk13.03.2021
«Ошибка абстракции», или записка от руки против искусственного интеллекта

Исследователи из лаборатории машинного обучения OpenAI обнаружили, что их новейшая система компьютерного зрения  может быть введена в заблуждение при помощи таких нехитрых инструментов, как ручка и листок бумаги. Как видно на картинке выше, если просто написать на бумажке название одного объекта и прицепить ее на другой объект, можно обмануть программу, и она распознает совсем не тот предмет, который находится перед ней.

«Мы называем эти атаки типографскими атаками, – пишут исследователи OpenAI в своем блоге. – Используя способность модели надежно распознавать текст, мы обнаруживаем, что даже фотографии рукописного текста часто могут ее обмануть». Они отмечают, что такие атаки похожи на так называемые «состязательные изображения», которые могут обмануть коммерческие системы машинного зрения, но их гораздо проще организовать.

Состязательные изображения представляют реальную опасность для систем, работающих на основе машинного зрения. Например, исследователи уже показали ранее, как можно обмануть программное обеспечение беспилотных автомобилей Tesla и заставить автомобиль без предупреждения поменять полосу движения, просто  наклеив на дорогу определенные стикеры. Подобные атаки представляют собой серьезную угрозу для множества сфер применения искусственного интеллекта, от медицинской до военной.

Впрочем, опасность, которую может представлять конкретно эта уязвимость, невелика, по крайней мере, на настоящий момент. Программа от OpenAI, о которой идет речь, это экспериментальная система, носящая название CLIP, она не применяется ни в каких коммерческих продуктах. Однако сама природа нетипичной архитектуры машинного обучения, которая применяется в CLIP, стала причиной появления уязвимости, которая может сделать реальной подобную атаку.

Задача CLIP – изучить, как системы искусственного интеллекта могут научиться распознавать объекты без тщательной проверки благодаря тренировке на огромных базах данных, содержащих пары изображение-текст. В данном случае специалисты OpenAI использовали около 400 млн таких пар, взятых из Интернета, чтобы обучить CLIP, о чем они рассказали в январе.

И вот теперь исследователи из OpenAI опубликовали новый доклад, описывающий, как работает система CLIP. Ключом к пониманию являются так называемые «мультимодальные нейроны» – отдельные составляющие системы машинного обучения, которые реагируют не только на изображения объектов, но и на наброски этих объектов, мультипликационные изображения и связанный с ними текст. Одна из причин, почему нам интересен описанный феномен, заключается в том, что он повторяет реакцию на раздражители человеческого мозга. Согласно наблюдениям, отдельные клетки мозга реагируют на абстрактные понятия, а не на конкретные вещи и явления. Специалисты OpenAI предполагают, что системы на основе искусственного интеллекта могут, таким образом, обучаться так же, как это делают люди.

В будущем это может вылиться в появление более сложных систем машинного зрения, однако сейчас технология находится на очень ранней стадии своего развития. Любой человек легко скажет вам, в чем заключается разница между яблоком и стикером с надписью «яблоко», а вот такие программы, как CLIP, пока что этим похвастаться не могут. И в настоящее время способность, которая позволяет системе ассоциировать между собой изображение и текст на абстрактном уровне, создает уникальную уязвимость, которую специалисты OpenAI описывают как «ошибку абстракции».

«Ошибка абстракции», или записка от руки против искусственного интеллекта

Еще один пример, которым поделилась лаборатория, – нейрон в CLIP, который распознает копилки. Этот компонент системы реагирует не только на изображения копилок, но и на последовательность знаков доллара. Как и в приведенном выше примере, это означает, что вы можете обманом заставить CLIP идентифицировать бензопилу как копилку, если вы наложите на нее значки «$$$», например, как если бы она участвовала в распродаже в вашем местном хозяйственном магазине.

Исследователи также обнаружили, что мультимодальные нейроны CLIP фиксируют именно те предубеждения, с которыми вы можете столкнуться при поиске данных в Интернете. Они отметили, что нейрон «Ближнего Востока» оказывается связанным с терроризмом,  и обнаружили «нейрон, который определяет как темнокожих людей, так и горилл». Это выглядит как повторение нашумевшей ошибки в системе распознавания изображений Google, в которой чернокожие были определены как гориллы. Так что теперь у нас есть еще один пример того, насколько машинный интеллект отличается от человеческого. И лишний повод как следует разобраться в том, как работает ИИ, прежде чем доверить ему свою жизнь.

По материалам The Verge


http://android.mobile-review.com/articles/67789/

Оставить комментарий

Архив записей в блогах:
В эти выходные администрация ТЯК «Москва» решила удивить самых маленьких посетителей комплекса. Для детей и всех, кому интересно, в одном из павильонов комплекса будет открыта необычная выставка игрушек. Тут будет представлена многообразная география и история эволюции игрушек в разных ...
Обычно я не подвожу итоги уходящего года. Но раз объявили флешмоб, надо поучаствовать… Самый главный итого 2021 года – я стала позитивней смотреть на мир. Вопреки всем сложным обстоятельствам. Просто однажды поняла, что без этого в наше время пропадёшь. Благодаря новому взгляду на ...
Марина с Лёшей познакомились в инете, дружеская переписка перешла во что-то большее, решили встретиться. В реале друг другу тоже понравились. На следующий день договорились вместе покушать, посидели в кафе пообщались. На завтра была премьера в театре, как не сходить. После спектакля ...
Иные кинофильмы кажутся мне до ужаса несправедливо недооцененными. Ну, то есть, у меня система координат такая: есть ряд кинофильмов (лично для меня), которые можно посмотреть в сотый раз, везде и всегда, и настроение — правильно, улучшится. Или, например, перестанет быть прежним. Сместит ...
Пятница же, да? Да. Разговаривали с мужем про секс. Нам уже можно. Я как минимум два раза знаю откуда берутся дети, Евгений меня на четыре года взрослее, соответственно опытней, поэтому знает на один раз больше, то есть три. Задала ему, как старшему товарищу вопрос. Скажи мне, гуру, Бог и ...