рейтинг блогов

Что нам делать с искусственным интеллектом?

топ 100 блогов e_kaspersky18.05.2023 Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Господи, спаси!
© БГ


Я уже немного устал от новостей про пьяных матросов искусственный интеллект, но придется потерпеть, потому что они будут сыпаться из каждого утюга ещё год или два. Но и потом развитие ИИ, он же AI, не остановится, просто журналисты/блогеры/тиктокеры и прочие «говорящие головы» устанут от темы. А пока им подкидывают новости не только техногиганты, но и правительства: Великобритания отрегулирует ИИ с трёх сторон, Китай вынес черновик законодательства по ИИ на общественное обсуждение, США хочет «алгоритмической ответственности», европейцы по традиции заседают и так далее. Пока создание и использование систем ИИ никак не ограничено, но, видимо, это ненадолго.

Тут, конечно, есть о чем поспорить — а нужно ли госрегулирование ИИ, и если да — то зачем и как?

Что нам делать с искусственным интеллектом?

Что регулировать

Что такое искусственный интеллект? Благодаря маркетологам так называют всё — от новейших генеративных моделей вроде GPT-4 до простейших систем машинного обучения, в том числе тех, которые используются уже десятки лет. Помните Т9 на кнопочных телефонах? Знаете про автоматическую классификацию спама и вредоносных файлов? Используете рекомендации фильма на «Кинопоиске» и Netflix? За каждой из этих привычных технологий стоит алгоритм машинного обучения (ML). Мы внедряем такие технологии в наших продуктах почти два десятка лет, но всегда называли их скромно, «машинное обучение», потому что «искусственный интеллект» сразу наводит на мысли о говорящих космических кораблях и прочей фантастике. Такой волшебный компьютер, полностью способный мыслить по-человечески, должен обладать общим ИИ (AGI) или сверхинтеллектом (ASI). AGI/ASI пока не изобрели и вряд ли изобретут в обозримом будущем.

Так вот, если все виды ИИ мерить одной линейкой и всё зарегулировать по полной программе, то практически всей ИТ-индустрии, да и многим смежным, придётся несладко. Ну, к примеру, если у нас потребуют собирать согласие со всех «авторов» данных из обучающей выборки, мы как ИБ-компания окажемся в сложной ситуации. Мы же учимся на зловредах и спаме, авторы которых обычно не оставляют контактных данных. Более того, если данные собираются, а алгоритмы обучаются уже почти 20 лет, то насколько глубоко в прошлое нужно лезть?

Поэтому важно, чтобы законодатели слушали не маркетологов, а экспертов индустрии и обсуждали предмет возможного регулирования достаточно конкретно и узко: например, многоцелевые системы, обученные на больших объемах открытых данных, или системы, используемые в принятии решений с высоким уровнем ответственности и риска.

Это, конечно, означает, что новые способы применения ИИ потребуют частого пересмотра норм регулирования.

Что нам делать с искусственным интеллектом?

Зачем регулировать

Честно скажу, в Судный день с участием сверхинтеллекта в ближайшие 100 лет я не верю. Зато верю в кучу разнокалиберных неприятностей от бездумного применения черного компьютерного ящика.

Тем, кто не читал наши статьи о блеске и нищете машинного обучения, напомню, что с любым ИИ есть три большие проблемы:

  1. непонятно, насколько хороши данные, на которых он обучался;
  2. совсем непонятно, что он из этих данных «понял» и как принимает решения;
  3. а главное — и разработчики, и пользователи алгоритма могут его неверно применять.

Тут может быть всё: от злонамеренного использования до бездумного следования решениям ИИ. Яркие примеры из жизни: фатальные ошибки автопилота, зачастившие в мемах и даже новостях дипфейки, нелепая ошибка в найме школьных учителей, полицейские арестовали воришку, но это был другой человек, а ИИ-кадровик недолюбливает женщин. А еще на любой ИИ возможны атаки с помощью специально созданных враждебных образцов данных: автомобиль можно обмануть наклейками, из GPT-3 — вытащить личные данные, антивирус или EDR тоже пытаются обмануть. Кстати, атаки на ИИ боевых дронов, описанные в фантастике, уже не кажутся такими фантастичными.

В общем, по-настоящему масштабных проблем применение ИИ пока не принесло, но потенциал для серьезных провалов явно имеется. Поэтому регулирование имеет понятные приоритеты:

  1. отсутствие инцидентов с критической инфраструктурой (заводы — пароходы — ЛЭП — АЭС);
  2. минимизация физических угроз (самодвижущиеся повозки, ошибочные диагнозы);
  3. минимизация личного ущерба и бизнес-рисков (аресты или наём на основе ширины черепа, неверное определение спроса и закупок и тому подобное).

Цель регулирования — заставить пользователей и создателей ИИ следить за тем, чтобы не повышать этих рисков. И чем серьезней риск, тем активней заставлять.

В случае ИИ часто вспоминают еще один пункт — соблюдение норм морали, этики и, так сказать, психологического комфорта. Для этого добавляют требование оповещать людей, что они смотрят на несуществующий (нарисованный ИИ) объект, общаются с роботом, а не человеком, требование соблюдать авторские права при обучении ИИ и так далее.

Зачем это? Чтобы законодателей и создателей ИИ не взяли на вилы! В некоторых частях света это очень даже актуально (вспомним, например, протесты против Uber).

Что нам делать с искусственным интеллектом?

Как регулировать

Проще всего, конечно, всё запретить, но пока до этого вроде никто не додумался. Да и запретить ИИ немногим проще, чем запретить компьютеры в целом. Поэтому все разумные попытки регулирования исходят из принципа «чем больше риск, тем строже требования».

Машинные модели, используемые для чего-то достаточно тривиального — вроде рекомендации товаров в магазине, — можно не регулировать. По мере нарастания сложности модели или же чувствительности сферы применения к производителям и пользователям системы могут применяться все более драконовские требования.

  1. Предоставлять регуляторам или экспертам код модели и обучающий набор данных для проверки.
  2. Доказывать корректность обучающего набора данных, в том числе отсутствие предвзятости (bias), чистоту авторских прав и так далее.
  3. Доказывать корректность «выхлопа» ИИ, например отсутствие галлюцинаций.
  4. Маркировать работу ИИ и её результаты.
  5. Корректировать модель и обучающий набор данных. Например, удалять из исходных данных людей с определенным цветом кожи или подавлять рецепты взрывчатки на выходе модели.
  6. Тестировать ИИ на «враждебных» данных и корректировать его поведение при необходимости. Здесь бы Аль-Эфесби расстроился.
  7. Контролировать, кто и зачем использует конкретный ИИ. Отказывать в определенных видах использования.
  8. Тренировать ИИ большого размера или в определенной сфере, только получив разрешение от регулятора.
  9. Доказывать, что ИИ безопасно применять для решения конкретной задачи. Это очень экзотический подход для ИТ-индустрии, но он хорошо знаком фармакологическим компаниям, производителям авиационной техники и многим другим отраслям, в которых фундаментальной ценностью является безопасность. Сначала пять лет обширных испытаний, получение разрешения регулятора и только потом выпуск продукта в использование.

Последнее кажется избыточно строгой мерой только до тех пор, пока не узнаешь, что уже были прецеденты, когда ИИ неверно назначал приоритеты лечения пациентов с астмой и пневмонией и пытался отправить людей домой вместо палаты интенсивной терапии.

Меры принуждения ко всему этому могут варьироваться от штрафа за нарушение ИИ-норм (по примеру европейских штрафов за нарушение GDPR, закона о личных данных) до получения лицензий на ведение деятельности в сфере ИИ и уголовной ответственности за нарушения законодательства (как это предлагают в Китае).

Что нам делать с искусственным интеллектом?

А как правильно?

Всё сказанное в этом абзаце — мое личное мнение, но оно основано на 30 годах работы в индустрии и деятельном участии в развитии технологий — от машинного обучения до систем, построенных по принципу secure-by-design.

Во-первых, регулирование требуется. Без него ситуация в ИИ станет похожа на автодороги без ПДД. Или, ближе к нашей теме, на ситуацию со сбором персональных данных в Интернете конца нулевых — когда почти все собирают всё, что плохо лежит. Наличие регулирования в первую очередь активизирует в компаниях — участниках рынка самодисциплину.

Во-вторых, нужны максимальная международная гармонизация регулирования и сотрудничество. Как это происходит с техническими стандартами сотовой связи, Интернета и так далее. В современных геополитических реалиях звучит утопично, но очень хотелось бы.

В-третьих, регулирование должно быть не слишком жестким, потому что отрасль динамично развивается, и душить ее — недальновидно. При этом нужен механизм частого пересмотра правил, чтобы поспевать за развитием технологий и рынка.

В-четвертых, правила, уровни риска и уровни защитных мер должны вырабатываться с привлечением множества экспертов-практиков.

В-пятых, не надо ждать десять лет. Про риски Интернета вещей и уязвимости в промышленном оборудовании мы говорим уже добрых десять лет, а документы вроде EU Cyber Resilience act появились (в черновиках!) только в прошлом году.

Всё на этом! Кто дочитал до самого конца — большие молодцы, всем спасибо!



Оставить комментарий

Архив записей в блогах:
Практика показала, что снайперские шутеры на удивление хорошо становятся на мобильные платформы. Собственная неподвижность снимает массу проблем с управлением, а пейзаж, на который смотришь лишь с немногих точек, куда проще рендерить. Лучшим из всего, что я знал в этом плане, была ...
Мы всегда ждем с большим нетерпением два события в год - слет самодетятельной песни и aнтикварное шоу. Эти мероприятия проходят два раза в год - осенью и весной. В эти выходные два дня провели на антикварном шоу. Я лично затрудняюсь ответить на вопрос, если бы эти мероприятия ...
Как вам кажется, сколько лет девочке на этом портрете кисти Левицкого? Никакого подвоха! Собираю ...
"За комментарий про Вовчика приедут через час, как доставка, а маминого террориста найти не могут практически неделю". Вот уже больше недели по всей стране идет "минирование" и эвакуация школ, детских садов, торговых центров. Реально ли поймать авторов этих сообщений, и как дети ...
...