Ещё раз про силиконовый мозг
artyom_ferrier — 11.03.2020Намедни в заметке о своём программерском сезонном бзике я высказал ту мысль, что «три закона робототехники» Айзека Азимова — это очень мило для фантастической художественной литературы, но что до практического воплощения — покамест не просматривается даже в теории, как бы это можно было сделать.
Роботы (и даже Атлас от Бостон Дайнэмикс) — не понимают человеческого языка как такового. И ещё очень нескоро будут способны понимать, если вовсе (пусть тут всякие Алексы не вводят в заблуждение: они только делают вид).
Того меньше — способны роботы оценивать состояние реальности и её события во всей полноте (в хоть какой-то полноте). Поэтому такое понятие как «причинить вред человеку» - для робота пустой звук. Ему нужна конкретика: что именно считать вредом, какие условия должны выполниться для этого. Ну и — устанешь пыль глотать, прописывать ему эти условия.
Попытка же предоставить роботу возможность делать обобщения — скорее всего, кончится забавно. Примерно как в рассказике Шекли «Страж-птица». Хотя и то — лирика. В действительности, роботы, компьютеры — вообще не умеют абстрагировать.
Но на это мне возражают, что я мыслю в кондовой парадигме традиционного программирования и не учитываю волшебных возможностей нейронных сетей.
Что ж, не буду отпираться: я действительно не специалист по нейронным сетям и довольно туманно представляю себе их возможности (да и в традиционном, исконном программировании — так, балуюсь лишь, всё больше).
Но насколько понимаю, там, в нейронных сетях, вся фишка — в распределённости задач и вычислений между многими-многими машинами, собранными в гигантские ансамбли продуманной архитектуры, что позволяет не только повышать производительность заранее прописанных процедур, но и восполнять пробелы как в данных, так и в процедурах, самонастраиваться, саморазвиваться, в каком-то роде.
Поэтому и говорят, что нейронные сети - «не программируются, а обучаются».
Однако ж, пообщавшись с нашими головастиками (сам-то я — только прикидываюсь умным), пришёл к убеждению, что самообучение нейронных сетей — всё же не выглядит как «Вот тебе, сынок, много-много нейронов мозга — иди, смотри на мир, делай выводы, и сделаешься мудрым, как царевич Гаутама, впоследствии Будда (но и таким же созерцательным и бесполезным)».
Всё же — требуется изначально задать некоторые алгоритмы, по которым эта шняга будет развиваться, задать условия, как ей сортировать вновь поступающую информацию, как её обрабатывать — и иногда чего-то из этого выходит. Вплоть даже до возможностей практического применения.
Скажем, считывать фейсы в аэропортах или на улицах, распознавать, что это именно класс «фейсы», идентифицировать особо интересные (типа, там, террористов, в целях маскировки снявших сейчас балаклавы) — и принимать меры.
Когда впервые внедряли такую систему в Штатах после 9.11 — она давала очень высокий коэффициент надёжности. 99,7 процентов верных распознаваний. Но это, правда, означало, что на трёх человек из тысячи — она могла поднять тревогу. Что для мест вроде аэропортов — недопустимо часто. Поэтому толком ничего подобного и не внедрили. Так, бабло освоили, как на пресловутый Призм — а фактически эта херня не работает.
Зато — работает в Китае, как часть их прогрессивной системы «Цифрового Гулага». И есть результаты — компьютер пытался выписать штраф тётке-предпринимательнице за переход улицы на красный свет. Потому что её физиономия была на рекламе на борту автобуса — вот Супермозг и установил непорядок.
Как он мог не разобрать, что это не живой человек на проезжей части, а двумерная картинка на автобусе?
Ну вот так. Он не видит мир так, как человек. Он не распознаёт вещи, как человек. Он видит и распознаёт — как его научили. Как хотя бы подтолкнули к обучению — так и катится.
При этом китайцы подходят к своей затее «оцифрованного легизма» - очень серьёзно. Средств не жалеют. Работают добросовестно — это не подвальная мастерская, клепающая сомнительные гаджеты для Али Экспресса.
Но дело в том, что государственные проекты — всегда косячные и глюкавые вне зависимости от количества распиленных ресурсов, поскольку в госструктурах работают двоечники и отбросы?
Ну, отчасти верно — но вот возьмём частную коммерческую компанию. Одну из крупнейших и крутейших в мире, по бюджету легко перемахивающую не то что отдельно взятые национальные спецслужбы, но целые континенты. При этом — лидер как раз в области создания ИИ.
Это, конечно, Гугл.
И вот их переводчик — один из флагманских проектов. Он очень важен для них. Это не только средство привлечения клиентов к поисковику — это самостоятельное очень эффективное средство шпионажа, если называть вещи своими именами.
Нет, я ничего не хочу сказать плохого про Гугл (кроме того, что их заносит порой на играх в политкорректность, когда уже давно пора перестать расшаркиваться перед чудиками, почему-то называющими себя «либералами») - но в этом мире все друг о друге собирают данные. Увлечение такое, повальное.
Тут, извините, ставишь на мобилу крестики-нолики — так они требуют доступа к геолокации, звонкам и камере. Нахрена? Для улучшения качества игры, конечно.
Но, естественно, ты не будешь ставить такие крестики-нолики на такую мобилу, где могут быть какие-то интересные данные или которая может использоваться в каких-то интересных делах.
При этом — я не хочу сказать, что авторы крестиков-ноликов отнесут твои данные в ФСБ. Чести много. Но — все нынче собирают «биг дата», «метаданные», «статистику». И вот этим — торгуют друг с другом, чтобы эффективнее таргетировать рекламу. Во всяком случае, есть поверье, что оно помогает лучше продавать товар — использование новейших прорывных технологий работы с большими данными.
Ну и Гугл — тем более не понесёт вашу личную информация в FBI или NSA. Это, скорее, FBI и NSA кормятся объедками со стола таких ребят, как Гугл и Майкрософт, хотя в действительности — у них симбиоз. Ибо парням из Гугла и Майкрософта порой бывает нужно отмазываться от обвинений в пьяном беспечном вождении - а людям в чёрном порой бывает нужно, чтобы кто-то всё же делал работу на «цифровом фронте», когда сами они могут привлечь только неврастеников и дефекторов вроде Сноудена, после чего потом проблем не оберёшься.
И это я к тому, что сливать ваши частные дела людям в чёрном Гугл не будет, но всякий документ, который вы прогнали через его онлайн-переводчик — остаётся в базе Гугла. И подвергается обработке теми самыми нейронными сетями. И даже если вы, переводя юридический контракт, были таким умным, что убрали названия фирм — нейронные сети Гугла тоже умные. Главное же, имея доступ к очень, очень большим данным, и умея их обрабатывать распределённо, с большой эффективностью — считайте, они с лёгкостью установят, с кем именно вы заключили контракт. Ну, даже если вы выкинули слово «Майкрософт» как «лицензиара операционной системы».
Это не страшилка, это реальность — и это я к тому, что Гугл очень дорожит своим переводчиком, даже если не собирается использовать его в каких-то предосудительных целях (шантаж, подставы, слив недоброжелателям).
И переводчик этот, без дураков — настоящий шедевр. Серьёзно, он выдаёт, как правило, довольно осмысленные, грамотные и в целом верные варианты.
Чтобы достичь такого результата — конечно, пришлось постараться. И конечно, Гугл использовал свои реально огромные возможности, включая и доступ к колоссальным объёмам данных (какого нет ни у кого больше) — и те самые нейронные сети для обработки данных, сопоставления, выявления контекстов и статистических закономерностей в оригиналах и переводах.
Собственно, это одна из приоритетных была задач именно переводчика — научиться «понимать смысл» слов по контексту. Так-то забить все значения в массивы и сопоставить глоссарии — не вопрос и для школьника. Но вот научить программу понимать, где «епископ» вдруг начинает означать «слона» - это задача более нетривиальная.
Ради справедливости, во многих случаях Гугл-транслейтер с такими задачами справляется.
Но тем не менее — вот я набиваю фразу «Меня преследует неумолимый злой рок».
Перевод: «Inexorable evil rock haunts me”.
Ну, да. Как закрываю глаза — так голову разрывает этакий злющий треш-металл.
Попробуем ещё раз.
«Во всём виноват мой злой рок».
Опять — “My evil rock is to blame”.
Хотя, казалось бы, переводчик должен был понимать, что в таком контексте «рок» - это fate, а rock как культурное явление — совсем из другой рок-оперы.
Ни один человеческий толмач — такой ошибки не допустит (ну если только не будет залипать фейсом в клаву после двух авторских листов за сутки — но у компьютера, кажется, плюс в том, что он не утомляется).
Ну или — ещё вот так решил озадачить Гугла.
«Мой отец — дева».
Перевод - «My father is a virgin”.
Ну да, как и поколения праотцов до него. И все такие virgin, что — сплошная семейная загадка. «Вот так они и жили — спали врозь, а дети были».
Любой самый укуренный и самый тупой человеческий переводчик — конечно, поймёт, что речь идёт о знаке Зодиака. Поэтому или Virgo, если торжественно, или maiden, если в обиходе — но никак не virgin.
Конечно, я намеренно подобрал такие фразы, чтобы «опростоволосить» искусственный интеллект.
И он, конечно, старается. Он учится. Добросовестно. Но вот не сказать, что прямо уж дух захватывает от его компетентности на избранном поприще.
Худо-бедно удобоваримый перевод, «с пивком потянет» - да. И это, конечно, очень большой прогресс для машинного перевода, поскольку до Гугла они вовсе ужасные были. А тут — огромный материал для сопоставлений и выискивания закономерностей, поэтому что-то и выходит. Но вот - «что-то». За столько лет, со всеми ресурсами.
При этом, язык — оно, конечно, существо живое, но всё же — искусственное. Это — средство описания реальности, придуманный людьми код, а не сама по себе реальность.
Этот код, в действительности, довольно ограничен. Ну, десятки тысяч сколько-нибудь активно используемых слов. Казалось бы, несложно выявить все-все-все закономерности, когда в каком значении те слова фигурируют.
Однако — нет. Не так быстро, не так просто. Даже в исполнении самой мощной на планете конторы, тратящей гигантские ресурсы на разработку ИИ, находящейся на острие прогресса в данной области.
Когда же речь заходит не про трансляцию формул искусственно созданных понятийных аппаратов (что представляют собой языки), а про оценку непосредственно явлений реальности — ну, тут и человек может озадачиться и «поплыть».
Вот что значит «не причинять вред человеку»?
Была попытка чего-то такое подобное внедрить сначала на Синайской горе, потом на горе Блаженств (всё-то возвышенные места для возвышенных мессаджей выбирались) — но хрен кто что уразумел.
«Не убий?» Ну это ж когда в плохом смысле, пра-ально? А в хорошем — ма-ачи козлов!
Или, скажем, вопросы детоводства. Понятно, никто не хочет вреда своему ребёнку — но слишком много разночтений в том, что есть «польза». И всё-то из крайности в крайность бросаются. То «He who spares the rod, spoils the child”, то - «Лаской, только лаской». А дети растут то запрессованные и зашуганные в край, то, напротив, избалованные до того, что вовсе берегов не видят. А у большинства — и вовсе мало сказывается, драли их или холили-лелеяли.
Порой кажется, что всё-таки детей надо драть. Они должны бунтовать, должны точить зуб на родителей за притеснения — ну так хоть небеспричинно, пусть хоть за что-то осмысленное огрызаются. А то ж нынче, от дефицита притеснений, они дошли до того, что уже не знают, против чего восставать — устраивают эти пошлые extinction rebellions, ещё более тошнотворные, чем парады советских или райховских комсомольцев-физкультурников. Те хоть спортивные ребята были, а эти, последователи Греты — дегенераты во всех аспектах. Что называется, «их дети сходят с ума от того, что им нечего больше терпеть».
В общем, если кому-то кажется, будто бы где-то поставлена была точка хотя бы в таком вопросе, как педагогичность опиздюливания мелких спиногрызов (особенно же — не таких мелких, а подрощенных волчат) — то он ошибается. И живёт в ивуаровой башенке, которая в любой момент треснет и обрушится от столкновения с реальностью.
Тут вопрос ведь не о том, как подчинять, нанося вред. Тут вопрос о том, как учить сопротивляться, такой учёбой стремясь «нанести пользу». И есть принцип «Что нас не убивает — то делает сильней». И No pain – no gain. И всегда есть дискуссия о пределах применимости этих принципов.
В общем, всё очень неоднозначно — даже для живых полноценных людей, умнейших из, применительно к будто бы простым вопросам. Вот что вред для человека, что польза.
А уж роботу, компьютеру предоставить возможность решать такие вопросы — это как? Вот чисто технически — как это может выглядеть, в хоть какой-то теории?
В искусственной реальности, типа компьютерной игрушки — можно ввести понятие «пунктов здоровья», HP, и состояние, когда они достигают нуля — считать провалом, геймовер. Этого — надо избегать. Поэтому — надо стараться избегать и таких воздействий, где бы отнимались очки здоровья.
И можно при этом, наверное, научить ИИ анализировать и прогнозировать ситуации, их развитие и последствия.
«Сейчас в это место ударит файрбол, персонаж сгорит дотла, а если толкнуть его в коридор с кислотными лужами на полу, то он потеряет 20% здоровья от ядовитых испарений, но останется жив».
Да, такие, игровые ситуации, в рамках этой сконструированной и очень сильно упрощённой реальности — можно прогнозировать, анализировать, и можно даже «научить учиться» тому. Чтобы не прямо вот все пути заранее ручками прописывать-скриптовать для ИИ, типа «если... то», а чтоб он сам, имея в виду конечную и просто выражаемую цель («если Хозяин.здоровье ниже нуля, робот = плохой») — создавал промежуточные задачи, выстраивал логический маршрут к этой цели.
Но в «реальной реальности»? С её бесконечно более сложными явлениями и связями между ними?
Опять же, я не специалист в программировании, тем более в нейронных сетях — но моё достоинство состоит в скудости и кондовости воображения. Я имею всё же некоторую способность оценивать реальность, как она есть, игнорируя словесную шелуху фантазий.
И вот фантазии - «Нейронные сети учатся сами, они гораздо умнее людей».
Реальность — что один из самых важных продуктов, призванных продемонстрировать мощь ИИ, созданный самой прорывной корпорацией в этом бизнесе с использованием самых совершенных инструментов, включая любые доступные самообучающиеся сети и неимоверно огромные массивы данных для перелопачивания этими сетями, вот этот продукт (во многом шедевральный, конечно) за годы своего существования не способен всё же научиться отделять virgin от Virgo, а Rock от fate.
И это не в упрёк Гуглу и его переводчику (повторю ещё раз, они молодцы, они многого добились), но это всё же — помогает оценить реальные возможности Искусственного Интеллекта.
Конечно, доводилось слышать и то мнение, что у всяких этих Гуглов, тем более в публичных их проектах — фуфло, а не ИИ, а вот в недрах секретных НИИ, во хрустальном сервере на золотых цепях в потаённой пещере — там-то настоящие нейронные сети.
Как Лёшка подсказывает - «реакторы на быстрых нейронах».
Но такие разговоры — давайте до «после десятого шота оставим», а я нынче только третий хлобыстнул, да и то лишь потому, что ухо немножко застудил, кажется, холодной водой, открывая купальный сезон в Подмосковье.
Серьёзно же, государственные секретные НИИ — всё-таки пилят мнимо бесконечное бабло налогоплательщиков на очковтирательстве своему дремучему начальству, склонному к магическому образу мышления и побаивающемуся алхимической магии умных слов.
А ребята вроде Гугла — нехилые бабки зашибают на своих продуктах, на своих стратегиях, в очень жёсткой конкурентной среде.
Поэтому в данном случае ориентир всё-таки — коммерчески значимые (хотя бы и бесплатные) публичные продукты частных корпораций.
И вот они все работают над ИИ, и он может решать некоторые прикладные задачи (пылесосики вот домашние прикольные, Куська наша обожает на таком кататься, хотя изначально побаивалась). И есть вполне объяснимый прогресс в быстродействии, ибо сама по себе возможность разнесения вычислительных задач и прохождения потоков данных по «нейронам» обусловлена феерическим физическим ростом эффективности «железа» за последние десятилетия (и производительность процессоров, и ёмкость хранилищ данных, и оперативность доступа к тем хранилищам).
Но несмотря на весь этот прогресс — всё же ИИ остаётся ещё очень «тупым». Никаких революционных достижений собственно в методологии его обучения — за последние полвека, в сущности, нет. То есть, те схемы, которые реализуются сейчас, включая эти «нейронные сети» - они в общих чертах были вполне представимы и в сороковые годы двадцатого века, просто не было подходящего «железа».
Сейчас — есть, но, тем не менее, хотя бы до уверенного прохождения Теста Тьюринга (выдать бота за живого человека) — и современному ИИ как... до Альфы Вирго Канцером.
С другой стороны, был вполне успешно реализован обратный тест, который можно назвать «Тестом Пригожина». А именно — стабильно выдавать как бы живых как бы людей за ботов, учить их выставлять себя настолько нелогичными и неадекватными, чтобы их посты считали отрыжкой бракованного машинного кода. И это — получается.
Но это-то — не сказать, чтоб было очень сложной либо полезной задачей, стоящей перед человечеством. Разве лишь — избавить нарождающийся ИИ от комплексов неполноценности, показав ему как бы людей, которые всё же тупее его.
|
</> |