"Авторитетное" раздувание темы AIпокалипсиса: БигТех пытается продать миру

Сиреневым пламенем дышат большие кирпичные домны.
Противник на нашу погибель готовит подводные лодки.
Но мы тоже люди не промах. Мы прячемся в черные дыры.
У нас есть ТАКИЕ приборы! Но мы вам о них не расскажем.
Когда мы выходим на берег, то девочки радостно стонут.
И мы начинаем рассказы про разные трудности моря.
(Манго-манго – Аквалангисты)

В прошлой (весенней) серии Джеффри Хинтон, т.н. "крестный отец ИИ", покинул Google и 1 мая 2023 дал апокалиптическое интервью NYT о страшных опасностях т.н. AI (конкретно - GPT)*. Нелепость этого перформанса разбиралась в заметке: Новая доза топлива от ИИпатриарха в костер ИИстерики вокруг GPT: "ой, мы не будем знать где правда"**
Теперь новая (осенняя) серия: 8 октября Джеффри Хинтон дал еще одно AIпокалипсическое интервью, на этот раз CBS News***
Джеффри Хинтон: "Может, нам следует обернуться и посмотреть на те поворотные пункты, когда человечество приняло решение разрабатывать эти вещи дальше, и какие меры предприняло, чтобы защитить себя, если оно [человечество] это сделает. Я не знаю. Я думаю, что мой главный посыл заключается в том, что существует огромная неопределенность относительно того, что произойдет дальше. Эти вещи [GPT] понимают. И поскольку они понимают, нам нужно хорошо подумать о том, что произойдет дальше".
К тому же Хинтон выразил опасение (в стиле голливудских сценариев восстания машин), что искусственный интеллект может однажды заменить человечество, и добавил: "Я не говорю, что это произойдет. Если бы мы могли остановить такое его [искусственного интеллекта] желание, это было бы прекрасно, но неясно, сможем ли мы остановить его".
...Даже первое-то (весеннее) интервью не производило впечатления разумного подхода к теме AI типа GPT, второе же (осеннее) выглядит вообще по-идиотски. И вот почему:
Второе интервью с нагнетанием темы угрозы голливудских сценариев восстания машин было бы обоснованным, если бы за прошедшие почти полгода выявились какие-то пугающие новые возможности или аспекты поведения "больших языковых моделей" (LLM, прежде всего GPT). Но в реальности наблюдается обратное (причем предсказуемо наблюдается). Чем шире становится применение больших языковых моделей в разных практических задачах составления текстов по запросу, тем яснее становится ограниченность этих моделей, полное отсутствие внутри них каких-либо связных представлений реальности, т.е. каких-либо признаков осознанности. В общем, послее первичного wow-эффекта, в среде пользователей близится момент истины (т.е. момент понимания того, что LLM иногда кажется разумным лишь благодаря гигантскому массиву осмысленных фрагментов, залитых в его инфобазу, и выдаваемых по распознанному запросу).
Едва момент истины настанет - все инвестиции в дальнейшее развитие этой "чудо-технологии" окажутся обесцененными. Настанет нечто вроде повторения гибели "пузыря доткомов" 10 марта 2000 года.
Чтобы не допустить этого катастрофического сценария (при уже сильно просевшей рыночной цене "цифры"), БигТех пытается сыграть на опережение: продать миру тезис о страшной силе GPT, и спровоцировать правительственное регулирование этого сектора цифровых бизнесов.
Вот для чего проводится раздувание темы AIпокалипсиса.
...Такие дела...
---------------------------------------
*) Весенняя серия
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
https://www.forbes.ru/tekhnologii/488692-krestnyj-otec-iskusstvennogo-intellekta-usel-iz-google-i-zaavil-ob-opasnosti-ii
https://www.rbc.ru/technology_and_media/02/05/2023/6450c27a9a79477140712c42
**) Новая доза топлива от ИИпатриарха в костер ИИстерики вокруг GPT: "ой, мы не будем знать где правда"
https://alex-rozoff.livejournal.com/670177.html
***) Осенняя серия
https://www.cbsnews.com/news/artificial-intelligence-risks-dangers-geoffrey-hinton-60-minutes/
https://hightech.plus/2023/10/16/dzheffri-hinton-ii-smozhet-obresti-soznanie-cherez-pyat-let
Картинка: Иллюстрация. Салтыков-Щедрин "История одного города"
https://illustrators.ru/illustrations/192091