Вот и настал ПЦ медиа-пространству: как и было обещано по закону Донды (все
alex_rozoff — 18.07.2025
Что говорилось в этом журнале 6 лет назад: системы
переработки информации и комбинаторного генерирования из нее
неограниченного количества нового бессмысленного контента по
заданным признакам психологической кликабельности - работают
непрерывно... Практически это значит, что человечество вернется от
глобального информационного мира - к информационному обмену между
знакомыми. *Что говорилось 2 месяца назад: последние 10, а то и 15 лет все ведущие политические режимы и партии, все крупнейшие финансовые институты и инструменты, все транснациональные и национальные супер-корпорации держатся исключительно на фейках, принимаемых на веру значительной долей (от 33% до 67%, в особых случаях до 83%) населения.**

Теперь свежее, сегодняшнее, с DW
Новостные выпуски, создаваемые с помощью искусственного интеллекта, заполоняют вашу ленту в соцсетях. При этом распознать их становится все сложнее...
...Социальные сети от TikTok до Telegram полны такими выпусками новостей - видео, созданными искусственным интеллектом и имитирующими внешний вид и атмосферу реальных новостных сюжетов. Они заимствуют визуальный язык журналистики: репортажи с места событий, экранную графику, авторитетную подачу. Но они полностью сфабрикованы, часто предназначены для того, чтобы вызвать возмущение, манипулировать мнением или просто стать вирусными.
"Если вы быстро прокручиваете ленту в социальных сетях, это выглядит как новость, звучит как новость, и в этом опасность", - говорит Хани Фарид, эксперт по цифровой криминалистике и профессор Калифорнийского университета в Беркли...
...Последствия выходят далеко за рамки социальных сетей. В 2024 году тайваньские исследователи обнаружили на местных платформах созданные ИИ новостные выпуски, в которых ложно обвинялись в коррупции политики, выступающие за суверенитет острова. Эти ролики не просто распространяли дезинформацию - они сеяли недоверие, подрывая авторитет всех новостных агентств в преддверии выборов в стране.
...как отличить настоящее видео от подделки? Начните с водяных знаков. Такие сервисы, как Veo, Synthesia и другие, часто маркируют свои видео, хотя эти метки иногда размыты, обрезаны или игнорируются. Даже четко обозначенные клипы часто пестрят комментариями с вопросом:
"Это настоящее?"
По словам Хани Фарида, обнаружение сгенерированного ИИ контента - "сложная задача" как поражение движущейся цели: "Все, что я вам сегодня расскажу о том, как обнаружить фейки ИИ, может оказаться неактуальным через полгода".
...Такие инструменты, как Veo, теперь позволяют практически любому человеку без медиа-подготовки создавать отшлифованные видеоролики в стиле прямой трансляции всего за несколько сотен евро в месяц. Ведущие в таком видео говорят плавно, двигаются реалистично и могут быть помещены практически в любую сцену с помощью нескольких команд, заданных с помощью клавиатуры.
"Барьер для входа (в производство медиа-контента. - Ред.) практически исчез. Вам не нужна студия. Вам даже не нужны факты", - говорит Фарид. Большинство этих клипов созданы для максимального вовлечения пользователей. Они затрагивают очень спорные темы - миграция, война в Газе, Украина, Дональд Трамп - чтобы вызвать сильные эмоциональные реакции и побудить к дальнейшему распространению этих видео.
Социальные сети часто намеренно продвигают такой контент. Например, Meta недавно скорректировала свой алгоритм, чтобы показывать больше постов с аккаунтов, на которые пользователи не подписаны, что облегчает охват созданных ИИ видео широкой, ничего не подозревающей аудиторией. Программы монетизации дополнительно стимулируют создателей: чем больше просмотров набирает видео, тем больше денег оно может принести.
Сделать легкие деньги на "искусственном хламе"
Эта среда породила новое поколение создателей "искусственного хлама" – пользователей, которые штампуют низкокачественный ИИ-контент, привязанный к трендовым темам просто, чтобы набрать просмотры.
Эти аккаунты часто публикуют срочные новости, прежде чем журналисты успевают подтвердить факты. Во время недавней авиакатастрофы в Индии десятки видеороликов в TikTok были представлены ИИ-аватарами, стилизованными под репортеров CNN или BBC, которые транслировали фальшивые цифры жертв и сфабрикованные свидетельства очевидцев. Многие оставались в сети часами, прежде чем их удаляли.
В моменты выхода срочных новостей, когда пользователи активно ищут информацию, реалистичный ИИ-контент становится особенно эффективным способом получить большое число просмотров и заработать на общественном внимании. "Платформы ослабили модерацию контента. Это идеальный шторм: я могу создавать контент, могу его распространять, и есть аудитория, готовая ему верить", - отмечает Фарид.***
...Такие дела...
---------------------------------------
*) 2019-10-17 Закон Донды: коллапс знаний при сверхкритической плотности информационного мусора.
https://alex-rozoff.livejournal.com/165957.html
**) 2025-05-18 У разбитого медиа-корыта: закон Донды 1973 года срабатывает чуть иначе, чем предсказывал Лем
https://alex-rozoff.livejournal.com/886443.html
***) Фактчек DW: Как распознать новости, созданные ИИ
https://www.dw.com/ru/faktcek-dw-kak-raspoznat-novosti-sozdannye-iskusstvennym-intellektom/a-73315044
Как выбрать между имплантацией, протезированием и коронками для восстановления улыбки
Наше старое кино
Такси советских времён — тотальная коррупция
Качалина
ЭРА МИЛОСЕРДИЯ. УБИЙСТВО В МАРЬИНОЙ РОЩЕ
А что на это скажут британские ученые?
Американская классика

