Риски при работе с нейросетями. Нейросети врут.

В продолжение темы рисков нейросетей:
Помимо долгосрочных прямых рисков, есть и ситуативные.
Например, те, кто торгует на рынке акций, знают, что многие роботы торгуют, анализируя выход новостей онлайн. Но часто новости появляются не только в "чистом" Bloomberg (где, впрочем, фейков пруд пруди), но и в обычных СМИ. Поэтому их тоже надо парсить.
Роботы постоянно парсят сайты и отдают их на анализ нейросетям. Вот тут и проявляются две проблемы:
1️⃣ не всё можно спарсить "качественно" - некоторые статьи в
поле содержат не только саму статью, но
и ссылки на другие новости и вставки из других статей; и тогда
нейросеть может начать анализировать вообще старую или менее
корректную информацию;
2️⃣ нейросеть, анализируя даже правильное "тело" статьи, может
написать абсолютно выдуманную х-ню. И дальше … вариативно: ▪️ результат анализа может отработать робот в виде сделок; ▪️ результат уйдет в виде "твиттов" в паблик - и, если у автора
большая аудитория и / или твит подхватят алгоритмы из-за
актуальности, то сделки на основе этой информации начнут совершать
тысячи людей. На основе некорректной информации. А иногда информация бывает не просто некорректной, а
полностью (еще раз - полностью)
выдуманной нейросетью: ничего из того, что выдаст
нейросеть, не будет существовать в реальности (гугл этого не
найдет, даже в архивах). Ни один факт. И такое бывает регулярно в "жизни
нейросетей". Поэтому важен либо еще один (два) модуль, которые перепроверяет
"выдачу" первой нейросети (и возвращает обратно на цикл или
канселит информацию), либо человек, который еще и контекст
проверяет (ибо нейросети имеют еще и свойство "стареть" своей базой
данных). В общем, к чему я … перепроверка работы нейросетей
важна. И должна делаться на постоянной основе. P.S. Кстати, сегодня снова в обнимку с "
- Да, ладно, блэт?