Прям удивительное дело!

"В последние 12 месяцев наблюдается стремительный рост использования LLM (больших языковых моделей — моделей генеративного искусственного интеллекта, на основе которых работают такие чатботы, как Google Bard и ChatGPT от OpenAI), однако они страдают от критической проблемы — ИИ-галлюцинаций. (...) Одной из причин такой проблемы с LLM является недостаточная надежность источников. LLM обучаются на больших наборах текстовых данных, взятых из различных источников, которые могут содержать ложные данные или не фактическую информацию.". (подробнее, кому интересно).
Простым языком - системы используют в основном открытые источники, а источники эти в большинстве своем гавно, поэтому системы в итоге тоже выдают гавно.
Не, ну кто бы мог подумать, что информация в интернете может быть полной хуйней, скажите, пожалуйста?
Это же совершенно невероятное предположение.
"Авторы работы пришли к выводу, что LLM рассчитаны на создание полезных и убедительных ответов без каких-либо сверхгарантий относительно их точности и соответствия фактам."
Ебаааать... Понадобилось целое исследование! И целый научный штат!
|
</> |