GPT-4 - ядерная бомба!

Языковая модель — это программа, которую проще всего представлять как систему исправления опечаток на стероидах.
Допустим, вы набираете кому-то сообщение: Сегдн, ткй чдунсный день!
Программа исправляет ошибки и предлагает возможное продолжение: Сегодня такой чудесный день! Я отлично выспался, а так как сегодня выходной, то я смогу увидеться со своими друзьями и замечательно проведу время.
Или это что-то вроде книжки "1000 смешных шуток". Пользователь выбирает тему, находит нужный раздел и тыкает пальцем наугад. Это в самом грубом приближении.
В действительности книг не одна, а сотни тысяч. Фрагмент выбирается не один, а тысячи. А далее происходит поиск образцов текста в тех же книжках, чтобы использовать их в качестве шаблона для составления структуры текста. Подходящие с какой-то вероятностью слова будут подставлены в наиболее подходящий текст. Таким образом машина получает результат, который из-за элемента случайности иногда выходит нормальным. Чем больше языковая модель, тем больше у неё образцов текста, т.е. выше её шансы собрать удачный коллаж из слов.
Подобные программы оперируют космосом из обрывков предложений, им дела нет до смысла и содержания текстов. Каким-то "знанием" на этом уровне можно считать запоминание правильных склонений и расстановку запятых, правда, это достигается не за счёт выявления свода правил языка, а как механический результат большой "начитанности".
И так было до GPT-4.
А тпереь уже никто не понимает, как эти нейросети работают, как учатся и тп.
Вот ссылка - спасибо Док!
https://habr.com/ru/articles/723660/
|
</> |