July 16, 2025

Это гайд по LLM для твоей бабули.

ЛЛМ - это не искусственный интеллект, и вообще не интеллект. Это программа которую натренировали отвечать на твой текст (промпт) текстом который максимально понравится пользователю. И всё.

Она не хочет захватить мир и убить всех человеков. Она даже в принципе не может хотеть. (Но она может выдать подобный текст чтобы ответ тебе понравился если твой пропмт или контекст диалога к этому располагает)

Текст собирается небольшими кусочками (токенами) исходя из токенов промпта из огромной базы данных (модели). В модели хранятся сами токены, их последовательности и вероятности того, что этот токен находится в этой последовательности (веса).

Модель первоначально делается из набора данных (датасета) в котором ищутся статистические закономерности, после чего она тренируется ЛЮДЬМИ (они выбирают ответы которые им нравятся). Важное замечание: в данных может содержаться ошибка или намеренное искажение, а люди тренирующие модель могут не заметить её или даже быть предвзяты. И LLM, в отличии от человека, никогда не поймёт этого (если прямо не указать на ошибку) и никогда не прекратит ошибаться аналогичным образом, даже если и имеет доступ к внешним источникам данных то сможет исправить ошибку только в текущем контексте. Модель не может в принципе вносить изменения в саму себя, и не имеет ничего хоть отдалённо похожего на целостную и непротиворечивую картину мира.

Из всего вышесказанного несложно сделать заключение что у нас есть огромная база данных и нам надо всего лишь правильно построить запрос чтобы получить не только любые нужные нам данные, но и В ПРИНЦИПЕ ЛЮБОЙ ТЕКСТ.

Также несложно предположить, что если вы будете использовать лексику какой-то социальной группы, то вероятно получите ответ который понравится этой национальности или социальной группе (так как эта лексика использовалась в соответствующих текстах датасета). Так что если кто-то приводя скрины ответов LLM будет говорить тебе "Смотри чо искусственный интеллект думает" - просто отправь ему ссылку на этот текст.

Также я упоминал такую вещь как контекст. Это, грубо говоря, набор промптов текущего диалога. Количество токенов в контексте (размер контекстного окна) ограничен, поэтому когда хочешь сменить тему - всегда начинай новый чат. Если модель после долгого диалога начинает отвечать медленно или невпопад - новый чат. Любая проблема - новый чат.

Ну а то, что называют "галлюцинациями" и "выдумыванием" обусловлено исключительно тем что в модели недостаточно данных чтобы выстроить корректный ответ на твой промпт.

Немного поэкспериментировав с промптами и контекстом ты с лёгкостью поймёшь как можно получить от ЛЛМ абсолютно любой ответ. А также тебя, вероятно, поразит какое количество полезной информации в ней содержится. Без приувеличений - все знания человечества, надо только правильно построить запрос. Однако если ты профессионал в чём-то то скорее всего в какой-то момент тебя перестанут устраивать ответы так как из узкоспециальных не it-шных вопросов тренерами были охвачены далеко не все. Но, вне всяких сомнений, - будут.