Введение в нейросети и чат-боты: основы с нуля

Курс объясняет, как устроены нейросети и языковые модели, почему они умеют работать с текстом и как применяются в чат-ботах. Вы разберёте основные термины, виды текстовых нейросетей, принципы их работы и научитесь безопасно и эффективно пользоваться ими в повседневных задачах.

1. Что такое нейросети и ИИ: базовые понятия и мифы

Что такое нейросети и ИИ: базовые понятия и мифы

Эта статья открывает курс «Введение в нейросети и чат-боты: основы с нуля». Здесь мы разберём ключевые слова, которые постоянно встречаются в новостях и интерфейсах чат-ботов: ИИ, машинное обучение, нейросети, языковые модели. А ещё отделим реальность от популярных мифов.

Зачем нужны базовые понятия

Когда говорят «ИИ написал текст» или «нейросеть всё поняла», часто смешивают разные уровни одной и той же темы.

Чтобы уверенно пользоваться чат-ботами и понимать их ограничения, важно различать:

  • ИИ как широкую область
  • машинное обучение как способ делать ИИ на данных
  • нейросети как один из самых популярных типов моделей машинного обучения
  • языковые модели как нейросети, работающие с текстом
  • Полезные справочные статьи (если хотите закрепить определения):

  • Искусственный интеллект
  • Машинное обучение
  • Глубокое обучение
  • Большая языковая модель
  • Что такое искусственный интеллект

    Искусственный интеллект (ИИ) — это область информатики, которая делает системы, способные выполнять задачи, которые людям кажутся «умными»: понимать речь, распознавать изображения, отвечать на вопросы, планировать действия.

    Важно: слово ИИ — это зонтик. Под ним есть много подходов:

  • правила и логика (например, «если клиент сказал X, ответь Y»)
  • поиск решений (например, как в шахматных программах)
  • статистические методы
  • машинное обучение
  • В этом курсе фокус будет на современных чат-ботах, а они почти всегда опираются на машинное обучение и нейросети.

    Что такое машинное обучение

    Машинное обучение (ML) — это подход, при котором программу не прописывают полностью вручную. Вместо этого её обучают на примерах.

    Простой смысл:

  • вы показываете системе много данных
  • система находит закономерности
  • затем применяет эти закономерности к новым ситуациям
  • Пример без сложных формул:

  • вы хотите отличать спам от не спама
  • даёте модели много писем с правильными метками
  • модель учится, какие слова и признаки чаще встречаются в спаме
  • Обучение и использование модели

    Здесь полезно выучить два базовых термина:

  • Обучение — этап, когда модель настраивает свои внутренние параметры, чтобы лучше решать задачу.
  • Инференс (или применение модели) — этап, когда уже обученная модель получает новый запрос и выдаёт ответ.
  • Обычный пользователь чат-бота почти всегда видит только инференс.

    Что такое нейросеть

    Нейросеть — это тип модели машинного обучения, устроенный как множество простых вычислительных блоков, соединённых в слои.

    Главная идея:

  • каждый блок делает очень простое преобразование
  • но когда таких блоков много и они настроены на данных, получается модель, способная решать сложные задачи
  • Не путайте образ и реальность:

  • нейросети вдохновлены тем, как устроены нейроны
  • но нейросеть в компьютере — это математическая модель, а не биологический мозг
  • Параметры: что именно «запоминает» модель

    То, что меняется при обучении, обычно называют параметрами.

    Интуитивно:

  • параметры — это «настройки» внутри модели
  • они кодируют закономерности из обучающих данных
  • у больших языковых моделей параметров очень много, поэтому они кажутся «сильными»
  • !Схема показывает, как соотносятся ИИ, машинное обучение, глубокое обучение, нейросети и чат-боты

    Глубокое обучение и текстовые нейросети

    Глубокое обучение — это нейросети с большим числом слоёв и очень большим числом параметров. Именно этот подход сейчас доминирует в задачах текста, изображений и речи.

    Языковая модель

    Языковая модель — это модель, которая учится на огромном количестве текста и в итоге умеет:

  • продолжать фразы
  • отвечать на вопросы
  • перефразировать
  • делать краткие пересказы
  • писать тексты в разных стилях
  • Важный принцип (без математики): языковая модель в основе своей учится предсказывать продолжение текста. А уже из этого навыка «вырастают» многие полезные функции.

    Большая языковая модель и чат-бот — это не одно и то же

  • Большая языковая модель (LLM) — ядро, которое генерирует текст.
  • Чат-бот — продукт вокруг модели: интерфейс диалога, правила безопасности, инструкции, память о переписке, подключённые инструменты.
  • Поэтому один и тот же «движок» может вести себя по-разному в разных приложениях.

    Как чат-бот получает ответ

    Очень упрощённо процесс выглядит так:

  • Вы пишете запрос (его часто называют промпт).
  • Текст превращается в маленькие кусочки — токены.
  • Модель по токенам вычисляет, какое продолжение наиболее вероятно.
  • Специальный алгоритм выбирает следующий токен (не всегда самый вероятный, чтобы текст был живым).
  • Токены превращаются обратно в текст и показываются вам.
  • Полезная практическая мысль:

  • качество ответа сильно зависит от того, насколько точно вы описали задачу в промпте
  • В следующих статьях курса мы будем тренироваться писать запросы так, чтобы чат-бот давал более предсказуемый результат.

    Что нейросети умеют и чего не умеют

    Что обычно получается хорошо

  • обобщать большие куски текста
  • объяснять простыми словами
  • генерировать черновики писем, постов, описаний
  • переводить и перефразировать
  • помогать с идеями и структурой
  • Где чаще всего возникают проблемы

  • галлюцинации: уверенный текст с неверными фактами
  • слабая надёжность там, где нужна точная проверка (даты, источники, юридические формулировки)
  • возможные предвзятости (они могут появляться из данных обучения)
  • ограничение контекста: модель учитывает только часть переписки (зависит от продукта)
  • Мифы и реальность

    | Миф | Как на самом деле | |---|---| | «Нейросеть понимает смысл как человек» | Она оперирует статистическими закономерностями текста. Похоже на понимание, но это не то же самое. | | «Если ответ звучит уверенно — он верный» | Уверенный тон не гарантирует истинность. Нужна проверка фактов. | | «Чат-бот учится на моих сообщениях прямо сейчас» | Обычно в момент диалога модель не переобучается. Она лишь использует ваш текст как входные данные текущего разговора. | | «ИИ объективен» | Модель может отражать перекосы данных, на которых училась, и настройки продукта. | | «ИИ всегда знает, откуда взял информацию» | Модель может генерировать ответ без точных ссылок на источники, если продукт специально не добавляет цитирование. |

    Безопасность: базовые правила для новичка

    Главное правило: относитесь к чат-боту как к мощному помощнику по тексту, а не как к гаранту истины.

    Практичные рекомендации:

  • не вставляйте чувствительные данные (пароли, коды, полные реквизиты), если не уверены в политике сервиса
  • просите оформлять ответ так, чтобы его было легко проверить: списком, с предположениями, с пометкой «что я не знаю»
  • для важных тем (медицина, финансы, право) используйте ответы как черновик и перепроверяйте у специалиста или по первичным источникам
  • Что дальше в курсе

    В следующих материалах мы постепенно перейдём от терминов к практике:

  • какие бывают текстовые нейросети и чем они отличаются
  • как устроен диалог с чат-ботом и почему промпт решает многое
  • типовые сценарии использования: обучение, работа, творчество
  • ограничения, безопасность и правила хороших запросов
  • Эта база нужна, чтобы дальше вы не просто нажимали кнопку «Сгенерировать», а управляли результатом осознанно.

    2. Как нейросеть учится: данные, обучение, переобучение и качество

    Как нейросеть учится: данные, обучение, переобучение и качество

    В прошлой статье мы разобрали, что ИИ, машинное обучение, нейросети и языковые модели — это разные уровни одной темы, а чат-бот — это продукт вокруг языковой модели. Теперь разберём главный вопрос: как именно модель становится «умной».

    Эта тема важна даже для обычного пользователя чат-ботов, потому что качество ответов напрямую связано с тем:

  • какие данные были в обучении
  • как модель обучали
  • как проверяли качество
  • где модель склонна ошибаться (например, «галлюцинировать»)
  • Из чего состоит обучение нейросети

    Если упростить до понятной схемы, обучение выглядит так:

  • Собирают и готовят данные
  • Запускают обучение (модель настраивает параметры)
  • Проверяют качество на отдельных данных
  • Исправляют проблемы (например, переобучение)
  • Получают версию модели, которую можно использовать в продукте
  • !Блок-схема жизненного цикла обучения модели: от данных до готового чат-бота

    Данные: что именно «скармливают» модели

    Нейросеть учится на примерах. Качество и поведение модели очень зависят от качества этих примеров.

    Какие бывают данные

    В машинном обучении часто встречаются такие типы данных:

  • Текст (статьи, книги, диалоги, код)
  • Картинки (фотографии, сканы)
  • Звук (речь, музыка)
  • Таблицы и события (транзакции, клики)
  • В нашем курсе фокус — текст и диалоги.

    Размеченные и неразмеченные данные

    Ключевое различие:

  • Размеченные данные: у примера есть правильный ответ (метка). Пример: письмо + метка «спам/не спам».
  • Неразмеченные данные: есть только сами примеры. Пример: огромный массив текстов без меток.
  • Большие языковые модели в значительной степени учатся на неразмеченном тексте: они тренируются предсказывать продолжение фразы. Это даёт универсальную «текстовую компетенцию».

    Почему качество данных важнее, чем кажется

    Проблемы в данных почти всегда превращаются в проблемы в ответах:

  • если в данных много ошибок и противоречий — ответы чаще будут неточными
  • если данных мало по теме — модель будет «плавать» в этой теме
  • если стиль данных токсичный — модель может воспроизводить нежелательные формулировки (в хороших продуктах это дополнительно ограничивают настройками и фильтрами)
  • Подготовка данных: как текст становится «удобным» для обучения

    Перед обучением данные обычно приводят в порядок.

    Очистка и нормализация

    Частые шаги:

  • удаление дублей
  • фильтрация мусора (битые страницы, спам)
  • приведение к единому формату
  • Токены: как модель видит текст

    Модель не «читает» текст как человек. Обычно текст превращают в токены — небольшие кусочки (части слов, слова, знаки).

    Важно для понимания качества:

  • чем сложнее и реже слова, тем больше шанс, что они распадутся на много токенов
  • длинный диалог может не поместиться целиком в доступный контекст продукта, и модель будет отвечать, не учитывая часть переписки
  • Подробнее про токены можно прочитать в Википедии: Токенизация

    Обучение: что значит «модель учится»

    На этапе обучения модель подбирает внутренние настройки — параметры — так, чтобы делать меньше ошибок на обучающих примерах.

    Интуитивная идея «ошибки»

    Представьте, что модель должна продолжить фразу:

  • Вход: «Столица Франции —»
  • Хорошее продолжение: «Париж»
  • Если модель написала не то, это считается ошибкой. Во время обучения параметры немного меняются так, чтобы в следующий раз правильный вариант становился более вероятным.

    Такой принцип применим и к диалогам: модель учится выдавать продолжение, похожее на хорошие примеры.

    Почему обучение занимает много ресурсов

    Причины простые:

  • данных очень много
  • параметров очень много
  • обновления параметров повторяются миллионы и миллиарды раз
  • Если хочется углубиться в термины, можно посмотреть: Градиентный спуск (но для нашего курса достаточно интуитивного понимания).

    Проверка качества: почему нельзя верить только обучающим данным

    Если оценивать модель только на примерах, на которых она училась, можно получить ложное ощущение, что всё идеально.

    Поэтому данные обычно делят на части:

  • обучающая выборка: на ней модель учится
  • валидационная выборка: на ней подбирают настройки и отслеживают улучшение
  • тестовая выборка: финальная честная проверка, которую стараются не «трогать» в процессе
  • Смысл: качество должно быть хорошим не только на знакомых примерах, но и на новых.

    Переобучение и недообучение: две типичные проблемы

    Переобучение

    Переобучение — это когда модель слишком хорошо подстроилась под обучающие примеры, но хуже работает на новых.

    Простой бытовой аналог:

  • вы выучили ответы к конкретному билету слово в слово
  • но если вопрос переформулировали, вы теряетесь
  • Признаки переобучения:

  • на обучающих данных всё отлично
  • на новых данных качество заметно хуже
  • Недообучение

    Недообучение — это когда модель не смогла выучить даже общие закономерности.

    Причины могут быть такими:

  • мало данных
  • модель слишком простая для задачи
  • обучение слишком короткое или неправильно настроенное
  • !Два наглядных графика: как выглядят переобучение и недообучение по ошибке на обучении и проверке

    Как с этим борются (общая идея)

    На практике используют много приёмов, но суть такая:

  • чтобы уменьшить переобучение, повышают обобщающую способность (больше разнообразных данных, ограничения на «зазубривание», аккуратный подбор настроек)
  • чтобы уменьшить недообучение, дают модели больше возможностей учиться (лучше данные, дольше обучение, более подходящая архитектура)
  • Откуда берётся «качество» ответов чат-бота

    Когда пользователь говорит: «этот бот умнее» или «этот отвечает точнее», внутри может скрываться несколько разных факторов.

    Что обычно улучшает качество

  • больше и разнообразнее данные (модель видела больше примеров)
  • лучше данные (меньше мусора, больше качественных источников)
  • лучше настройка под диалог (модель учат отвечать в формате помощника)
  • проверка на большем числе сценариев (меньше неприятных сюрпризов)
  • Почему возможны «галлюцинации»

    Даже хорошая языковая модель может уверенно выдать неверный факт, потому что её базовая механика — генерация правдоподобного продолжения текста, а не встроенная «проверка реальности».

    Что из этого следует пользователю:

  • в фактах, датах, ссылках и юридических формулировках нужна проверка
  • полезно просить модель явно отделять «что известно» от «что предполагается»
  • Специальная настройка под человека: почему чат-боты «вежливые»

    Если обучить модель просто на огромном тексте, она будет хорошо продолжать текст, но не обязательно будет удобным помощником.

    Поэтому в чат-ботах часто используют дополнительные этапы настройки, чтобы модель:

  • следовала инструкциям
  • отвечала безопаснее
  • держала стиль диалога
  • Это одна из причин, почему две модели с похожей «базой» могут вести себя по-разному в разных продуктах.

    Если хочется понять терминологию глубже: Обучение с подкреплением (в чат-ботах используется как один из инструментов настройки поведения).

    Практический вывод для новичка: как связаны обучение и ваши промпты

    Даже без знания математики полезно помнить:

  • модель отвечает на основе того, что она видела в данных и чему научилась обобщать
  • если запрос расплывчатый, модель выберет один из вероятных вариантов — не обязательно тот, который нужен вам
  • если запрос структурированный (роль, цель, ограничения, формат ответа), вы «направляете» генерацию и чаще получаете полезный результат
  • В следующих материалах курса мы перейдём к практике: какие бывают текстовые нейросети и как формулировать запросы, чтобы получать более управляемые ответы.

    3. Как текстовые модели понимают и генерируют текст: токены и вероятности

    Как текстовые модели понимают и генерируют текст: токены и вероятности

    В прошлых статьях мы разобрали, что языковая модель — это нейросеть, которая учится на тексте и в основе своей тренируется предсказывать продолжение. Теперь посмотрим ближе на механику: как текст превращается в токены, как модель оценивает вероятности продолжений и почему ответы иногда получаются разными.

    Что значит, что модель «понимает текст»

    Когда мы общаемся с чат-ботом, создаётся впечатление, что он понимает смысл как человек. На самом деле модель работает иначе:

  • она не хранит в голове «мысли» и «намерения»
  • она получает ваш текст как последовательность токенов
  • она вычисляет, какое продолжение статистически наиболее подходит к данному контексту
  • То есть «понимание» в чат-ботах — это способность очень хорошо предсказывать подходящее продолжение текста по огромному числу примеров.

    Токены: как модель видит текст

    Компьютеру неудобно работать с текстом как с буквами и словами в человеческом виде. Поэтому почти все текстовые модели используют токенизацию — превращение текста в последовательность маленьких фрагментов.

    !Текст разбивается на токены, и каждый токен превращается в числовой идентификатор

    Что такое токен

    Токен — это кусочек текста, который может быть:

  • целым словом
  • частью слова
  • пробелом
  • знаком препинания
  • У разных моделей токены устроены по-разному, но идея одна: модель оперирует не «словами», а токенами.

    Дополнительная справка: Токенизация.

    Почему токены важны обычному пользователю

    Токены напрямую влияют на практику:

  • длина запроса и ответа измеряется токенами, а не словами
  • у продукта есть ограничение на контекст (сколько токенов он может учитывать за один раз)
  • редкие термины, имена, коды и длинные слова иногда разбиваются на много токенов, и это может ухудшать точность на мелких деталях
  • Контекст: что именно учитывает модель

    Когда вы пишете сообщение, модель не «видит всю вашу жизнь» и не «помнит всё навсегда». Она видит только контекст текущего диалога, который попал в её окно контекста.

    Упрощённо:

  • берётся часть переписки (последние сообщения, иногда с системными инструкциями)
  • всё переводится в токены
  • модель предсказывает продолжение, опираясь только на эти токены
  • Практический вывод:

  • если диалог длинный, ранние детали могут «выпасть»
  • полезно повторять важные ограничения и вводные, если вы пишете много сообщений
  • Вероятности: как модель решает, что написать дальше

    После того как текст превращён в токены, модель делает главный шаг: для следующего токена она оценивает, насколько вероятен каждый вариант из словаря токенов.

    Эту идею можно записать так:

    Расшифровка каждого элемента:

  • — «вероятность»
  • — все токены, которые модель сейчас учитывает (ваш запрос и часть истории)
  • — один токен, который модель добавит дальше
  • вертикальная черта означает «при условии»: вероятность следующего токена при заданном контексте
  • Важно: модель не выбирает сразу целое предложение. Она выбирает токены по одному, постоянно обновляя контекст.

    !Модель многократно повторяет цикл: контекст → вероятности → выбор токена → обновлённый контекст

    Декодирование: как из вероятностей получается конкретный ответ

    Когда модель посчитала вероятности токенов, нужно выбрать один вариант и добавить его в текст. Этот шаг часто называют декодированием.

    Почему ответы бывают разными

    Если продукт выбирает не самый вероятный токен всегда, а иногда даёт шанс и другим, ответ может отличаться от запуска к запуску.

    Причины вариативности:

  • случайность в выборе токенов
  • разные настройки генерации в разных продуктах
  • слегка изменённый контекст (например, другое сообщение перед вашим запросом)
  • Популярные стратегии выбора токена

    Основные идеи (без формул):

  • жадный выбор (greedy): всегда берём самый вероятный токен; ответы стабильнее, но иногда менее «живые»
  • температура (temperature): управляет тем, насколько модель «рискует»; выше — более разнообразно, ниже — более предсказуемо
  • top-k: разрешаем выбирать только из самых вероятных токенов
  • top-p (nucleus sampling): разрешаем выбирать из набора токенов, которые суммарно дают, например, 90% вероятности
  • Справка по терминам (если хотите углубиться):

  • Сэмплирование (sampling))
  • Softmax (часто используется внутри, чтобы превратить «оценки» в вероятности)
  • Почему модель иногда «уверенно ошибается»

    Из прошлой статьи вы уже знаете про галлюцинации. На уровне токенов причина звучит приземлённо:

  • модель оптимизирована на генерацию правдоподобного продолжения текста
  • правдоподобное не равно истинное
  • если в контексте мало фактов или вопрос требует точных данных, модель может продолжить «как обычно бывает в текстах», а не «как на самом деле»
  • Практический приём:

  • просите отделять факты от предположений
  • просите перечислить, что нужно уточнить, чтобы ответ стал точнее
  • Как это знание помогает писать промпты

    Модель буквально реагирует на токены вашего запроса и ближайший контекст, поэтому особенно хорошо работают такие привычки:

  • задавайте роль и задачу: «Ты помощник редактора. Сократи текст до 5 предложений»
  • фиксируйте формат ответа: «Ответ дай списком из 7 пунктов»
  • добавляйте ограничения: «Не придумывай факты. Если не знаешь — напиши, что нужно уточнить»
  • повторяйте ключевые детали, если диалог длинный: модель может не учитывать ранние сообщения
  • Итог

    Текстовые модели «собирают» ответ из токенов, шаг за шагом:

  • превращают текст в токены
  • оценивают вероятности следующего токена по контексту
  • выбирают токен по стратегии декодирования
  • повторяют цикл, пока не получится полный ответ
  • Дальше в курсе мы будем опираться на это понимание, чтобы практично разбирать: какие бывают текстовые модели и как получать от чат-ботов более управляемые результаты в реальных задачах.

    4. Виды текстовых нейросетей и чат-ботов: от правил до LLM

    Виды текстовых нейросетей и чат-ботов: от правил до LLM

    В прошлых статьях мы разобрали, что языковая модель генерирует текст по токенам и выбирает продолжение на основе вероятностей, а качество сильно зависит от данных и этапов обучения. Теперь соберём картину целиком: какие вообще бывают текстовые системы и чат-боты, чем они отличаются и почему один бот ощущается как «умный собеседник», а другой — как «поиск по шаблонам».

    Главная мысль: чат-бот — это не один алгоритм. Это продукт, который может быть построен на разных подходах: от правил до больших языковых моделей (LLM).

    !Лента развития основных подходов к текстовым чат-ботам

    Чат-бот как продукт: что может быть «внутри»

    Когда вы видите окно диалога, внутри могут быть разные компоненты:

  • обработка текста пользователя
  • логика выбора ответа
  • генерация текста или подбор готовой фразы
  • память о контексте (в пределах окна контекста)
  • фильтры безопасности
  • иногда инструменты: поиск, базы знаний, калькулятор, вызов API
  • Поэтому корректнее спрашивать не «какой чат-бот лучше», а какая архитектура подходит под задачу.

    Полезная справка: Chatbot.

    Правиловые чат-боты

    Как устроены

    Правиловой бот работает по логике «если … то …»:

  • ищет ключевые слова, регулярные выражения или нажатые кнопки
  • переходит по заранее заданным веткам диалога
  • отвечает заготовленными фразами
  • Исторический пример: ELIZA.

    Плюсы

  • предсказуемость: ответ контролируется авторами сценариев
  • безопасность: меньше неожиданных формулировок
  • простота: можно сделать без обучения нейросети
  • Минусы

  • плохо переносит перефразирование и «свободный» стиль
  • трудно расширять: правила разрастаются
  • почти не умеет обобщать и объяснять
  • Где подходит

  • простые FAQ
  • запись на услугу по строго заданным шагам
  • поддержка, где важнее точность сценария, чем гибкость
  • Поисковые чат-боты: retrieval-подход

    Идея

    Такой бот не придумывает ответ с нуля, а находит наиболее подходящий кусок в базе:

  • из базы FAQ, документации, базы знаний
  • из набора заранее подготовленных ответов
  • Упрощённо это похоже на «умный поиск», который выбирает лучший готовый текст.

    Как это часто делают (простыми словами)

  • Текст вопроса превращают в «представление», удобное для сравнения.
  • Сравнивают вопрос с текстами в базе.
  • Возвращают самый похожий ответ или несколько кандидатов.
  • Исторически популярная техника для текста: TF-IDF.

    Плюсы

  • меньше «галлюцинаций»: бот не обязан генерировать новый факт
  • ответы можно привязать к проверенным документам
  • проще обеспечивать актуальность: обновили базу — обновились ответы
  • Минусы

  • если в базе нет нужного, бот «не знает»
  • возможны промахи, если вопрос сложный или неоднозначный
  • ответ часто выглядит как цитата, а не как объяснение
  • Где подходит

  • корпоративные базы знаний
  • ответы по регламентам и инструкциям
  • справочные сервисы
  • Классическое машинное обучение для диалогов: намерения и шаблоны

    До эпохи LLM многие «умные» боты делали так:

  • модель классифицирует намерение пользователя (например, «хочу вернуть товар»)
  • модель извлекает параметры (например, номер заказа)
  • система подставляет параметры в шаблон ответа или запускает сценарий
  • Это уже машинное обучение, но не обязательно большая нейросеть-генератор.

    Полезные термины (для ориентира):

  • Natural language processing
  • Intent (semantic))
  • Плюсы

  • лучше понимает формулировки, чем чистые правила
  • ответы остаются контролируемыми
  • удобно для задач «запрос → действие»
  • Минусы

  • всё ещё ограничено шаблонами
  • для новых тем нужны данные и настройка
  • хуже для длинных объяснений и творчества
  • Нейросети-генераторы до LLM: seq2seq

    До трансформеров широко использовали архитектуры «входной текст → выходной текст»:

  • модель читает фразу пользователя
  • генерирует ответ токен за токеном
  • Этот класс моделей часто называют sequence-to-sequence.

    Справка: Sequence to sequence.

    Плюсы

  • умеет генерировать новый текст, а не только выбирать готовый
  • полезно для перевода, коротких ответов, перефразирования
  • Минусы

  • часто уступает современным LLM в качестве и устойчивости
  • хуже держит длинный контекст
  • сильнее зависит от узкого датасета
  • Трансформеры и LLM: современные текстовые нейросети

    Что изменилось

    Современный скачок качества связан с архитектурой Transformer и масштабированием данных и параметров.

    Справка: Transformer (deep learning architecture)), Large language model.

    Что такое LLM на практике

    LLM обычно умеет много задач в одном интерфейсе, потому что обучена на огромном количестве текста и хорошо предсказывает продолжение. В диалоге это выглядит как:

  • ответы на вопросы
  • объяснения
  • написание черновиков
  • перефразирование и перевод
  • структурирование информации
  • Сильные стороны

  • гибкость: выдерживает перефразирование и сложные формулировки
  • качество текста: стиль, связность, структура
  • универсальность: много задач без отдельного обучения под каждую
  • Ограничения

  • возможны галлюцинации (правдоподобно, но неверно)
  • знания могут быть устаревшими относительно текущих событий
  • чувствительность к промпту и контексту
  • Важно связать с прошлой статьёй: LLM не «планирует ответ целиком», а выбирает продолжение токен за токеном по вероятностям, поэтому иногда уверенно продолжает там, где лучше было бы уточнить.

    Гибридные системы: LLM + база знаний (RAG)

    Одна из самых популярных практических схем сегодня — соединить LLM с поиском по документам. Это часто называют retrieval-augmented generation (RAG).

    Справка: Retrieval-augmented generation.

    Зачем это делают

  • чтобы бот опирался на конкретные документы
  • чтобы уменьшить выдуманные факты
  • чтобы быстро обновлять знания через обновление базы
  • Упрощённая логика

  • Пользователь задаёт вопрос.
  • Система ищет релевантные фрагменты в базе.
  • Эти фрагменты добавляются в контекст.
  • LLM формирует ответ, опираясь на найденное.
  • !Как LLM может отвечать, опираясь на найденные документы

    Важное ограничение

    RAG не делает модель «всегда правой». Если поиск нашёл не то, или документы неполные, ответ тоже может быть неверным. Но в среднем система становится более проверяемой.

    Чат-боты с инструментами: когда модель не только «пишет текст»

    Современные продукты часто подключают к модели инструменты:

  • поиск в интернете или по внутренним системам
  • калькулятор
  • базы данных
  • создание задач в трекере
  • вызов внешних API
  • В такой схеме LLM может:

  • понять, что нужно сделать действие
  • сформировать запрос к инструменту
  • получить результат
  • объяснить результат человеческим языком
  • Пользовательский смысл: модель становится не только «писателем текста», но и «интерфейсом» к сервисам.

    Сравнение подходов: что выбирать под задачу

    | Подход | Главная идея | Сильная сторона | Типичный риск | |---|---|---|---| | Правила | сценарии и шаблоны | контроль и предсказуемость | не понимает перефразирования | | Retrieval | найти готовый ответ | меньше выдумок, проще обновлять | не ответит, если нет в базе | | Intent + шаблоны | распознать намерение и параметры | хорошо для «заявка → действие» | ограниченная гибкость | | Seq2seq | генерировать ответ из входа | генерирует новый текст | качество часто ниже LLM | | LLM | предсказывать продолжение текста | универсальность и качество языка | галлюцинации | | LLM + RAG | генерировать с опорой на документы | проверяемость и актуальность базы | зависит от качества поиска | | LLM + инструменты | выполнять действия через сервисы | полезно в работе и автоматизации | ошибки интеграции и ограничения доступа |

    Практический вывод для новичка

    Чтобы уверенно пользоваться чат-ботами, полезно держать в голове три вопроса:

  • Это бот генерирует ответ или подбирает из базы?
  • Есть ли у него опора на документы (например, RAG), или он отвечает «из головы»?
  • Подключены ли инструменты, или он может только писать текст?
  • Это помогает правильно ставить ожидания и формулировать промпты:

  • для LLM просите отделять факты от предположений
  • для retrieval просите указать документ или раздел, откуда взят ответ
  • для сценарного бота используйте его «правильные входы»: кнопки, команды, короткие формулировки
  • В следующей части курса мы перейдём от «видов систем» к практике использования: как формулировать запросы под разные типы чат-ботов и как получать более управляемые ответы.

    5. Как пользоваться чат-ботами: промптинг, примеры и типовые задачи

    Как пользоваться чат-ботами: промптинг, примеры и типовые задачи

    В предыдущих статьях курса мы разобрали:

  • что чат-бот обычно построен вокруг языковой модели (LLM), но может быть и правиловым или поисковым
  • что модель видит текст как токены и генерирует ответ, выбирая продолжение по вероятностям
  • почему возможны галлюцинации и почему качество зависит от данных и настроек продукта
  • Теперь перейдём к практическому навыку: как формулировать запросы так, чтобы ответы были более точными, управляемыми и полезными.

    Что такое промптинг и почему он работает

    Промптинг — это умение формулировать запрос (промпт) так, чтобы направлять генерацию модели.

    Причина, почему это работает, напрямую связана с механикой из прошлой статьи:

  • модель продолжает текст токен за токеном
  • ваш промпт создаёт контекст, который влияет на вероятности следующих токенов
  • чем яснее вы задаёте задачу и формат, тем меньше модель «угадывает»
  • Если хочется увидеть термин в справочнике: Prompt engineering.

    Главный принцип: «меньше угадывания — больше инструкций»

    Плохой промпт обычно оставляет модели слишком много свободы:

  • непонятно, что именно нужно получить
  • непонятно, для кого и в каком стиле
  • непонятно, какие ограничения нельзя нарушать
  • Хороший промпт обычно отвечает на эти вопросы заранее.

    !Схема-шпаргалка: из каких частей удобно собирать промпт

    Шаблон промпта для новичка

    Ниже простой шаблон, который покрывает большинство бытовых и рабочих задач.

  • Роль: кем должен быть бот в этой задаче.
  • Цель: что вы хотите получить.
  • Контекст: исходные данные, аудитория, условия.
  • Ограничения: что нельзя делать, какие допущения запрещены.
  • Формат: как именно оформить ответ.
  • Проверка: как снизить риск ошибки.
  • Пример универсального промпта

    Почему это работает:

  • роль задаёт стиль и уровень строгости
  • ограничение снижает риск выдуманных деталей
  • формат делает результат предсказуемым
  • вопросы помогают не «гадать» там, где нужно уточнение
  • Как просить чат-бота быть точнее и безопаснее

    Просите отделять факты от предположений

    Это один из самых полезных приёмов против галлюцинаций.

    Просите критерии и шаги, а не только результат

    Если вам важна надёжность, просите процесс.

    Уточняйте границы задачи

    Частая причина плохого ответа — неясные границы.

  • вместо: «Сделай красиво»
  • лучше: «Сделай нейтрально-деловой стиль, 120–150 слов, без сленга»
  • Контекст и длинные диалоги: как не потерять важные детали

    Мы уже обсуждали, что у чат-ботов есть ограничение на окно контекста: при длинной переписке ранние сообщения могут учитываться хуже или не учитываться вовсе.

    Практичные приёмы:

  • Повторяйте ключевые ограничения ближе к текущему запросу.
  • Делайте краткое резюме контекста перед новым этапом задачи.
  • Если задача большая, разбивайте её на шаги и фиксируйте промежуточный результат.
  • Пример:

    Типовые задачи и готовые промпты

    Ниже набор задач, с которых удобно начинать. Примеры подойдут для большинства LLM-чатов.

    Краткий пересказ текста

    Выжать «суть для решения»

    Черновик письма или сообщения

    Идеи и мозговой штурм без «воды»

    Обучение: объяснить простыми словами и проверить понимание

    Улучшение промпта вместе с ботом

    Если вы не уверены, как правильно попросить, попросите бота сформулировать промпт.

    Как пользоваться разными типами чат-ботов

    Из статьи про виды чат-ботов важно вынести мысль: стратегия запроса зависит от того, как бот устроен.

    Если это LLM без опоры на документы

    Что делать:

  • просить отделять факты от предположений
  • просить перечислять, что нужно уточнить
  • просить форматы, критерии, варианты
  • Чего не ждать:

  • гарантированной точности по датам, ссылкам, юридическим формулировкам
  • Если это бот с базой знаний (поисковый или RAG)

    Что делать:

  • просить указать документ, раздел или цитату
  • уточнять, на каком источнике основан ответ
  • задавать вопрос так, чтобы он совпадал с терминологией документа
  • Пример запроса:

    Если это сценарный (правиловой) бот

    Что делать:

  • писать коротко и в рамках ожидаемых команд
  • использовать кнопки и подсказки интерфейса
  • не требовать «объяснений на 2 страницы»: он может быть на это не рассчитан
  • Ошибки новичков в промптинге

    | Ошибка | Что происходит | Как исправить | |---|---|---| | Слишком общий запрос | модель выбирает «средний» ответ | добавить цель, аудиторию и формат | | Нет ограничений | появляются выдуманные детали | добавить: «не придумывай факты» | | Смешаны несколько задач | ответ поверхностный | разбить на шаги | | Нет критериев качества | результат трудно оценить | попросить чек-лист и требования | | Длинный диалог без резюме | теряются ранние условия | кратко повторить вводные |

    Мини-чек-лист перед отправкой промпта

  • Я ясно написал, что нужно получить.
  • Я дал контекст или исходные данные.
  • Я указал ограничения (что нельзя).
  • Я указал формат ответа.
  • Я добавил просьбу уточнить, если данных мало.
  • Итог

    Промптинг — это не «магия», а управление контекстом:

  • вы снижаете долю угадывания, когда добавляете роль, цель, ограничения и формат
  • вы уменьшаете ошибки, когда просите отделять факты от предположений и задавать уточняющие вопросы
  • вы получаете стабильнее результат, когда учитываете ограничения контекста и разбиваете большую задачу на шаги
  • В следующем материале курса логично переходить к практике и оценке качества: как проверять ответы, когда можно доверять, а когда нужна обязательная верификация и внешние источники.

    6. Ограничения и безопасность: ошибки, галлюцинации, приватность, этика

    Ограничения и безопасность: ошибки, галлюцинации, приватность, этика

    В предыдущих статьях курса мы разобрали, что чат-боты на базе LLM генерируют текст токен за токеном по вероятностям, а качество зависит от данных обучения и настроек продукта. Из этого прямо следуют ограничения: модель может ошибаться, звучать уверенно при неверных фактах, терять детали из-за ограничения контекста и быть небезопасной при неосторожной работе с данными.

    Эта статья даёт практичную рамку: какие риски бывают, почему они возникают и как снижать вероятность ошибок.

    !Схема принятия решений: когда можно использовать ответ, а когда обязательна проверка

    Какие ошибки бывают у чат-ботов

    Важно различать несколько типов проблем. Они выглядят похоже для пользователя (ответ неверный), но причины и способы защиты разные.

    Галлюцинации

    Галлюцинация в контексте LLM — это когда модель генерирует правдоподобный текст, который содержит неверные или непроверяемые утверждения.

    Почему это происходит:

  • модель оптимизирована на правдоподобное продолжение текста, а не на проверку реальности
  • если в контексте мало фактов, модель заполняет пробелы тем, что чаще встречается в данных
  • формат вопроса может подталкивать к уверенным ответам даже там, где нужна неопределённость
  • Что особенно часто «галлюцинирует»:

  • ссылки на несуществующие источники
  • точные даты, номера законов, цитаты
  • детали биографий, характеристик товаров, условий регламентов
  • Логические ошибки и ошибки рассуждения

    Даже если факты верные, модель может:

  • перепутать причинно-следственные связи
  • пропустить ограничение из вашего запроса
  • сделать неверный вывод из данных
  • Это связано с тем, что генерация идёт шаг за шагом, и модель может выбрать «хорошо звучащую» цепочку, а не строго корректную.

    Ошибки из-за контекста

    Из статьи про токены и контекст следует практическая проблема: модель учитывает только часть переписки, которая помещается в окно контекста.

    Типовые симптомы:

  • бот «забывает» ранние требования
  • путает версии файлов или списки условий
  • отвечает, как будто вы не давали вводные
  • Ошибки из-за неоднозначного запроса

    Если запрос допускает несколько трактовок, модель выбирает одну из них.

    Пример неоднозначности:

  • «Сделай кратко» (насколько кратко?)
  • «Напиши договор» (какая юрисдикция? какие стороны? какие условия?)
  • В таких случаях правильная стратегия — вынудить уточнения или задать формат и ограничения.

    Почему уверенный тон не означает точность

    LLM подбирает следующий токен так, чтобы текст выглядел естественно. Естественный текст часто звучит уверенно, особенно в стиле «справочного ответа». Это не является встроенной гарантией истинности.

    Практический вывод:

  • доверяйте форме (структура, ясность) больше, чем «уверенности»
  • факты, даты, цифры, ссылки — отдельно проверяйте
  • Как снижать риск ошибок: практичные приёмы

    Ниже набор приёмов, которые напрямую опираются на механику генерации и на тему промптинга из предыдущей статьи.

    Просите уточняющие вопросы вместо угадывания

    Хорошая инструкция:

  • «Если данных не хватает, задай до 3 уточняющих вопросов и только потом предлагай решение»
  • Так вы уменьшаете вероятность того, что модель заполнит пробелы выдуманными деталями.

    Просите отделять факты от предположений

    Удобный формат:

  • раздел «Что известно из моего сообщения»
  • раздел «Что предполагается»
  • раздел «Что нужно уточнить/проверить»
  • Это снижает вред от галлюцинаций: вы видите, где модель не опирается на входные данные.

    Просите проверяемые опоры

    Если у бота есть доступ к документам (например, RAG-система), просите:

  • цитату
  • название документа и раздел
  • условия применимости
  • Если доступа к документам нет, просите не имитировать источники:

  • «Не придумывай ссылки. Если не уверен — скажи, что требуется проверить»
  • Фиксируйте формат и критерии качества

    Когда вы задаёте формат, вы уменьшаете «пространство вариантов».

    Примеры критериев:

  • объём: «120–150 слов»
  • стиль: «нейтрально-деловой»
  • структура: «таблица из 3 колонок»
  • ограничения: «без новых фактов»
  • Используйте правило критичности

    Разделите задачи на уровни риска.

    | Уровень | Примеры задач | Как использовать ответ | |---|---|---| | Низкий | идеи, черновики, варианты формулировок | можно использовать как черновик | | Средний | обучение, планы работ, сравнение подходов | использовать с проверкой ключевых пунктов | | Высокий | медицина, право, финансы, безопасность, репутационные тексты | только как подсказку для вопросов специалисту и поиска первичных источников |

    Приватность и данные: что можно и нельзя отправлять в чат-бот

    Что относится к чувствительным данным

    К чувствительным данным обычно относят:

  • пароли, коды подтверждения, токены доступа
  • полные платёжные реквизиты
  • паспортные данные, адреса, номера документов
  • медицинские данные, если они идентифицируют человека
  • коммерческие тайны, закрытые условия договоров
  • Даже если сервис обещает защиту, базовая привычка должна быть простой: не отправлять то, что нельзя случайно раскрыть.

    Как безопаснее работать с текстами и документами

    Вместо того чтобы вставлять реальные данные, используйте подходы:

  • Обезличивание
  • Минимизация
  • Разделение
  • Расшифровка:

  • Обезличивание — замените имена, адреса, номера на нейтральные маркеры: «Клиент А», «Город N», «Договор №XXX».
  • Минимизация — отправляйте только те фрагменты, которые нужны для задачи.
  • Разделение — не смешивайте в одном чате полный текст документа и идентифицирующие детали.
  • Почему «не вставлять личное» — это не паранойя

    Причины практичные:

  • вы не контролируете, где окажется ваш текст: копирование, пересылка, скриншоты, политика хранения
  • даже полезный ответ может случайно воспроизвести вставленные фрагменты
  • в компании могут действовать внутренние правила комплаенса
  • Если хотите изучить общие принципы защиты данных, полезная отправная точка: Общий регламент по защите данных и Персональные данные.

    Этика: что важно учитывать при использовании чат-ботов

    Этические вопросы в чат-ботах не про «хорошо/плохо», а про последствия: кому и какой вред может быть нанесён.

    Предвзятости и стереотипы

    Поскольку модели обучаются на больших массивах текстов, они могут воспроизводить перекосы.

    Как снизить риск:

  • просить нейтральный стиль и избегать обобщений
  • просить показать альтернативные точки зрения
  • проверять формулировки в публичных материалах
  • Справочно: Algorithmic bias.

    Авторство и честность

    Чат-бот может помочь написать текст, но в некоторых ситуациях важно сообщать об использовании ИИ:

  • учебные работы, если правила запрещают или требуют отметки
  • отчёты и документы, где важна трассируемость источников
  • Практичный принцип: если текст влияет на оценки, деньги, права людей или репутацию, прозрачность важнее удобства.

    Интеллектуальная собственность

    Модель может генерировать текст, похожий на уже существующие материалы. Риски особенно заметны в коммерческих публикациях.

    Как действовать безопаснее:

  • использовать ответы как черновик и переписывать под свою задачу
  • проверять уникальность и корректность заимствований, если это важно
  • не просить «сделай копию текста X»
  • Общая справка: Copyright.

    Безопасная стратегия работы: короткий протокол

    Эта последовательность помогает почти в любой задаче.

  • Сначала определите риск задачи: низкий, средний, высокий.
  • Сформулируйте промпт с ограничениями:
  • - «не придумывай факты» - «если не уверен — скажи, что нужно проверить»
  • Попросите структуру ответа:
  • - списки, таблицы, шаги, критерии
  • Для фактов потребуйте проверяемость:
  • - источники, цитаты, расчёты, условия применимости
  • Финально проверьте критичные элементы:
  • - цифры, имена, даты, юридические формулировки, медицинские рекомендации

    Итог

    Ограничения чат-ботов логично следуют из того, как они устроены:

  • они генерируют правдоподобный текст, а не «проверенную истину»
  • могут галлюцинировать и ошибаться в логике
  • ограничены контекстом и чувствительны к формулировкам
  • Безопасность для новичка — это не запреты, а привычки:

  • не отправлять чувствительные данные
  • требовать уточнений, критериев и формата
  • отделять факты от предположений
  • перепроверять всё, что имеет высокую цену ошибки
  • 7. Мини‑квиз: проверка понимания и разбор ответов

    Мини‑квиз: проверка понимания и разбор ответов

    Этот материал завершает курс «Введение в нейросети и чат-боты: основы с нуля». В предыдущих статьях мы разобрали:

  • базовые понятия: ИИ, машинное обучение, нейросети, языковые модели и чем чат-бот отличается от LLM
  • как модель учится: данные, обучение, переобучение и проверка качества
  • как текст превращается в токены и почему модель генерирует текст через вероятности
  • какие бывают текстовые чат-боты: от правил до LLM и гибридов
  • как писать промпты, чтобы получать более управляемые ответы
  • ограничения и безопасность: галлюцинации, контекст, приватность, этика
  • Мини‑квиз ниже (в домашнем задании) проверяет именно эти опорные идеи. А эта статья объясняет, как разбирать ответы и что повторить, если где-то «провал».

    Как воспринимать результат мини‑квиза

    Мини‑квиз — это не экзамен и не проверка «умный/не умный». Его задача — быстро показать, какие базовые опоры у вас уже закрепились, а какие ещё путаются.

    Полезная установка:

  • если ошиблись в терминах — дальше будет сложнее читать про токены, обучение и промптинг
  • если ошиблись в токенах и контексте — будет труднее понимать, почему чат-бот «забывает» детали
  • если ошиблись в безопасности — есть риск неправильно доверять ответам или случайно делиться лишним
  • Как правильно разбирать ошибки

    Главный принцип: ошибка почти всегда указывает не на «незнание всего», а на одну из типовых путаниц.

    !Схема помогает быстро понять, какой именно тип ошибки вы сделали и какую тему курса повторить

    Чтобы разбор был практичным, используйте короткий алгоритм:

  • Найдите, какой термин или принцип был ключевым в вопросе.
  • Сформулируйте правило в одну строку.
  • Придумайте свой пример (1–2 предложения), где правило применимо.
  • Подумайте, как это влияет на вашу практику работы с чат-ботом.
  • Ниже — разбор ключевых «узлов», которые чаще всего путают новички.

    Узел понимания: что именно называют ИИ, ML, нейросетью, LLM и чат-ботом

    Типовая ошибка: считать, что чат-бот и LLM — одно и то же.

    Правильная рамка:

  • ИИ — широкая область про «умные» задачи (включает правила, поиск, ML)
  • машинное обучение — подход обучать на данных, а не прописывать всё вручную
  • нейросеть — один из видов моделей ML
  • языковая модель (LLM) — нейросеть, обученная на тексте, которая генерирует продолжение
  • чат-бот — продукт вокруг модели: интерфейс диалога, правила безопасности, память, иногда инструменты
  • Если вы путаетесь, полезно сверяться с короткими справками:

  • Искусственный интеллект
  • Машинное обучение
  • Большая языковая модель
  • Узел понимания: обучение, проверка качества и переобучение

    Типовая ошибка: думать, что если модель «хорошо отвечает на примеры», значит она будет хорошо отвечать и на новые вопросы.

    Ключевая идея из курса:

  • качество проверяют на отдельных данных, которые модель не видела при обучении
  • переобучение — когда модель слишком подстроилась под обучающие примеры и хуже работает на новых
  • Практическая связь с чат-ботами:

  • модель может быть сильной «в среднем», но нестабильной в редких сценариях
  • поэтому в критичных темах важно требовать проверяемость и перепроверять факты
  • Узел понимания: токены, контекст и почему бот «забывает»

    Типовая ошибка: ожидать, что чат-бот помнит всё из переписки или «знает вашу ситуацию целиком».

    Что важно удержать:

  • модель получает вход как последовательность токенов
  • у продукта есть ограничение на окно контекста: учитывается только часть диалога
  • если диалог длинный, ранние детали могут не попасть в текущий контекст
  • Если вопрос про токены кажется абстрактным, достаточно помнить пользовательское правило:

  • чем длиннее переписка, тем важнее повторять ключевые условия ближе к текущему запросу
  • Справка:

  • Токенизация
  • Узел понимания: почему ответы бывают разными

    Типовая ошибка: считать, что «разные ответы» означают, что бот «врёт» или «переобучается на вас».

    Идея из курса:

  • генерация идёт токен за токеном
  • выбор следующего токена может быть не всегда самым вероятным
  • настройки вроде температуры влияют на разнообразие
  • Практический вывод:

  • если вам нужен стабильный результат, фиксируйте формат, критерии и просите меньше вариативности
  • если вам нужен креатив, допускайте больше вариантов и просите несколько черновиков
  • Узел понимания: виды чат-ботов и ожидания от них

    Типовая ошибка: задавать одинаковые ожидания к сценарному боту, поисковому боту и LLM.

    Короткая шпаргалка:

  • правила — предсказуемо, но негибко
  • retrieval/поиск — хорошо, если ответ есть в базе, но плохо, если нет
  • LLM — гибко пишет, но может галлюцинировать
  • LLM + база знаний (RAG) — чаще опирается на документы, но всё равно зависит от качества поиска
  • Если вы ошиблись в вопросах про типы систем, повторите идею:

  • сначала понять, бот генерирует или ищет, и есть ли у него опора на документы
  • Справка:

  • Transformer)
  • Prompt engineering
  • Узел понимания: безопасность, приватность и «уверенный тон»

    Типовая ошибка: воспринимать уверенный ответ как гарантированно правильный.

    Ключевое правило курса:

  • LLM генерирует правдоподобный текст, а не «проверенную истину»
  • Мини-протокол безопасного использования:

  • для фактов просите отделять факты от предположений
  • не отправляйте чувствительные данные (пароли, коды, полные документы)
  • для медицины, права и финансов используйте ответы как черновик и перепроверяйте
  • Как понять, что вы готовы двигаться дальше

    Вы готовы, если можете уверенно проговорить (без формул) такие фразы:

  • чат-бот — это продукт, LLM — ядро генерации
  • модель работает с токенами и ограниченным контекстом
  • обучение и проверка качества разделены; переобучение — реальный риск
  • LLM может галлюцинировать, поэтому факты нужно проверять
  • хороший промпт уменьшает «угадывание»: роль, цель, контекст, ограничения, формат
  • Если какие-то из этих тезисов пока звучат неуверенно — это отличный сигнал, какие статьи курса стоит перечитать.