Ограничения и безопасность: ошибки, галлюцинации, приватность, этика
В предыдущих статьях курса мы разобрали, что чат-боты на базе LLM генерируют текст токен за токеном по вероятностям, а качество зависит от данных обучения и настроек продукта. Из этого прямо следуют ограничения: модель может ошибаться, звучать уверенно при неверных фактах, терять детали из-за ограничения контекста и быть небезопасной при неосторожной работе с данными.
Эта статья даёт практичную рамку: какие риски бывают, почему они возникают и как снижать вероятность ошибок.
!Схема принятия решений: когда можно использовать ответ, а когда обязательна проверка
Какие ошибки бывают у чат-ботов
Важно различать несколько типов проблем. Они выглядят похоже для пользователя (ответ неверный), но причины и способы защиты разные.
Галлюцинации
Галлюцинация в контексте LLM — это когда модель генерирует правдоподобный текст, который содержит неверные или непроверяемые утверждения.
Почему это происходит:
модель оптимизирована на правдоподобное продолжение текста, а не на проверку реальности
если в контексте мало фактов, модель заполняет пробелы тем, что чаще встречается в данных
формат вопроса может подталкивать к уверенным ответам даже там, где нужна неопределённостьЧто особенно часто «галлюцинирует»:
ссылки на несуществующие источники
точные даты, номера законов, цитаты
детали биографий, характеристик товаров, условий регламентовЛогические ошибки и ошибки рассуждения
Даже если факты верные, модель может:
перепутать причинно-следственные связи
пропустить ограничение из вашего запроса
сделать неверный вывод из данныхЭто связано с тем, что генерация идёт шаг за шагом, и модель может выбрать «хорошо звучащую» цепочку, а не строго корректную.
Ошибки из-за контекста
Из статьи про токены и контекст следует практическая проблема: модель учитывает только часть переписки, которая помещается в окно контекста.
Типовые симптомы:
бот «забывает» ранние требования
путает версии файлов или списки условий
отвечает, как будто вы не давали вводныеОшибки из-за неоднозначного запроса
Если запрос допускает несколько трактовок, модель выбирает одну из них.
Пример неоднозначности:
«Сделай кратко» (насколько кратко?)
«Напиши договор» (какая юрисдикция? какие стороны? какие условия?)В таких случаях правильная стратегия — вынудить уточнения или задать формат и ограничения.
Почему уверенный тон не означает точность
LLM подбирает следующий токен так, чтобы текст выглядел естественно. Естественный текст часто звучит уверенно, особенно в стиле «справочного ответа». Это не является встроенной гарантией истинности.
Практический вывод:
доверяйте форме (структура, ясность) больше, чем «уверенности»
факты, даты, цифры, ссылки — отдельно проверяйтеКак снижать риск ошибок: практичные приёмы
Ниже набор приёмов, которые напрямую опираются на механику генерации и на тему промптинга из предыдущей статьи.
Просите уточняющие вопросы вместо угадывания
Хорошая инструкция:
«Если данных не хватает, задай до 3 уточняющих вопросов и только потом предлагай решение»Так вы уменьшаете вероятность того, что модель заполнит пробелы выдуманными деталями.
Просите отделять факты от предположений
Удобный формат:
раздел «Что известно из моего сообщения»
раздел «Что предполагается»
раздел «Что нужно уточнить/проверить»Это снижает вред от галлюцинаций: вы видите, где модель не опирается на входные данные.
Просите проверяемые опоры
Если у бота есть доступ к документам (например, RAG-система), просите:
цитату
название документа и раздел
условия применимостиЕсли доступа к документам нет, просите не имитировать источники:
«Не придумывай ссылки. Если не уверен — скажи, что требуется проверить»Фиксируйте формат и критерии качества
Когда вы задаёте формат, вы уменьшаете «пространство вариантов».
Примеры критериев:
объём: «120–150 слов»
стиль: «нейтрально-деловой»
структура: «таблица из 3 колонок»
ограничения: «без новых фактов»Используйте правило критичности
Разделите задачи на уровни риска.
| Уровень | Примеры задач | Как использовать ответ |
|---|---|---|
| Низкий | идеи, черновики, варианты формулировок | можно использовать как черновик |
| Средний | обучение, планы работ, сравнение подходов | использовать с проверкой ключевых пунктов |
| Высокий | медицина, право, финансы, безопасность, репутационные тексты | только как подсказку для вопросов специалисту и поиска первичных источников |
Приватность и данные: что можно и нельзя отправлять в чат-бот
Что относится к чувствительным данным
К чувствительным данным обычно относят:
пароли, коды подтверждения, токены доступа
полные платёжные реквизиты
паспортные данные, адреса, номера документов
медицинские данные, если они идентифицируют человека
коммерческие тайны, закрытые условия договоровДаже если сервис обещает защиту, базовая привычка должна быть простой: не отправлять то, что нельзя случайно раскрыть.
Как безопаснее работать с текстами и документами
Вместо того чтобы вставлять реальные данные, используйте подходы:
Обезличивание
Минимизация
РазделениеРасшифровка:
Обезличивание — замените имена, адреса, номера на нейтральные маркеры: «Клиент А», «Город N», «Договор №XXX».
Минимизация — отправляйте только те фрагменты, которые нужны для задачи.
Разделение — не смешивайте в одном чате полный текст документа и идентифицирующие детали.Почему «не вставлять личное» — это не паранойя
Причины практичные:
вы не контролируете, где окажется ваш текст: копирование, пересылка, скриншоты, политика хранения
даже полезный ответ может случайно воспроизвести вставленные фрагменты
в компании могут действовать внутренние правила комплаенсаЕсли хотите изучить общие принципы защиты данных, полезная отправная точка: Общий регламент по защите данных и Персональные данные.
Этика: что важно учитывать при использовании чат-ботов
Этические вопросы в чат-ботах не про «хорошо/плохо», а про последствия: кому и какой вред может быть нанесён.
Предвзятости и стереотипы
Поскольку модели обучаются на больших массивах текстов, они могут воспроизводить перекосы.
Как снизить риск:
просить нейтральный стиль и избегать обобщений
просить показать альтернативные точки зрения
проверять формулировки в публичных материалахСправочно: Algorithmic bias.
Авторство и честность
Чат-бот может помочь написать текст, но в некоторых ситуациях важно сообщать об использовании ИИ:
учебные работы, если правила запрещают или требуют отметки
отчёты и документы, где важна трассируемость источниковПрактичный принцип: если текст влияет на оценки, деньги, права людей или репутацию, прозрачность важнее удобства.
Интеллектуальная собственность
Модель может генерировать текст, похожий на уже существующие материалы. Риски особенно заметны в коммерческих публикациях.
Как действовать безопаснее:
использовать ответы как черновик и переписывать под свою задачу
проверять уникальность и корректность заимствований, если это важно
не просить «сделай копию текста X»Общая справка: Copyright.
Безопасная стратегия работы: короткий протокол
Эта последовательность помогает почти в любой задаче.
Сначала определите риск задачи: низкий, средний, высокий.
Сформулируйте промпт с ограничениями:
- «не придумывай факты»
- «если не уверен — скажи, что нужно проверить»
Попросите структуру ответа:
- списки, таблицы, шаги, критерии
Для фактов потребуйте проверяемость:
- источники, цитаты, расчёты, условия применимости
Финально проверьте критичные элементы:
- цифры, имена, даты, юридические формулировки, медицинские рекомендации
Итог
Ограничения чат-ботов логично следуют из того, как они устроены:
они генерируют правдоподобный текст, а не «проверенную истину»
могут галлюцинировать и ошибаться в логике
ограничены контекстом и чувствительны к формулировкамБезопасность для новичка — это не запреты, а привычки:
не отправлять чувствительные данные
требовать уточнений, критериев и формата
отделять факты от предположений
перепроверять всё, что имеет высокую цену ошибки