Этика, безопасность и конфиденциальность при работе с GPT
Как эта тема связана с предыдущими статьями курса
В прошлых статьях мы выяснили, что GPT генерирует текст на основе контекста, может правдоподобно ошибаться и требует проверки, а качество сильно зависит от того, как вы формулируете запрос.
Эта статья добавляет третий слой зрелого использования: как применять GPT так, чтобы не вредить себе и другим, не нарушать правила и не допускать утечек данных. Это особенно важно в офисных задачах (письма, отчеты, заметки встреч) и в учебе, где легко перейти границу между помощью и нечестной подменой работы.
Три понятия, которые важно не путать
Этика
Этика отвечает на вопрос:
«Правильно ли так делать по отношению к людям и обществу?» Даже если что-то технически возможно, это может быть вредно: вводить в заблуждение, дискриминировать, помогать мошенничеству.
Безопасность
Безопасность отвечает на вопрос:
«Не приведет ли использование GPT к ущербу?» Сюда входят ошибки модели, риск неправильных действий, а также злоупотребления (например, попытки использовать модель для вредных инструкций).
Конфиденциальность
Конфиденциальность отвечает на вопрос:
«Какие данные можно отправлять в запрос и что нельзя?» Это про персональные данные, коммерческие тайны, внутренние документы, пароли и все, что может стать утечкой.
!Диаграмма показывает, что ответственная работа с GPT находится на пересечении этики, безопасности и конфиденциальности
Этические принципы для новичка: простые правила на каждый день
Не выдавайте результат GPT за «человеческий факт» там, где важна честность
Если текст создавался с помощью GPT, часто корректно:
указать, что это черновик, подготовленный с помощью ИИ
объяснить, что вы проверили факты и несете ответственность за итогВ учебе и на работе правила отличаются. В учебе часто требуется явное указание использования ИИ. В компании могут быть свои политики.
Не просите и не используйте обман и манипуляции
К неэтичным (и часто запрещенным правилами платформ) относятся задачи вроде:
придумай правдоподобное оправдание, чтобы скрыть ошибку
напиши сообщение, чтобы «вынудить» человека сделать то, чего он не хочет
сгенерируй отзывы, которые выглядят как реальныеОриентир по запретам и ограничениям: Политики использования OpenAI.
Следите за справедливостью и стереотипами
GPT может воспроизводить стереотипы из данных обучения. Практика:
избегайте запросов, которые закрепляют дискриминацию
если вы пишете тексты про людей и роли, просите нейтральный язык
перепроверяйте формулировки, особенно в HR (вакансии, оценки кандидатов)Полезный ориентир по принципам ответственного ИИ: OECD AI Principles.
Уважайте авторство и правила использования материалов
GPT может:
пересказывать и перефразировать
предлагать структуру
помогать написать свой текстНо риск возникает, когда вы:
копируете большие фрагменты «как есть» без понимания и права
просите «сделай как в книге/статье дословно»Практическое правило: используйте GPT как редактора, структурировщика и генератора черновиков, а финальный текст делайте осознанно.
Безопасность: как снижать риск вредных ошибок
Помните, где цена ошибки высокая
В темах с высокой ценой ошибки используйте GPT только как помощника для черновиков и вопросов:
медицина
право
финансы и налоги
безопасность, химия, опасные инструкцииВ таких задачах полезнее просить:
список вопросов к специалисту
варианты формулировок письма
план проверки по первоисточникамТиповая безопасная тактика: «черновик → проверка → решение»
Связь с прошлой статьей про качество: модель может галлюцинировать, поэтому не переносите ответ напрямую в действие.
Удобный рабочий процесс:
Получите черновик или структуру.
Отметьте утверждения, которые нужно проверять (цифры, даты, нормы, обещания, ссылки).
Проверьте по первоисточникам.
Только затем используйте результат.О причинах «выдуманных деталей»: Why does ChatGPT sometimes make stuff up?.
Не пытайтесь «ломать» ограничения и не выполняйте вредные инструкции
Существуют попытки заставить модель нарушать правила (иногда это называют
jailbreak). Для пользователя важно:
не использовать GPT для вредных действий
не перенимать сомнительные «лайфхаки» обхода ограничений
помнить, что нарушение правил платформы может привести к блокировке аккаунта или рискам для компанииПросите модель быть честной о неопределенности
Простой прием промптинга из прошлых уроков, который повышает безопасность:
попросить отмечать, где модель не уверена
попросить список того, что нужно проверитьПример блока, который можно добавлять в важные запросы:
Конфиденциальность: что можно отправлять в GPT, а что нельзя
Базовое правило
В запросе должно быть только то, что вы готовы показать постороннему.
Почти всегда нельзя отправлять:
пароли, коды из SMS, секретные токены, ключи API
номера банковских карт и другие платежные данные
полные паспортные данные и подобные идентификаторы
клиентские базы, внутренние отчеты, договоры и коммерческие условия без разрешения
персональные данные третьих лиц без необходимостиОбщие правила обработки данных зависят от сервиса и настроек вашей организации. Полезно ознакомиться с документами провайдера:
Политика конфиденциальности OpenAI
Политики использования OpenAIМинимизация данных: самый простой способ снизить риск
Минимизация означает: отправляйте ровно столько, сколько нужно для задачи.
Практика:
вставляйте только нужный фрагмент документа, а не весь файл
заменяйте конкретные номера и имена на заполнители
убирайте лишние детали, не влияющие на ответОбезличивание: как безопаснее работать с документами
Если вам нужно улучшить письмо, резюмировать встречу или сделать шаблон, используйте обезличивание.
Примеры замен:
«Иван Петров, +7…» → «Сотрудник A, телефон скрыт»
«ООО “Ромашка”» → «Компания-клиент»
«Договор №123 от 12.02» → «Договор (номер скрыт)»Важный нюанс: обезличивание не всегда делает данные полностью безопасными (иногда по контексту человека можно узнать). Если сомневаетесь, лучше не отправлять.
Разделяйте «черновик текста» и «факты»
Одна из причин утечек и ошибок — когда в модель отправляют все подряд. Более безопасный подход:
в GPT отправлять структуру и формулировки
факты, цифры и чувствительные детали подставлять вручную послеПрактический чек-лист перед отправкой запроса
Используйте этот список как привычку.
Цель понятна: что именно я хочу получить (черновик, план, письмо, таблицу).
Данных достаточно: я дал только то, что нужно для ответа.
Конфиденциальность соблюдена: нет паролей, платежных данных, лишних персональных данных.
Ограничения прописаны: что нельзя выдумывать, какой формат нужен.
Для важной темы есть план проверки: где я подтвержу факты.Что делать, если вы уже отправили лишнее
Паника редко помогает, но бездействие хуже. Возможные шаги:
Немедленно поменяйте скомпрометированные секреты (пароли, ключи, токены) и отключите доступы.
Сообщите ответственному в компании (безопасность/ИТ/руководитель) по внутреннему процессу.
Зафиксируйте, что именно было отправлено, чтобы оценить риск.
На будущее настройте шаблоны обезличивания и «правила запроса» для команды.Короткое резюме
Ответственное использование GPT держится на трех опорах.
Этика: не вводить в заблуждение, не манипулировать, уважать людей и правила.
Безопасность: помнить о галлюцинациях, особенно в темах с высокой ценой ошибки; работать через проверку.
Конфиденциальность: не отправлять чувствительные данные; минимизировать и обезличивать ввод.Если объединить навыки промптинга из прошлых уроков с этими правилами, GPT становится полезным и управляемым инструментом, а не источником рисков.