Основы искусственного интеллекта (AI)

Курс знакомит с ключевыми понятиями искусственного интеллекта и тем, как AI решает задачи на данных. Вы изучите базовые подходы машинного обучения, основы нейросетей и практические вопросы применения AI.

1. Что такое AI: термины, задачи и области применения

Что такое AI: термины, задачи и области применения

Зачем нужен AI и что он решает

Искусственный интеллект (AI, Artificial Intelligence) — это область информатики, которая создаёт системы, способные выполнять задачи, которые обычно требуют человеческого интеллекта: понимать язык, распознавать изображения, находить закономерности, планировать действия и принимать решения.

Важно: AI — это не «разум как у человека», а набор подходов и технологий, которые дают практический результат в конкретных задачах.

Ключевые термины простыми словами

Ниже — минимальный словарь, без которого дальше в курсе будет сложно.

  • Данные (data) — примеры из реального мира: тексты, картинки, клики, продажи, измерения датчиков.
  • Признак (feature) — отдельная характеристика объекта (например, возраст клиента, сумма покупок, длина текста).
  • Метка (label) — правильный ответ в обучающих данных (например, «спам/не спам», «кошка/собака», сумма спроса).
  • Модель (model) — алгоритм, который научился находить закономерности в данных и делать предсказания.
  • Обучение (training) — процесс настройки модели на данных.
  • Инференс (inference) — использование уже обученной модели на новых данных (получение ответа).
  • Качество модели (metrics) — численные показатели того, насколько хорошо модель решает задачу (например, доля верных ответов).
  • Переобучение (overfitting) — когда модель «запоминает» обучающие примеры и плохо работает на новых.
  • Как соотносятся AI, Machine Learning и Deep Learning

    Термины часто путают, поэтому зафиксируем иерархию.

  • AI — самый широкий термин: любые интеллектуальные методы (включая правила, поиск, оптимизацию, ML).
  • Машинное обучение (ML, Machine Learning) — часть AI, где модель учится по данным, а не описывается полностью вручную.
  • Глубокое обучение (DL, Deep Learning) — часть ML, где используются нейронные сети с большим числом слоёв; особенно эффективно для изображений, речи и текста.
  • !Схема показывает, что ML — часть AI, а DL — часть ML.

    Какие задачи решает AI

    В прикладной работе задачи AI обычно формулируют как задачи предсказания, распознавания или генерации.

    Классификация

    Классификация — выбрать один класс из нескольких.

    Примеры:

  • письмо: спам или не спам
  • транзакция: мошенничество или норма
  • отзыв: позитивный/нейтральный/негативный
  • Регрессия

    Регрессия — предсказать число.

    Примеры:

  • прогноз спроса (сколько продадим завтра)
  • оценка цены квартиры
  • прогноз времени доставки
  • Ранжирование и рекомендации

    Ранжирование — упорядочить варианты по полезности для пользователя.

    Примеры:

  • поиск: какие страницы показать выше
  • рекомендации: какие товары/видео предложить
  • Кластеризация

    Кластеризация — автоматически группировать похожие объекты без заранее заданных меток.

    Примеры:

  • сегментация клиентов по поведению
  • группировка новостей по темам
  • Обнаружение аномалий

    Аномалия — нетипичное поведение, которое важно заметить.

    Примеры:

  • подозрительные операции в банке
  • поломка оборудования по данным датчиков
  • Генерация

    Генеративные модели создают новый контент: текст, изображения, код, музыку.

    Примеры:

  • ассистент, который пишет черновик письма
  • генерация изображения по описанию
  • автодополнение кода
  • Основные подходы к обучению

    Обучение с учителем (supervised learning)

    Есть пары «вход → правильный ответ» (признаки → метка). Модель учится предсказывать метку.

    Типичные задачи:

  • классификация
  • регрессия
  • Обучение без учителя (unsupervised learning)

    Есть только данные без правильных ответов. Модель ищет структуру сама.

    Типичные задачи:

  • кластеризация
  • поиск закономерностей
  • Обучение с подкреплением (reinforcement learning)

    Есть агент, который делает действия, получает награду/штраф и учится выбирать действия лучше.

    Типичные задачи:

  • управление роботами
  • игры
  • оптимизация стратегий (в рамках корректной постановки и ограничений)
  • Где применяется AI

    Ниже — карта областей, где AI встречается чаще всего.

    Работа с текстом (NLP)

    NLP (Natural Language Processing) — обработка естественного языка.

    Примеры:

  • чат-боты поддержки
  • поиск по документам
  • извлечение фактов из договоров
  • суммаризация текста
  • Компьютерное зрение (CV)

    Computer Vision — работа с изображениями и видео.

    Примеры:

  • распознавание дефектов на производстве
  • медицинские снимки (как поддержка врача)
  • контроль безопасности (при соблюдении законов и политики)
  • Речь и аудио

    Примеры:

  • распознавание речи (диктовка)
  • синтез речи
  • анализ звонков контакт-центра
  • Рекомендательные системы

    Примеры:

  • товары в интернет-магазине
  • фильмы/музыка
  • персонализация ленты
  • Бизнес и индустрия

    Примеры:

  • прогнозирование спроса и запасов
  • кредитный скоринг
  • борьба с мошенничеством
  • оптимизация логистики
  • Что такое LLM и почему о них так много говорят

    LLM (Large Language Model) — большая языковая модель, обученная на больших объёмах текста и способная генерировать и преобразовывать текст.

    Что LLM обычно умеют:

  • отвечать на вопросы и объяснять
  • писать черновики текстов
  • извлекать структуру из текста (таблицы, поля)
  • помогать с кодом
  • Что важно помнить:

  • LLM могут ошибаться и уверенно «придумывать» детали, поэтому в реальных процессах нужна проверка.
  • Качество зависит от задачи, контекста и ограничений (например, доступа к актуальным данным).
  • Жизненный цикл AI-решения: от идеи до работы

    Чтобы не воспринимать AI как «чёрный ящик», полезно понимать типовой путь.

  • Постановка задачи
  • Сбор и подготовка данных
  • Выбор подхода и обучение модели
  • Проверка качества и ошибок
  • Внедрение (инференс в приложении/сервисе)
  • Мониторинг качества и обновление
  • Ограничения, риски и ответственность

    AI даёт пользу, но требует аккуратности.

  • Смещения (bias): данные могут быть неполными или «перекошенными», и модель унаследует это.
  • Конфиденциальность: нельзя бездумно использовать персональные данные.
  • Объяснимость: в некоторых сферах важно уметь объяснить, почему модель дала ответ.
  • Надёжность: качество может ухудшаться со временем, если данные меняются.
  • Безопасность: модели могут быть уязвимы к злоупотреблениям (вводящим в заблуждение запросам, утечкам, атакам).
  • > Практическое правило: AI — это инструмент. Если цена ошибки высокая, нужны проверки, ограничения и человеческий контроль.

    Мини-таблица: термины и «как понять одним взглядом»

    | Термин | Простое объяснение | Пример | |---|---|---| | AI | широкий набор методов «умного» поведения | планирование маршрута, распознавание речи | | ML | AI, который учится на данных | фильтр спама | | DL | ML на нейросетях | распознавание объектов на фото | | Обучение | настройка модели на данных | модель учится отличать спам | | Инференс | применение модели | проверка нового письма | | Метрика | число для оценки качества | доля верных ответов |

    Что дальше по курсу

    В следующих материалах обычно переходят от терминов к практике:

  • как устроены данные для ML (признаки и метки)
  • как измерять качество (и почему «точность» не всегда главное)
  • почему модели ошибаются и как снижать риск переобучения
  • Источники для ориентира

  • Artificial intelligence (Wikipedia)
  • Machine learning (Wikipedia)
  • Deep learning (Wikipedia)
  • NIST AI Risk Management Framework (AI RMF 1.0)
  • OECD AI Principles
  • 2. Данные для AI: сбор, подготовка и качество

    Данные для AI: сбор, подготовка и качество

    Как эта тема связана с предыдущей

    В прошлой статье мы разобрали, что AI чаще всего решает задачи предсказания, распознавания и генерации, а модели учатся по данным. Теперь важный шаг: понять, какие данные нужны, как их собрать, как подготовить и как проверять качество, чтобы модель работала надёжно.

    > Практическое правило: качество AI-решения почти всегда ограничено качеством данных.

    Что такое данные для AI на практике

    Данные для AI обычно хранятся как набор примеров.

  • Пример (sample) — один объект, по которому мы хотим сделать предсказание (например, один клиент, одно письмо, один снимок).
  • Признаки (features) — то, что мы знаем про пример и подаём на вход модели (возраст, текст письма, пиксели изображения).
  • Метка (label) — правильный ответ для обучения, если задача с учителем (например, «спам/не спам»).
  • Часто данные выглядят как таблица.

    | Понятие | Как выглядит | Пример | |---|---|---| | Строка | один пример | один клиент | | Столбец | один признак | город, возраст | | Отдельный столбец-ответ | метка | купил/не купил |

    Но данные могут быть и нетабличными.

  • Текст (сообщения, документы)
  • Изображения и видео
  • Аудио (звонки)
  • Временные ряды (датчики, финансы)
  • Источники данных

    Источники выбирают так, чтобы признаки действительно помогали решать задачу и были доступны в момент инференса (когда модель используется на новых данных).

  • Внутренние системы: CRM, покупки, лог-файлы, обращения в поддержку
  • Партнёрские данные: при наличии договора и законных оснований
  • Открытые данные: государственные порталы, открытые наборы данных
  • Сбор с продукта: события (клики, просмотры), анкеты, формы
  • Разметка людьми: когда меток нет или они ненадёжны
  • Сбор данных: что продумать заранее

    Определите цель и единицу наблюдения

    Частая ошибка — собирать «всё подряд», а потом пытаться понять, что с этим делать.

  • Сформулируйте задачу: что предсказываем и зачем.
  • Выберите единицу наблюдения: клиент, заказ, день, письмо, изображение.
  • Уточните период: какие даты нужны и почему.
  • Зафиксируйте, какие признаки будут известны в реальном использовании.
  • Легальность и конфиденциальность

    Если в данных есть информация о человеке, добавляется слой требований: закон, политика компании, безопасность.

  • Персональные данные — любая информация, которая прямо или косвенно относится к человеку.
  • Минимизация — собирайте только то, что нужно для задачи.
  • Доступы — кто имеет право видеть данные и в каком виде.
  • Полезный ориентир по требованиям в ЕС: General Data Protection Regulation (GDPR).

    Разметка (получение меток)

    Если меток нет, их создают.

  • Описывают чёткую инструкцию разметчику: что считать «спамом», как обрабатывать спорные случаи.
  • Делают примеры «правильно/неправильно».
  • Проверяют согласованность разметки: совпадают ли ответы разных людей.
  • Сохраняют правила и версии инструкции, потому что со временем критерии меняются.
  • Подготовка данных: типовые шаги

    Подготовка данных называется предобработкой (data preprocessing). Цель — сделать данные пригодными для обучения модели и уменьшить количество ошибок из-за «грязи» в исходных источниках. См. обзорное понятие: Data preprocessing.

    !Пайплайн от источников данных до обучения и мониторинга

    Очистка

  • Удаление дублей (один и тот же пример не должен «размножаться»)
  • Исправление явных ошибок (например, отрицательный возраст)
  • Приведение форматов (даты, валюты, единицы измерения)
  • Работа с пропусками

    Пропуски бывают по разным причинам: данные не собрали, поле не заполнили, датчик был выключен.

  • Иногда пропуск можно заменить (например, медианой, самым частым значением)
  • Иногда пропуск сам по себе важен (например, «поле не заполнено» как сигнал)
  • Иногда пример лучше удалить (если критических полей нет)
  • Важно: правило обработки пропусков должно одинаково применяться и при обучении, и при реальном использовании модели.

    Приведение категорий к единому виду

    Категориальные значения часто «шумят».

  • Москва, г. Москва, Moscow — одно и то же, но записано по-разному
  • «м/ж», «муж», «male» — тоже
  • Обычно делают справочник нормализации (маппинг) и применяют его автоматически.

    Подготовка текста, изображений, временных рядов

    На этом курсе достаточно понимать идею: разные типы данных нужно привести к виду, который модель может «переварить».

  • Текст: очистка мусора, приведение регистра, удаление технических вставок
  • Изображения: одинаковый размер, корректный формат, проверка битых файлов
  • Временные ряды: одинаковый шаг времени, обработка выбросов датчиков
  • Разделение данных: train, validation, test

    Чтобы честно оценивать качество модели, данные делят на части.

  • Обучающая выборка (train) — на ней модель учится.
  • Валидационная (validation) — на ней подбирают настройки, сравнивают варианты.
  • Тестовая (test) — финальная проверка, которую стараются не трогать в процессе.
  • Ключевой риск здесь — утечка данных.

    Что такое утечка данных

    Утечка данных (data leakage) — когда в обучение попадает информация, которая в реальной жизни недоступна на момент предсказания, или когда один и тот же объект оказывается и в обучении, и в тесте.

    Примеры:

  • В задаче «предсказать просрочку по кредиту» в признаки случайно добавили поле «дата передачи дела коллекторам».
  • В задаче по фотографиям один и тот же человек попал и в train, и в test (модель «узнала» человека, а не научилась общему правилу).
  • Результат: метрики выглядят отлично, но в реальности модель резко хуже.

    Про базовую идею разделения данных можно почитать: Training, validation, and test data sets.

    Качество данных: что проверять

    Качество данных — это не одно число, а набор свойств. Важно проверять их до обучения и после, когда данные начинают поступать в продакшене.

    Основные измерения качества

  • Полнота: сколько пропусков и насколько они критичны
  • Точность: соответствуют ли значения реальности (например, корректные ли суммы)
  • Согласованность: нет ли противоречий (например, дата доставки раньше даты заказа)
  • Актуальность: не устарели ли данные для задачи
  • Уникальность: нет ли дублей
  • Репрезентативность: похожи ли данные на реальные будущие случаи
  • Репрезентативность и смещения

    Если данные перекошены, модель перенимает перекос.

    Примеры:

  • В данных поддержки 90% обращений только на русском — модель плохо отвечает на других языках.
  • В данных по дефектам на заводе мало примеров редкого, но опасного дефекта — модель его почти не распознаёт.
  • Минимальные меры:

  • Проверять распределения по важным группам (регионы, типы клиентов, типы устройств)
  • Явно добирать недостающие случаи
  • Разделять метрики по группам, а не смотреть только среднее
  • Документация и воспроизводимость

    Чтобы AI-решение можно было поддерживать, важно фиксировать, что именно было сделано с данными.

    Что стоит сохранять

  • Источники данных и даты выгрузок
  • Определения признаков и меток
  • Версии наборов данных (что изменилось и почему)
  • Правила очистки и разметки
  • Это экономит недели времени, когда нужно обновить модель или разобраться, почему качество упало.

    Мониторинг данных после внедрения

    Даже если модель работала хорошо на тесте, со временем мир меняется.

  • Сдвиг данных (data drift) — входные данные стали другими (например, изменилось поведение пользователей).
  • Сдвиг цели (concept drift) — изменилось само правило «что считается правильным» (например, мошенники поменяли тактику).
  • Что обычно мониторят:

  • Долю пропусков и дублей
  • Распределения ключевых признаков (стало ли «не как раньше»)
  • Долю новых категорий (новые устройства, новые города)
  • Качество на свежих размеченных данных (если возможно)
  • Мини-чеклист перед обучением модели

  • Понятно, что предсказываем, и единица наблюдения определена.
  • Признаки доступны в момент инференса.
  • Метки определены и получены одинаковым правилом.
  • Нет утечек между train/validation/test.
  • Есть базовые проверки качества (пропуски, дубли, диапазоны значений).
  • Данные репрезентативны или есть план, как это исправлять.
  • Что дальше по курсу

    Следующий логичный шаг — научиться измерять качество моделей и интерпретировать ошибки: почему одной точности недостаточно и как выбирать метрики под задачу.

    3. Машинное обучение: обучение с учителем, без учителя и оценка моделей

    Машинное обучение: обучение с учителем, без учителя и оценка моделей

    Как эта тема связана с предыдущими статьями

    В первой статье мы разобрали, что AI решает разные типы задач (классификация, регрессия, рекомендации, кластеризация) и что многие решения строятся на ML — моделях, которые учатся по данным. Во второй статье мы обсудили, как собрать и подготовить данные, как избежать утечек и почему важно качество.

    Теперь соберём это в цельную картину:

  • какие бывают основные типы обучения в машинном обучении
  • как понять, какой тип подходит вашей задаче
  • как оценивать модель, чтобы метрики не обманули
  • Справка: Supervised learning, Unsupervised learning.

    Что такое машинное обучение простыми словами

    Машинное обучение (ML, Machine Learning) — это подход, при котором модель ищет закономерности в данных и использует их, чтобы делать предсказания или группировки.

    Важно различать:

  • алгоритм — «рецепт», как учиться (например, дерево решений)
  • модель — результат обучения на конкретных данных (например, дерево, обученное на ваших клиентах)
  • Обучение с учителем

    Идея

    Обучение с учителем — это когда у нас есть примеры вида вход → правильный ответ.

  • вход — признаки (то, что известно)
  • правильный ответ — метка (то, что хотим предсказывать)
  • Примеры:

  • письмо → метка «спам/не спам»
  • характеристики квартиры → метка «цена»
  • транзакция → метка «мошенничество/норма»
  • Два главных типа задач

  • Классификация: предсказываем класс (категорию)
  • Регрессия: предсказываем число
  • Как это обычно выглядит в проекте

  • Формулируем цель и метку (что считаем «правильным ответом»)
  • Собираем данные и готовим признаки (очистка, пропуски, форматы)
  • Делим данные на train/validation/test
  • Обучаем модель на train
  • Подбираем настройки по validation
  • Проверяем итог на test
  • Анализируем ошибки и принимаем решение о внедрении
  • Обучение без учителя

    Идея

    Обучение без учителя — это когда у данных нет правильных ответов (нет меток), и мы хотим найти структуру: группы, закономерности, «похожие» объекты.

    Типичные задачи

  • Кластеризация: группируем похожие объекты
  • - пример: сегментация клиентов по поведению
  • Снижение размерности: сжимаем данные, сохраняя смысловую структуру
  • - пример: визуализация сложных данных в 2D для анализа
  • Поиск аномалий (часто относят к безучительному или полуучительному подходу): ищем нетипичные случаи
  • Важно: в безучительном обучении результат часто требует человеческой интерпретации — модель может выделить кластеры, но бизнес должен понять, что они означают.

    Как выбрать тип обучения под задачу

    | Вопрос | Если ответ «да» | Что чаще подходит | |---|---|---| | Есть ли у нас метка (правильный ответ) для каждого примера? | Да | Обучение с учителем | | Хотим автоматически группировать/сегментировать без заранее заданных классов? | Да | Обучение без учителя | | Метки есть, но их мало, и они дорогие? | Да | Часто используют комбинации подходов (в рамках курса достаточно знать, что так бывает) |

    > Практическое правило: если вы можете чётко определить метку и получить её надёжно, обучение с учителем обычно даёт более предсказуемое качество.

    Оценка моделей: зачем она нужна

    Без оценки легко получить ситуацию, когда «на бумаге всё идеально», а в реальности модель бесполезна.

    Оценка отвечает на вопросы:

  • насколько хорошо модель работает на новых данных
  • какие типы ошибок она делает
  • что важнее: пропускать меньше ошибок одного типа или другого
  • Базовые принципы честной оценки

  • Разделяйте данные на train/validation/test, чтобы не проверять модель на том, на чём она училась
  • Следите за утечками данных: в признаках не должно быть информации из будущего или из «ответа»
  • Сравнивайте с базовой линией (baseline): простое правило, с которым модель обязана быть лучше
  • - пример baseline: «всегда предсказывать самый частый класс»

    !Схема показывает, как данные делятся на части и где проводится обучение и оценка

    Что такое кросс-валидация

    Иногда данных мало. Тогда вместо одного разбиения делают несколько разбиений и усредняют результат. Это называется кросс-валидация.

    Справка: Cross-validation.

    Метрики для классификации

    Матрица ошибок

    Чтобы понимать какие именно ошибки делает модель, часто используют матрицу ошибок (confusion matrix).

    Для двоичной классификации (например, «мошенничество/норма») есть четыре ситуации:

  • TP (true positive): предсказали «да», и это действительно «да»
  • FP (false positive): предсказали «да», но на самом деле «нет» (ложная тревога)
  • TN (true negative): предсказали «нет», и это действительно «нет»
  • FN (false negative): предсказали «нет», но на самом деле «да» (пропуск)
  • !Матрица ошибок помогает увидеть, каких ошибок больше: ложных тревог или пропусков

    Accuracy (доля верных ответов) и почему её часто недостаточно

    Accuracy — это доля примеров, где модель угадала правильно.

    Проблема: если классы сильно неравны (например, 99% «норма» и 1% «мошенничество»), модель может всегда говорить «норма» и получить 99% accuracy, но быть бесполезной.

    Precision и Recall

    Когда важен редкий класс (мошенничество, болезнь, дефект), обычно смотрят precision и recall.

  • Precision (точность) отвечает на вопрос: если модель сказала «да», как часто она права?
  • Recall (полнота) отвечает на вопрос: из всех настоящих «да» сколько мы нашли?
  • Формулы:

    Пояснения к обозначениям:

  • — число случаев «верно нашли положительный класс»
  • — число случаев «ложная тревога»
  • — число случаев «пропуск положительного класса»
  • — все случаи, где модель предсказала «да»
  • — все случаи, где в реальности было «да»
  • Справка: Precision and recall.

    F1-мера как баланс между precision и recall

    Иногда нужен один показатель, который учитывает оба типа ошибок. Тогда используют F1.

    Пояснения:

  • — точность
  • — полнота
  • числитель делает метрику высокой, только если обе части достаточно высокие
  • знаменатель нормирует значение
  • ROC-AUC и PR-AUC (когда модель выдаёт вероятность)

    Многие модели выдают не «да/нет», а вероятность. Тогда можно менять порог решения и смотреть качество по кривым.

  • ROC-AUC часто используют как общий показатель разделимости классов
  • PR-AUC часто полезнее при сильном дисбалансе классов
  • Справка: Receiver operating characteristic, Precision-recall curve.

    Метрики для регрессии

    В регрессии мы предсказываем число (например, цену или спрос). Ошибка — это разница между:

  • — реальным значением
  • — предсказанием модели
  • Две самые популярные метрики:

  • MAE (mean absolute error): средняя абсолютная ошибка, проще интерпретировать в единицах измерения (рубли, минуты)
  • MSE (mean squared error): средняя квадратичная ошибка, сильнее штрафует большие промахи
  • Если цена большой ошибки особенно высока (например, критические просадки прогноза), MSE может быть полезнее. Если важна понятность «в среднем ошибаемся на N», часто выбирают MAE.

    Как оценивать результаты без учителя

    В безучительном обучении нет «правильных ответов», поэтому оценка обычно комбинирует методы:

  • внутренние метрики (например, насколько кластеры компактны и отделимы)
  • проверка здравым смыслом и экспертом: можно ли объяснить группы, есть ли практическая польза
  • проверка на прикладную цель: например, сегменты клиентов должны отличаться по конверсии, среднему чеку или удержанию
  • Анализ ошибок: что делать после метрик

    Метрика — это итоговое число, но улучшения обычно начинаются с анализа ошибок.

    Что полезно сделать:

  • посмотреть примеры, где модель ошиблась, и найти повторяющиеся причины
  • проверить качество разметки (частая причина «потолка» качества)
  • посчитать метрики по группам (регионы, устройства, типы клиентов), чтобы увидеть перекосы
  • убедиться, что признаки доступны на инференсе и не содержат «будущего»
  • Подробный справочник по оценке в практике: Model evaluation (scikit-learn).

    Мини-чеклист по ML: от выбора подхода до оценки

  • Понятно, что предсказываем (метка) или что хотим найти (группы/структуру)
  • Признаки доступны в реальном использовании
  • Данные разделены на train/validation/test без утечек
  • Выбраны метрики, которые отражают цену ошибок
  • Есть baseline для сравнения
  • Сделан анализ ошибок, а не только «посмотрели одно число»
  • Что дальше по курсу

    Логичное продолжение после этой темы:

  • как выбирать признаки (feature engineering) и почему иногда простые признаки дают большой прирост
  • как подбирать порог для вероятностей под бизнес-цену ошибок
  • как мониторить качество модели и данных после внедрения
  • 4. Нейросети и глубокое обучение: базовые архитектуры и принципы

    Нейросети и глубокое обучение: базовые архитектуры и принципы

    Как эта тема связана с предыдущими статьями

    Ранее в курсе мы разобрали:

  • что такое AI и какие задачи он решает (классификация, регрессия, рекомендации)
  • как данные превращаются в признаки и метки, почему важны качество и отсутствие утечек
  • как оценивать ML-модели метриками и анализировать ошибки
  • Теперь логичный следующий шаг: понять, что такое нейросети и глубокое обучение, почему они стали основой многих современных AI-систем (особенно для текста, изображений и речи), и как устроены их базовые архитектуры.

    Что такое нейросеть простыми словами

    Искусственная нейронная сеть — это модель, которая состоит из простых вычислительных блоков (нейронов), соединённых в слои. Во время обучения сеть подбирает параметры так, чтобы по входным данным получать правильный выход.

    Важно: нейросеть не хранит ответы в виде базы знаний. Она учится распознавать закономерности в данных через настройку множества чисел-параметров.

    Справка: Искусственная нейронная сеть.

    Что означает глубокое обучение

    Глубокое обучение (Deep Learning) — это подход в машинном обучении, где используются нейросети с большим числом слоёв. Глубина даёт сети возможность строить более сложные представления данных.

    Примеры интуитивно:

  • в изображении ранние слои могут учиться выделять края и простые формы, а поздние — собирать их в объекты
  • в тексте ранние слои могут ловить локальные закономерности, а поздние — смысловые зависимости
  • Справка: Глубокое обучение.

    Из чего состоит нейросеть

    Нейрон, веса и смещение

    Упрощённо нейрон делает две вещи:

  • Смешивает входные числа (признаки) с помощью обучаемых коэффициентов.
  • Пропускает результат через нелинейное преобразование.
  • Эту идею часто записывают так:

    Разберём каждый элемент:

  • — входной признак номер (например, возраст, длина текста, значение пикселя)
  • вес для признака (число, которое нейросеть подбирает при обучении)
  • — суммирование по всем входным признакам от 1 до
  • смещение (ещё один обучаемый параметр, который помогает сдвигать результат)
  • функция активации, добавляющая нелинейность
  • — выход нейрона (предсказание или промежуточное значение)
  • Если формулы кажутся лишними, можно запомнить проще: нейрон берёт входы, умножает на важность каждого входа, складывает, а потом применяет преобразование.

    !Как нейрон превращает входные признаки в выход

    Слои

    Нейросеть обычно состоит из:

  • входного слоя: принимает признаки
  • скрытых слоёв: преобразуют данные шаг за шагом
  • выходного слоя: выдаёт ответ
  • Термин скрытый означает, что эти слои не являются ни входом, ни финальным ответом.

    Зачем нужна функция активации

    Если в нейросети не использовать нелинейность, то даже много слоёв будут работать как одно большое линейное преобразование, и сеть не сможет выучить сложные зависимости.

    Популярные функции активации:

  • ReLU: часто используется в сетях для изображений и табличных данных
  • sigmoid: часто применяют для вероятности в двоичной классификации на выходе
  • softmax: часто применяют на выходе для выбора одного класса из нескольких
  • Справка: Функция активации.

    Как нейросеть обучается

    Предсказание, ошибка и функция потерь

    Во время обучения сеть получает обучающий пример:

  • вход: признаки
  • правильный ответ: метка
  • Затем она:

  • Делает предсказание.
  • Считает, насколько ошиблась.
  • Число, которое измеряет ошибку, называется функцией потерь (loss).

    Примеры потерь на уровне идеи:

  • для регрессии: насколько далеко предсказанное число от реального
  • для классификации: насколько сеть уверена в правильном классе
  • Градиентный спуск и обратное распространение ошибки

    Чтобы улучшить качество, нужно понять, как менять веса и смещение , чтобы уменьшать loss.

    Для этого обычно используют два связанных понятия:

  • градиентный спуск — способ шаг за шагом уменьшать ошибку, двигаясь в сторону улучшения параметров
  • обратное распространение ошибки (backpropagation) — способ эффективно посчитать, как именно каждый вес влияет на loss
  • Практически это выглядит так:

  • Прогнали данные вперёд, получили предсказание и loss.
  • Прогнали ошибку назад по сети, посчитали, как менять параметры.
  • Чуть обновили параметры.
  • Повторили много раз.
  • Справка: Градиентный спуск, Backpropagation.

    Эпохи, батчи и learning rate

    Три термина, которые встречаются почти всегда:

  • эпоха (epoch) — один полный проход по обучающим данным
  • батч (batch) — небольшой кусок данных, на котором делают один шаг обновления
  • скорость обучения (learning rate) — насколько сильно меняем параметры за один шаг
  • Слишком большая скорость обучения может сделать обучение нестабильным, слишком маленькая — очень медленным.

    Базовые архитектуры нейросетей

    Полносвязная сеть

    Полносвязная сеть означает, что каждый нейрон слоя соединён со всеми нейронами следующего слоя.

    Где часто применяют:

  • табличные данные
  • простые признаки после предобработки
  • Плюсы:

  • проще начать и объяснить
  • Минусы:

  • плохо использует структуру изображений и последовательностей, может требовать много параметров
  • Справка: Multilayer perceptron.

    Сверточная сеть

    Сверточная нейросеть (CNN) — архитектура, которая эффективно работает с изображениями, потому что умеет искать локальные паттерны (например, края, текстуры) и делать это одинаково по всему изображению.

    Интуиция простыми словами:

  • маленький фильтр скользит по картинке и реагирует на определённые фрагменты
  • сеть учится, какие фильтры полезны
  • Где применяют:

  • классификация изображений
  • поиск объектов на фото и видео
  • анализ медицинских снимков (как поддержка специалиста)
  • Справка: Convolutional neural network.

    Рекуррентная сеть

    Рекуррентная нейросеть (RNN) — архитектура для последовательностей, где важен порядок элементов.

    Примеры последовательностей:

  • текст как последовательность слов или токенов
  • аудио как последовательность фрагментов
  • временной ряд датчика
  • Проблема классических RNN: им сложно удерживать очень длинные зависимости. Поэтому часто используют улучшения вроде LSTM.

    Справка: Recurrent neural network, Long short-term memory.

    Трансформер

    Трансформер (Transformer) — архитектура, которая стала основой современных моделей для текста, включая большие языковые модели.

    Ключевая идея трансформера: механизм внимания (attention) помогает модели определять, какие части входа важнее для текущего шага обработки.

    Почему это важно:

  • модель лучше работает с длинными текстами
  • обучение хорошо параллелится на современном железе
  • Справка: Transformer (deep learning architecture)).

    !Сравнение основных архитектур нейросетей

    Почему нейросети требуют хороших данных и как это связано с переобучением

    Из прошлых статей важны два факта:

  • нейросети учатся на данных и могут унаследовать проблемы качества данных
  • качество на обучении не гарантирует качество на новых данных
  • Переобучение (overfitting) в нейросетях встречается часто, потому что у них может быть очень много параметров.

    Типичные меры, которые уменьшают переобучение:

  • больше и разнообразнее данные
  • честное разделение на train, validation, test без утечек
  • ранняя остановка обучения по validation-качеству
  • регуляризация и специальные техники, например dropout
  • Справка: Overfitting, Dropout.

    Как выбирать архитектуру под задачу

    | Тип данных и задачи | Что обычно пробуют в первую очередь | Почему | |---|---|---| | Табличные признаки, прогноз числа или класса | Полносвязные сети или классические ML-модели | Часто достаточно простых подходов, быстрее итерации | | Изображения и видео | CNN и их варианты | Учитывают пространственную структуру | | Временные ряды, последовательности | RNN или Transformer | Важен порядок и контекст | | Текст, поиск по документам, генерация | Transformer | Хорошо работает с контекстом и масштабируется |

    Практическое правило: начинать стоит с простого baseline, а нейросети подключать, когда они действительно дают выигрыш или без них качество недостижимо.

    Мини-чеклист перед тем, как делать нейросетевой прототип

  • Вы чётко сформулировали задачу и метку.
  • Вы уверены, что признаки доступны в момент инференса.
  • Данные разделены на train, validation, test без утечек.
  • Вы выбрали метрики под цену ошибок, а не только accuracy.
  • У вас есть baseline, который нейросеть должна обогнать.
  • Вы заранее решили, как будете мониторить качество после внедрения.
  • Что дальше

    После понимания архитектур логично перейти к практике принятия решений:

  • как выбирать и готовить признаки для нейросетей в разных типах данных
  • как подбирать пороги и оптимизировать precision и recall под бизнес-цену ошибок
  • как мониторить сдвиг данных и деградацию качества в продакшене
  • 5. Практика и ответственность: инструменты, ограничения, этика и безопасность

    Практика и ответственность: инструменты, ограничения, этика и безопасность

    Как эта тема связана с предыдущими статьями

    Ранее в курсе мы разобрали:

  • что такое AI и какие задачи он решает
  • почему данные и их качество критичны
  • как обучают ML-модели и оценивают их метриками
  • как устроены нейросети и почему они могут переобучаться
  • Теперь важный практический слой: как делать AI “по-взрослому” — с понятными инструментами, учётом ограничений, ответственностью, этикой и безопасностью.

    > Практическое правило: AI-система — это не только модель, но и данные, код, инфраструктура, процессы проверки и правила использования.

    Минимальный набор инструментов в AI-проекте

    Ниже — “скелет” инструментов, который чаще всего встречается в реальной разработке.

    Среда для экспериментов

  • Jupyter Notebook или JupyterLab — удобно пробовать идеи и строить прототипы
  • Python как основной язык для прикладного ML
  • Контроль версий Git — фиксирует изменения кода и помогает работать командой
  • Полезные ориентиры:

  • Project Jupyter
  • Git
  • Библиотеки для классического ML

  • pandas — работа с таблицами
  • numpy — вычисления с массивами
  • scikit-learn — обучение моделей, метрики, разбиения данных, пайплайны
  • Важно: пайплайн в ML — это последовательность шагов, которая одинаково применяется при обучении и при использовании модели (например, “заполнить пропуски → закодировать категории → обучить модель”). Это снижает риск ошибок и утечек.

    Документация:

  • scikit-learn
  • Библиотеки для глубокого обучения

  • PyTorch и TensorFlow — основные фреймворки для нейросетей
  • Документация:

  • PyTorch
  • TensorFlow
  • Инструменты для воспроизводимости и “MLOps”

    MLOps — это практики, которые помогают надёжно внедрять и поддерживать модели (как DevOps, но для машинного обучения).

    Что обычно используют:

  • хранение и версии данных и моделей
  • журналирование экспериментов (какая версия данных, какие настройки, какая метрика)
  • автоматические проверки качества и развёртывания
  • мониторинг качества и входных данных в продакшене
  • В этой статье важно не запоминать конкретные продукты, а понимать, зачем нужны процессы: чтобы результат можно было повторить и безопасно поддерживать.

    !Цикл AI-решения с точками контроля качества и рисков

    Ограничения AI: что модели не гарантируют

    Даже хорошие модели имеют ограничения. Их важно знать заранее, чтобы не строить завышенных ожиданий.

    Ошибки неизбежны

  • модель выдаёт вероятностный результат и иногда ошибается
  • метрики на тесте показывают “среднюю картину”, но в редких кейсах могут быть провалы
  • Практика:

  • заранее определить, какие ошибки наиболее опасны
  • проверять качество по группам (регионы, типы клиентов, устройства), а не только “в среднем”
  • Модель зависит от данных и меняющегося мира

    Даже если всё было хорошо на тесте, дальше возможны два типичных сценария.

  • Сдвиг данных — входные данные стали другими (например, изменилось поведение пользователей)
  • Сдвиг смысла — изменилось правило “что считается правильным” (например, мошенники сменили тактику)
  • Практика:

  • мониторить распределения ключевых признаков
  • регулярно проверять качество на свежих размеченных данных (если это возможно)
  • Генеративные модели и “уверенные ошибки”

    Большие языковые модели могут:

  • давать правдоподобный, но неверный ответ
  • “додумывать” детали, если не хватает контекста
  • Практика:

  • требовать ссылки на источники, если это уместно
  • отделять режим черновика от режима официального ответа
  • использовать проверку правилами, поиском по базе знаний, человеком
  • Ответственность: как сделать AI-систему управляемой

    Ответственность — это не абстракция. Это конкретные решения в процессе разработки.

    Чёткая постановка задачи и границы применения

    Хорошая формулировка включает:

  • что модель делает (например, “оценивает вероятность мошенничества”)
  • где модель не должна использоваться (например, “не является юридическим решением”)
  • что делать при низкой уверенности (например, “отправить на ручную проверку”)
  • Человек в контуре

    Человек в контуре означает, что в критичных местах решение подтверждает сотрудник.

    Когда это часто нужно:

  • высокая цена ошибки (медицина, безопасность, финансы)
  • юридически значимые решения
  • редкие случаи, где данных мало и модель нестабильна
  • Документация: чтобы система была объяснимой для команды

    Два полезных подхода к документации:

  • описание набора данных: откуда данные, как собраны, какие ограничения
  • описание модели: для чего она, какие метрики, какие известные риски, как использовать
  • Даже простая страница “что это и как правильно применять” снижает число неправильных применений.

    Ориентиры по управлению рисками:

  • NIST AI Risk Management Framework
  • Этика в AI: что важно в прикладных проектах

    Этика — это про снижение вреда и повышение справедливости. На практике чаще всего обсуждают четыре темы.

    Справедливость и смещения

    Смещение — это ситуация, когда данные или процесс принятия решений “перекошены”, и модель перенимает этот перекос.

    Примеры:

  • в данных мало примеров по части регионов, и качество там заметно хуже
  • исторические решения людей были предвзяты, и модель начинает повторять эту предвзятость
  • Практика:

  • проверять метрики по группам
  • улучшать сбор данных для недопредставленных случаев
  • обсуждать с бизнесом, какие различия допустимы, а какие нет
  • Ориентир по принципам:

  • OECD AI Principles
  • Прозрачность и честные ожидания

    Пользователь и бизнес должны понимать:

  • что используется AI
  • какие у него ограничения
  • что делать при ошибках
  • Прозрачность снижает риск неправильного доверия к системе.

    Конфиденциальность и персональные данные

    Если в данных есть информация о человеке, важны:

  • минимизация (собирать только необходимое)
  • ограничение доступов
  • безопасное хранение
  • законность использования
  • Ориентир по регулированию в ЕС:

  • GDPR
  • Авторское право и лицензии

    В практике важно:

  • проверять лицензии на данные и модели
  • понимать, можно ли использовать контент в коммерческом продукте
  • хранить информацию об источниках датасетов
  • В этом курсе достаточно запомнить: юридические риски часто появляются не в модели, а в данных и способе их использования.

    Безопасность AI: типовые угрозы и базовые меры

    Безопасность касается не только серверов и паролей. AI добавляет специфические риски.

    Утечки данных через модель и логи

    Риски:

  • в логах случайно сохраняются персональные данные
  • модель может “воспроизвести” фрагменты чувствительной информации, если обучалась на ней
  • Базовые меры:

  • не логировать лишнее, маскировать чувствительные поля
  • разделять среды (разработка, тест, продакшен)
  • контролировать доступ к данным и журналам
  • Атаки на данные и обучение

    Риски:

  • отравление данных: в обучающие данные попадают специально испорченные примеры
  • подмена разметки: метки становятся систематически неверными
  • Базовые меры:

  • контроль источников данных
  • проверки качества и аномалий в данных
  • версионирование наборов данных и разметки
  • Уязвимости приложений с LLM

    Если вы делаете приложение с языковой моделью, появляются отдельные риски:

  • инъекции в запросы: пользователь пытается заставить систему нарушить правила
  • утечка инструкций: модель раскрывает внутренние подсказки и конфигурацию
  • опасные действия: модель инициирует действия, которые нельзя выполнять без проверки
  • Базовые меры:

  • жёстко разделять “данные пользователя” и “системные инструкции”
  • ограничивать доступ модели к инструментам (файлам, базе, платежам)
  • добавлять проверки и подтверждения для критичных действий
  • Ориентир по угрозам для LLM-приложений:

  • OWASP Top 10 for LLM Applications
  • Практический чеклист перед запуском AI в продукт

    Качество и применимость

  • есть baseline и понятно, что модель лучше него
  • метрики соответствуют цене ошибок
  • проверено качество по важным группам пользователей
  • Данные и воспроизводимость

  • нет утечек между train/validation/test
  • зафиксированы версии данных, кода и настроек
  • понятно, откуда берутся признаки в момент инференса
  • Риски и защита

  • определены ограничения и сценарии отказа (например, ручная проверка)
  • настроены логи без чувствительных данных
  • есть мониторинг входных данных и качества
  • Что дальше после этой статьи

    После понимания инструментов, ограничений, этики и безопасности обычно переходят к более прикладным темам:

  • как проектировать AI-функцию в продукте, чтобы ей правильно пользовались
  • как выбирать пороги вероятностей под цену ошибок
  • как организовать мониторинг и план обновления модели