1. Настройка экосистемы: установка n8n и интеграция с локальными LLM и STT моделями
Настройка экосистемы: установка n8n и интеграция с локальными LLM и STT моделями
Добро пожаловать на курс «Автоматизация анализа отдела продаж с помощью n8n и локальных нейросетей». Это первая и фундаментальная статья, в которой мы заложим техническую основу для всего дальнейшего обучения. Наша конечная цель — создать систему, которая автоматически слушает звонки ваших менеджеров, транскрибирует их в текст, определяет, кто говорит (клиент или менеджер), и проводит глубокий анализ качества продаж.
Сегодня мы не будем писать сложные скрипты анализа, наша задача — построить «завод», на котором этот анализ будет производиться. Мы настроим оркестратор процессов (n8n) и подключим к нему «уши» (STT — Speech-to-Text) и «мозг» (LLM — Large Language Model).
Почему мы выбираем локальные решения?
В мире существуют мощные облачные решения, такие как OpenAI (ChatGPT, Whisper API) или Google Cloud. Однако для анализа отдела продаж локальный стек технологий часто выигрывает по трем причинам:
!Архитектура нашей локальной системы автоматизации
Инструментарий курса
Для реализации задуманного нам понадобятся три ключевых компонента:
* n8n — это мощная система автоматизации рабочих процессов (workflow automation tool). Она позволяет соединять различные приложения и сервисы с помощью визуального редактора узлов (nodes). В нашем случае n8n будет забирать аудиофайлы, отправлять их на распознавание и затем передавать текст на анализ. * Whisper (через Docker) — нейросеть от OpenAI для распознавания речи. Мы будем использовать её открытую версию, запущенную локально. * Ollama — инструмент для простого запуска больших языковых моделей (таких как Llama 3, Mistral) на локальном компьютере. Это будет наш аналитик.
Все эти инструменты мы будем запускать с помощью Docker. Если вы ранее не работали с Docker, представьте, что это способ упаковки программы вместе со всем, что ей нужно для работы, в изолированный контейнер. Это гарантирует, что если программа работает на моем компьютере, она заработает и на вашем.
Шаг 1: Подготовка среды и установка Docker
Прежде чем начать, убедитесь, что ваш компьютер соответствует минимальным требованиям. Для комфортной работы с локальными нейросетями желательно иметь: * Процессор: Современный Intel Core i5/i7 или AMD Ryzen 5/7. * Оперативная память: Минимум 16 ГБ (лучше 32 ГБ). * Видеокарта (GPU): NVIDIA с поддержкой CUDA (минимум 6-8 ГБ видеопамяти) значительно ускорит процесс, но для обучения можно использовать и мощный CPU (будет медленнее).
Вам необходимо установить Docker Desktop (для Windows/Mac) или Docker Engine (для Linux). Скачать их можно с официального сайта Docker.
Шаг 2: Установка n8n
Мы будем использовать n8n в режиме self-hosted. Самый простой способ запустить его — использовать команду в терминале. Откройте терминал (PowerShell в Windows или Terminal в macOS/Linux) и выполните следующую команду:
Разберем, что делает эта команда:
* docker run — команда запуска контейнера.
* -p 5678:5678 — пробрасывает порт. Это значит, что n8n будет доступен в вашем браузере по адресу http://localhost:5678.
* -v n8n_data:/home/node/.n8n — создает том (volume) для хранения данных, чтобы ваши настройки не пропали после перезагрузки.
После запуска перейдите в браузере по адресу http://localhost:5678 и пройдите простую регистрацию администратора.
Шаг 3: Настройка локального «мозга» (Ollama)
Ollama — это настоящий прорыв в мире локальных LLM. Она позволяет запускать модели одной командой.
При первом запуске Ollama скачает веса модели (несколько гигабайт). После загрузки вы сможете общаться с ней прямо в терминале. Но нам важно, что Ollama автоматически запускает локальный API сервер на порту 11434.
Чтобы проверить, доступна ли модель для n8n, вы можете отправить тестовый запрос, но пока достаточно знать, что сервер работает.
Расчет потребления памяти
Важно понимать, сколько ресурсов потребляют модели. Для оценки необходимой видеопамяти (VRAM) часто используют упрощенную формулу квантования. Если мы используем модель с квантованием 4-bit (стандарт для Ollama), формула выглядит так:
где: * — необходимый объем видеопамяти в Гигабайтах. * — количество параметров модели в миллиардах (например, для Llama-3-8B это 8). * — эмпирический коэффициент, учитывающий размер весов в 4-битном формате и накладные расходы на контекстное окно (KV-cache).
Например, для модели на 8 миллиардов параметров: ГБ. Значит, видеокарты с 6 ГБ памяти будет достаточно для запуска, но впритык.
Шаг 4: Настройка «ушей» (Whisper)
Для Whisper нам нужен сервис, который будет принимать аудиофайл по API и возвращать текст. Существует отличный проект whisper-asr-webservice. Запустим его через Docker.
Выполните в терминале:
* -p 9000:9000 — сервис будет доступен на порту 9000.
* -e ASR_MODEL=base — мы выбираем базовую модель. Для лучшего качества русского языка рекомендуется использовать small или medium, но они требуют больше ресурсов.
Теперь у нас есть API для транскрибации по адресу http://localhost:9000.
Шаг 5: Интеграция в n8n
Теперь самое интересное — соединить всё вместе. Мы создадим простейший сценарий в n8n, чтобы проверить связь.
!Пример тестового workflow в n8n
http://host.docker.internal:11434/api/generate (Обратите внимание: если n8n в Docker, а Ollama на хосте, используйте host.docker.internal вместо localhost).
* Body Content: JSON
* JSON:
"response": "Да, я готова...", поздравляю! Ваш n8n успешно управляет локальным искусственным интеллектом.Заключение
Мы успешно развернули экосистему для автоматизации. У нас есть: * n8n для управления процессами. * Ollama для интеллектуального анализа. * Whisper Service для превращения голоса в текст.
В следующей статье мы начнем работать с реальными аудиофайлами: научимся загружать их в n8n, правильно отправлять на Whisper и получать качественную расшифровку диалога.