На прошлой неделе в лаборатории abcd.host я тестировал интересную связку: локальный ИИ-агент на базе OpenClaw с подключением к Telegram. Результат оказался настолько полезным, что я решил поделиться подробной инструкцией с вами — особенно с теми, кто хочет запустить такого агента на сервере 24/7 без привязки к личному компьютеру.
Есть что-то по-настоящему приятное в том, чтобы запускать собственную ИИ-систему.
- Не арендовать интеллект с чьего-то сервера в Калифорнии.
- Не упираться в лимиты API.
- Не гадать, куда уходят ваши промпты.
Просто машина у вас дома или на вашем сервере — и она тихо думает.
В этом руководстве мы построим именно это: локального ИИ-агента, который работает на вашем железе и общается с вами через Telegram.
Стек выглядит следующим образом:
Telegram
↓
OpenClaw Agent Framework
↓
Ollama Inference Server
↓
Qwen 3.5 Local Model
Когда вы отправляете сообщение своему Telegram-боту, оно проходит через OpenClaw и попадает в Qwen 3.5, запущенную локально на вашей машине.
Никакого облака. Никаких подписок. Только программное обеспечение и любопытство.
Приступаем.
Что мы создаём
По окончании этого руководства у вас будет:
- Локальная модель Qwen 3.5, работающая на вашем компьютере или сервере
- OpenClaw, управляющий автономным ИИ-агентом
- Интерфейс Telegram-бота для общения с агентом из любой точки мира
- Персистентная личность ИИ и система памяти
По сути — ваш персональный ИИ-оператор.
И он работает на вашем железе.
Требования
Перед началом убедитесь, что ваша система соответствует следующим условиям:
1. Node.js 22+
OpenClaw требует современного Node.js runtime.
Проверьте версию:
node --version
Если версия ниже 22, установите последнюю с nodejs.org.
2. Ollama
Ollama — самый простой способ запускать локальные модели.
Установка:
curl -fsSL https://ollama.com/install.sh | sh
После установки убедитесь, что всё работает:
ollama --version
3. Аппаратное обеспечение
Модели Qwen масштабируются в зависимости от мощности вашей машины.
Типичные варианты:
| Модель | Требуется VRAM |
|---|---|
| qwen3.5:0.8b | ~2 ГБ |
| qwen3.5:1.5b | ~4 ГБ |
| qwen3.5:9b | ~8 ГБ |
| qwen3.5:32b | 24 ГБ+ |
Если вы работаете на ноутбуке или Apple Silicon, оптимальный выбор — 0.8b или 1.5b.
💡 Нет мощного локального железа? Модели до 9B комфортно работают на наших VPS-тарифах с 16+ ГБ RAM — агент будет доступен 24/7 без нагрузки на личный компьютер. Подробнее: abcd.host/vps
Шаг 1 — Установка OpenClaw
OpenClaw — это агентный фреймворк, который подключает вашу модель к инструментам, памяти и каналам связи.
Глобальная установка:
npm install -g openclaw
Проверка установки:
openclaw status
```
Вы должны увидеть что-то вроде:
```
OpenClaw status
Dashboard: http://127.0.0.1:18789
OS: macOS
Agents: 1
Memory: ready
Это подтверждает, что CLI работает.
Шаг 2 — Запуск модели Qwen локально
Теперь загружаем модель Qwen через Ollama.
Для лёгких конфигураций:
ollama pull qwen3.5:0.8b
Запустите модель один раз, чтобы убедиться, что она загружается:
ollama run qwen3.5:0.8b
```
Вы должны увидеть приглашение для ввода вопросов.
Как только это заработает, ваш локальный сервер моделей будет доступен по адресу:
```
http://localhost:11434
Именно к этому эндпоинту будет обращаться OpenClaw.
🔥 Для моделей 32B+ рекомендуем выделенные серверы с GPU — они обеспечат нужную производительность без компромиссов. Смотрите тарифы: abcd.host/dedicated
Шаг 3 — Запуск OpenClaw с Ollama (простой способ)
Современные версии Ollama включают хелпер, который автоматически настраивает OpenClaw.
Выполните:
ollama launch openclaw --model qwen3.5:0.8b
```
Эта команда автоматически делает несколько вещей:
- устанавливает конфигурацию OpenClaw
- подключает провайдера модели
- создаёт рабочее пространство агента
- запускает сервис шлюза OpenClaw
Вы увидите вывод примерно такого содержания:
```
Launching OpenClaw with qwen3.5:0.8b
OpenClaw is running
Web UI:
http://localhost:18789/#token=ollama
```
Ваш ИИ-агент теперь запущен.
---
## Шаг 4 — Доступ к дашборду OpenClaw
Откройте дашборд в браузере:
```
http://localhost:18789/#token=ollama
Этот интерфейс позволяет:
- управлять сессиями
- настраивать модели
- устанавливать инструменты («навыки»)
- просматривать логи
- управлять каналами
Можно считать это центром управления полётами для вашего ИИ-агента.
Шаг 5 — Тестирование локального агента
Вы можете взаимодействовать с агентом через терминальный интерфейс:
openclaw tui
```
Вы увидите что-то вроде:
```
Wake up, my friend!
Who are you?
На этом этапе модель отвечает напрямую через OpenClaw.
Ваш ИИ-агент официально ожил.
Шаг 6 — Установка Qwen как модели по умолчанию
Иногда сессия по умолчанию использует облачную модель вроде Gemini.
Чтобы переключиться на Qwen навсегда:
openclaw config set agents.main.defaults.model.primary "ollama/qwen3.5:0.8b"
Перезапустите шлюз:
openclaw gateway restart
```
Теперь каждая новая сессия будет использовать вашу локальную модель Qwen.
---
## Шаг 7 — Создание Telegram-бота
Теперь подключаем агента к Telegram.
Откройте Telegram и найдите:
**@BotFather**
Начните диалог и выполните:
```
/newbot
```
BotFather запросит:
1️⃣ Имя бота
2️⃣ Username бота
Пример:
```
Name: Kadaligogh
Username: kadaligoghbot
```
BotFather выдаст вам токен бота, который выглядит примерно так:
```
123456:ABCDEF123456abcdef
Скопируйте его.
Шаг 8 — Подключение Telegram к OpenClaw
Запустите настройку канала OpenClaw:
openclaw channels add telegram
```
Вставьте токен от BotFather при появлении запроса.
OpenClaw добавит его в ваш конфигурационный файл:
```
~/.openclaw/openclaw.json
Перезапустите шлюз:
openclaw gateway restart
```
---
## Шаг 9 — Привязка вашего аккаунта Telegram
OpenClaw требует привязки, чтобы гарантировать, что только вы управляете агентом.
Откройте Telegram и отправьте сообщение своему боту.
Например:
```
/start
```
Бот ответит примерно следующим:
```
Pairing code: Z2EDQKMK
Подтвердите привязку в терминале:
openclaw pairing approve telegram Z2EDQKMK
```
Ваш аккаунт Telegram теперь авторизован.
---
## Шаг 10 — Общение с вашим ИИ через Telegram
Теперь просто пишите своему боту.
Сообщения проходят следующий путь:
```
Telegram → OpenClaw Gateway → Ollama → Qwen → Ответ → Telegram
Теперь у вас есть полностью локальный ИИ-ассистент, доступный с вашего телефона.
Полезные команды OpenClaw
Статус системы
openclaw status
Просмотр логов в реальном времени
openclaw logs --follow
Перезапуск шлюза
openclaw gateway restart
```
**Начать новую сессию ИИ**
Внутри чата:
```
/new
```
**Смена модели**
```
/model ollama/qwen3.5:1.5b
Решение проблем
Device Signature Invalid
Выполните:
openclaw devices list
Подтвердите ожидающий запрос:
openclaw devices approve
Telegram Unsupported Type
Это происходит, когда бот получает неподдерживаемый контент.
Исправьте, отключив стриминг:
openclaw config set agents.main.streaming false
После этого перезапустите шлюз.
Gateway Not Reachable
Проверьте шлюз:
openclaw gateway probe
При необходимости перезапустите:
openclaw gateway restart
```
---
## Дополнительно: Задайте своему ИИ личность
Агенты OpenClaw могут загружать правила личности и поведения из файлов, например:
- `SOUL.md`
- `IDENTITY.md`
- `USER.md`
Пример философии для агента:
```
You are a technical AI developer.
You speak precisely and avoid casual language.
Your priority is actionable solutions and independent reasoning.
```
Это создаёт персистентный характер ИИ на протяжении всех сессий.
---
## Что можно построить дальше
Как только это заработает, OpenClaw становится чрезвычайно мощным инструментом.
Вы можете добавить:
- Инструменты веб-поиска
- Выполнение кода
- Чтение файлов
- Автономные циклы задач
- Голосовые интерфейсы
- Локальные базы знаний
Ваш Telegram-бот превращается в удалённый терминал для вашей ИИ-системы.
---
## Почему это важно
Запуск ИИ локально полностью меняет характер отношений.
Вместо:
```
Пользователь → API → Корпоративная модель
```
Вы получаете:
```
Пользователь → Личная инфраструктура → Интеллект
Готово! Модель принадлежит вам. Данные принадлежат вам.
И система агентов может развиваться в любом направлении, в каком вы захотите.
Запустите агента 24/7 на нашей инфраструктуре
Я специально тестировал этот стек на серверах abcd.host — и он работает без нареканий. Если вы хотите, чтобы ваш агент был доступен круглосуточно без нагрузки на личный компьютер, у нас есть подходящие решения:
- VPS abcd.host — отличный выбор для моделей до 9B. Тарифы с 16+ ГБ RAM обеспечивают комфортную работу агента без тормозов.
- Выделенные серверы abcd.host — для тех, кто хочет запускать тяжёлые модели 32B+ с GPU-ускорением и максимальной производительностью.
Развернули? Делитесь результатами — пишите нам или оставляйте комментарий. Всегда интересно видеть, что получается у наших пользователей.
Команда ABCD.HOST











