Как запустить собственного ИИ-агента: OpenClaw + Qwen 3.5 + Telegram (полностью локально)

open claw qwen 3.5 telegram

На прошлой неделе в лаборатории abcd.host я тестировал интересную связку: локальный ИИ-агент на базе OpenClaw с подключением к Telegram. Результат оказался настолько полезным, что я решил поделиться подробной инструкцией с вами — особенно с теми, кто хочет запустить такого агента на сервере 24/7 без привязки к личному компьютеру.

Есть что-то по-настоящему приятное в том, чтобы запускать собственную ИИ-систему.

  1. Не арендовать интеллект с чьего-то сервера в Калифорнии.
  2. Не упираться в лимиты API.
  3. Не гадать, куда уходят ваши промпты.

Просто машина у вас дома или на вашем сервере — и она тихо думает.

В этом руководстве мы построим именно это: локального ИИ-агента, который работает на вашем железе и общается с вами через Telegram.

Стек выглядит следующим образом:

Telegram
↓
OpenClaw Agent Framework
↓
Ollama Inference Server
↓
Qwen 3.5 Local Model

Когда вы отправляете сообщение своему Telegram-боту, оно проходит через OpenClaw и попадает в Qwen 3.5, запущенную локально на вашей машине.

Никакого облака. Никаких подписок. Только программное обеспечение и любопытство.

Приступаем.


Что мы создаём

По окончании этого руководства у вас будет:

  • Локальная модель Qwen 3.5, работающая на вашем компьютере или сервере
  • OpenClaw, управляющий автономным ИИ-агентом
  • Интерфейс Telegram-бота для общения с агентом из любой точки мира
  • Персистентная личность ИИ и система памяти

По сути — ваш персональный ИИ-оператор.

И он работает на вашем железе.


Требования

Перед началом убедитесь, что ваша система соответствует следующим условиям:

1. Node.js 22+

OpenClaw требует современного Node.js runtime.

Проверьте версию:

node --version

Если версия ниже 22, установите последнюю с nodejs.org.


2. Ollama

Ollama — самый простой способ запускать локальные модели.

Установка:

curl -fsSL https://ollama.com/install.sh | sh

После установки убедитесь, что всё работает:

ollama --version

3. Аппаратное обеспечение

Модели Qwen масштабируются в зависимости от мощности вашей машины.

Типичные варианты:

МодельТребуется VRAM
qwen3.5:0.8b~2 ГБ
qwen3.5:1.5b~4 ГБ
qwen3.5:9b~8 ГБ
qwen3.5:32b24 ГБ+

Если вы работаете на ноутбуке или Apple Silicon, оптимальный выбор — 0.8b или 1.5b.

💡 Нет мощного локального железа? Модели до 9B комфортно работают на наших VPS-тарифах с 16+ ГБ RAM — агент будет доступен 24/7 без нагрузки на личный компьютер. Подробнее: abcd.host/vps


Шаг 1 — Установка OpenClaw

OpenClaw — это агентный фреймворк, который подключает вашу модель к инструментам, памяти и каналам связи.

Глобальная установка:

npm install -g openclaw

Проверка установки:

openclaw status
```

Вы должны увидеть что-то вроде:
```
OpenClaw status

Dashboard: http://127.0.0.1:18789
OS: macOS
Agents: 1
Memory: ready

Это подтверждает, что CLI работает.


Шаг 2 — Запуск модели Qwen локально

Теперь загружаем модель Qwen через Ollama.

Для лёгких конфигураций:

ollama pull qwen3.5:0.8b

Запустите модель один раз, чтобы убедиться, что она загружается:

ollama run qwen3.5:0.8b
```

Вы должны увидеть приглашение для ввода вопросов.

Как только это заработает, ваш локальный сервер моделей будет доступен по адресу:
```
http://localhost:11434

Именно к этому эндпоинту будет обращаться OpenClaw.

🔥 Для моделей 32B+ рекомендуем выделенные серверы с GPU — они обеспечат нужную производительность без компромиссов. Смотрите тарифы: abcd.host/dedicated


Шаг 3 — Запуск OpenClaw с Ollama (простой способ)

Современные версии Ollama включают хелпер, который автоматически настраивает OpenClaw.

Выполните:

ollama launch openclaw --model qwen3.5:0.8b
```

Эта команда автоматически делает несколько вещей:

- устанавливает конфигурацию OpenClaw
- подключает провайдера модели
- создаёт рабочее пространство агента
- запускает сервис шлюза OpenClaw

Вы увидите вывод примерно такого содержания:
```
Launching OpenClaw with qwen3.5:0.8b

OpenClaw is running

Web UI:
http://localhost:18789/#token=ollama
```

Ваш ИИ-агент теперь запущен.

---

## Шаг 4 — Доступ к дашборду OpenClaw

Откройте дашборд в браузере:
```
http://localhost:18789/#token=ollama

Этот интерфейс позволяет:

  • управлять сессиями
  • настраивать модели
  • устанавливать инструменты («навыки»)
  • просматривать логи
  • управлять каналами

Можно считать это центром управления полётами для вашего ИИ-агента.


Шаг 5 — Тестирование локального агента

Вы можете взаимодействовать с агентом через терминальный интерфейс:

openclaw tui
```

Вы увидите что-то вроде:
```
Wake up, my friend!
Who are you?

На этом этапе модель отвечает напрямую через OpenClaw.

Ваш ИИ-агент официально ожил.


Шаг 6 — Установка Qwen как модели по умолчанию

Иногда сессия по умолчанию использует облачную модель вроде Gemini.

Чтобы переключиться на Qwen навсегда:

openclaw config set agents.main.defaults.model.primary "ollama/qwen3.5:0.8b"

Перезапустите шлюз:

openclaw gateway restart
```

Теперь каждая новая сессия будет использовать вашу локальную модель Qwen.

---

## Шаг 7 — Создание Telegram-бота

Теперь подключаем агента к Telegram.

Откройте Telegram и найдите:

**@BotFather**

Начните диалог и выполните:
```
/newbot
```

BotFather запросит:

1️⃣ Имя бота  
2️⃣ Username бота

Пример:
```
Name: Kadaligogh
Username: kadaligoghbot
```

BotFather выдаст вам токен бота, который выглядит примерно так:
```
123456:ABCDEF123456abcdef

Скопируйте его.


Шаг 8 — Подключение Telegram к OpenClaw

Запустите настройку канала OpenClaw:

openclaw channels add telegram
```

Вставьте токен от BotFather при появлении запроса.

OpenClaw добавит его в ваш конфигурационный файл:
```
~/.openclaw/openclaw.json

Перезапустите шлюз:

openclaw gateway restart
```

---

## Шаг 9 — Привязка вашего аккаунта Telegram

OpenClaw требует привязки, чтобы гарантировать, что только вы управляете агентом.

Откройте Telegram и отправьте сообщение своему боту.

Например:
```
/start
```

Бот ответит примерно следующим:
```
Pairing code: Z2EDQKMK

Подтвердите привязку в терминале:

openclaw pairing approve telegram Z2EDQKMK
```

Ваш аккаунт Telegram теперь авторизован.

---

## Шаг 10 — Общение с вашим ИИ через Telegram

Теперь просто пишите своему боту.

Сообщения проходят следующий путь:
```
Telegram → OpenClaw Gateway → Ollama → Qwen → Ответ → Telegram

Теперь у вас есть полностью локальный ИИ-ассистент, доступный с вашего телефона.


Полезные команды OpenClaw

Статус системы

openclaw status

Просмотр логов в реальном времени

openclaw logs --follow

Перезапуск шлюза

openclaw gateway restart
```

**Начать новую сессию ИИ**

Внутри чата:
```
/new
```

**Смена модели**
```
/model ollama/qwen3.5:1.5b

Решение проблем

Device Signature Invalid

Выполните:

openclaw devices list

Подтвердите ожидающий запрос:

openclaw devices approve

Telegram Unsupported Type

Это происходит, когда бот получает неподдерживаемый контент.

Исправьте, отключив стриминг:

openclaw config set agents.main.streaming false

После этого перезапустите шлюз.


Gateway Not Reachable

Проверьте шлюз:

openclaw gateway probe

При необходимости перезапустите:

openclaw gateway restart
```

---

## Дополнительно: Задайте своему ИИ личность

Агенты OpenClaw могут загружать правила личности и поведения из файлов, например:

- `SOUL.md`
- `IDENTITY.md`
- `USER.md`

Пример философии для агента:
```
You are a technical AI developer.

You speak precisely and avoid casual language.

Your priority is actionable solutions and independent reasoning.
```

Это создаёт персистентный характер ИИ на протяжении всех сессий.

---

## Что можно построить дальше

Как только это заработает, OpenClaw становится чрезвычайно мощным инструментом.

Вы можете добавить:

- Инструменты веб-поиска
- Выполнение кода
- Чтение файлов
- Автономные циклы задач
- Голосовые интерфейсы
- Локальные базы знаний

Ваш Telegram-бот превращается в удалённый терминал для вашей ИИ-системы.

---

## Почему это важно

Запуск ИИ локально полностью меняет характер отношений.

Вместо:
```
Пользователь → API → Корпоративная модель
```

Вы получаете:
```
Пользователь → Личная инфраструктура → Интеллект

Готово! Модель принадлежит вам. Данные принадлежат вам.
И система агентов может развиваться в любом направлении, в каком вы захотите.


Запустите агента 24/7 на нашей инфраструктуре

Я специально тестировал этот стек на серверах abcd.host — и он работает без нареканий. Если вы хотите, чтобы ваш агент был доступен круглосуточно без нагрузки на личный компьютер, у нас есть подходящие решения:

  • VPS abcd.host — отличный выбор для моделей до 9B. Тарифы с 16+ ГБ RAM обеспечивают комфортную работу агента без тормозов.
  • Выделенные серверы abcd.host — для тех, кто хочет запускать тяжёлые модели 32B+ с GPU-ускорением и максимальной производительностью.

Развернули? Делитесь результатами — пишите нам или оставляйте комментарий. Всегда интересно видеть, что получается у наших пользователей.


Команда ABCD.HOST

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *