DIY · 490 ₽/мес

Матрёна Кодер

AI IDE для разработчиков. Подключайте любые LLM, генерируйте код с нуля, деплойте одной командой.

Что такое Матрёна Кодер?

Матрёна Кодер — это отдельный продукт от линейки LocalGiga. Он не занимается почтой или календарём — это специализированная AI IDE: интегрированная среда разработки, где ИИ участвует в каждом шаге — от генерации кода до деплоя.

Основная идея: вы описываете задачу на русском (или английском), Кодер генерирует полноценный код, запускает его в изолированном окружении, показывает превью и деплоит по нажатию кнопки.

Кодер — не чат с AI. Это полноценная IDE с файловой системой, встроенным терминалом, Git-интеграцией и Docker-окружением.

Ключевые концепции

BYO-LLM (Bring Your Own LLM)

Кодер не привязан к конкретной модели. Подключайте:

  • Локальные модели через Ollama — Qwen2.5-Coder, DeepSeek-R1, Llama 3.1
  • API-провайдеры — OpenAI, Anthropic, GigaChat, любой OpenAI-совместимый эндпоинт
  • Self-hosted веса — собственные fine-tuned модели на вашем железе

Промпт → Код → Деплой

Типичный рабочий процесс в Кодере:

1. Напишите задачу: «Создай REST API на FastAPI с авторизацией JWT»
2. Кодер генерирует структуру проекта и код
3. Автоматически запускается в Docker-окружении
4. Вы видите превью и тестируете
5. git commit и деплой одной кнопкой

Project Scaffolds

Готовые шаблоны под популярные стеки. Вместо генерации с нуля — выберите скелет проекта, и ИИ дополнит его под вашу задачу:

  • Python: FastAPI, Django, Flask, Celery
  • JavaScript/TS: Next.js, Vite, NestJS, Express
  • Базы данных: PostgreSQL, SQLite, MongoDB, Redis
  • Инфраструктура: Docker Compose, Nginx, CI/CD шаблоны

Для кого

  • Backend/Full-stack разработчики, которые хотят AI-ускорение в своём привычном workflow
  • Solo-разработчики и стартапы, которым нужно быстро делать прототипы
  • Команды, которые хотят self-hosted AI IDE без отправки кода в облако

Системные требования

Компонент Минимум Рекомендуется
ОС Windows 10, macOS 12, Ubuntu 20.04 Windows 11 / macOS 14+
RAM 8 GB 16–32 GB (с локальной моделью)
Docker Docker Desktop (обязательно) Docker Desktop + WSL2
GPU Не требуется (CPU inference) NVIDIA 8GB+ VRAM / Apple Silicon

Следующие шаги