Модульный ИИ-агент, работающий полностью на вашем устройстве. Без подписки. Без облаков. Данные никогда не покидают ваш компьютер.
Матрёна Local — это персональный ИИ-ассистент, который управляет вашей повседневной цифровой жизнью через естественный язык. Вместо того чтобы переключаться между десятками приложений, вы просто говорите или пишете Матрёне — и задача выполняется.
Ключевое отличие Local от других ИИ-ассистентов: всё работает локально. Модель работает на вашем железе, данные хранятся на вашем диске, сетевое соединение нужно только для веб-поиска (и то опционально).
Читает, классифицирует и отвечает на письма. Вы говорите:
«Ответь Алексею, что встреча переносится на пятницу» — Матрёна готовит черновик,
согласует с вами и отправляет.
Создаёт встречи на естественном языке.
«Запланируй звонок с командой в следующий вторник в 14:00» — событие в календаре,
уведомления настроены.
Умный поиск и организация. «Найди телефон Ивана из подрядного отдела» — Матрёна находит
по контексту, не только по имени.
Личная база знаний. Матрёна помнит, что вы записали, и может связывать заметки с задачами и событиями.
Превращает слова в действия. «Напомни проверить отчёт в четверг утром» → задача с
дедлайном и нотификацией.
Приватный поиск через SearXNG. Матрёна находит актуальную информацию в интернете, не раскрывая ваши запросы крупным поисковикам.
Матрёна Local построена на архитектуре «агент в агенте». Главный агент разбивает вашу задачу и делегирует её специализированным внутренним агентам (почтовому, календарному и т.д.). Память управляется протоколом ECR (Entropy-Controlled Retrieval) — это обеспечивает точность контекста без лишнего шума.
| Компонент | Минимум | Рекомендуется |
|---|---|---|
| ОС | Windows 10, macOS 12, Ubuntu 20.04 | Windows 11 / macOS 14+ |
| RAM | 4 GB (без локальной модели) | 16 GB (с Llama 3.1 8B) |
| Диск | 500 MB (сам клиент) | 10–40 GB (с весами модели) |
| GPU | Не требуется (CPU inference) | NVIDIA с CUDA / Apple Silicon |
| Интернет | Не нужен | Опционально (для веб-поиска) |