Автор считает, что пора собирать себе домашнего HAL’а на новых локальных моделях вроде Gemma4 или Qwen 3.6. Сейчас даже на обычной видеокарте можно запустить нормального мультимодального ассистента, который и жестикулирует, и лицо распознает, и умный дом крутит, и болтает без всяких облачных подписок - жрет только твое электричество.
Автор использует современные локальные модели, связку speech-to-text (Whisper/Moonshine) и text-to-speech (Kokoro), систему жестов и мимики, управляемую через вызовы инструментов LLM. Проект интегрируется с Home Assistant, поиском SearXNG, векторной базой Qdrant для памяти и распознаванием лиц.
В итоге автор запилил болванчика с анимацией, локальной википедией, поиском и автономными задачами. И он реально работает, правда, пока хватает контекста
06.05.2026
Похожее
23.04.2026
Действительно локально
В статье автор создает приложение на Go для прогноза погоды с использованием LLM...
13.04.2026
Локальный AI
Бесплатный ИИ уже на вашем Mac. В macOS Tahoe встроена LLM с 3 миллиардами па...
09.04.2026
Переписать с AI
Саксес стори как с помощью AI переписали популярный проект JSONata на Go Резу...
24.03.2026
Уровни работы с AI
В статье интересная классификация уровней работы с AI для разработки. От простой...