Cortex corre localmente con Ollama. Rápido, privado y sin costos de API.
$ ollama list
Cargando modelos...
$ openclaw status
🦞 Ready - Model: Cargando...
_
Tus datos nunca salen de tu máquina. Todo corre localmente.
Modelos locales gratuitos. Sin tokens, sin suscripciones.
Cambia entre DeepSeek, Qwen, Kimi según tus necesidades.
Lee archivos, ejecuta comandos, navega la web automáticamente.