AION Motor

LLM inference
na sua máquina

Engine de inferência local em Rust. Roda modelos GGUF direto no seu PC — sem cloud, sem API key, sem dependência.

Baixar para Windows
~17 MB loading... Windows x64 (AVX2)

Por que rodar local?

Zero latência de rede

Inferência direto na CPU. Sem roundtrip pra cloud, sem fila, sem rate limit.

🔒

Privacidade total

Seus dados nunca saem da máquina. Ideal pra contextos sensíveis — saúde, financeiro, jurídico.

🧠

Catálogo validado

Qwen3, Gemma 2, BitNet — modelos curados e testados, prontos pra baixar com um clique.

Como começar

1
Baixe aion.exe acima — é um único executável, sem instalação.
2
Execute o arquivo. O console abre automaticamente em localhost:8895/console
3
Escolha um modelo no catálogo — o download e carregamento são automáticos.
4
Converse. API compatível com OpenAI em localhost:8895/v1/chat/completions