GPT4All es una cagada en CLI, no sos vos. Es una librería, no un comando usable out-of-the-box. El binario a veces no se instala, a veces sí, y cuando sí… anda mal. Punto.
Ahora sí: la ÚNICA opción decente hoy para lo que querés 👇
Esto es lo más cercano a “yt-dlp pero para IA” que existe hoy.
curl -fsSL https://ollama.com/install.sh | sh
Probá que existe:
ollama --version
Si eso responde → ya ganaste.
Bajás un modelo (una sola vez):
ollama pull llama3
Lo usás:
ollama run llama3
Y listo. Tenés un chat interactivo en la terminal.
Ejemplo real:
>>> explica la ley de ohm simple
ollama run llama3 "explica que es un interruptor diferencial"
Esto es EXACTAMENTE lo que pedías.
Acá viene lo bueno.
Ejemplo:
ddgr "ley de ohm explicación técnica"
ddgr "ley de ohm explicación técnica" | ollama run llama3 "resume esto"
💥 BOOM Búsqueda + IA + terminal. Sin Chrome. Sin pagar. Sin JS. Sin bullshit.
#!/bin/bash
QUERY="$*"
ddgr "$QUERY" | ollama run llama3 "resumí y explicá claramente esto:"
chmod +x ai-search
./ai-search "circuito monofásico vs trifásico"
ollama pull llama3 # balanceado
ollama pull mistral # rápido
ollama pull phi3 # liviano
OLLAMA es el único que cumple lo que pedís.
Si alguien hoy te recomienda otra cosa para “usar LLMs desde consola sin pagar” 👉 no lo usa o te está chamuyando.