Usa aichat tenes que crearte una cuenta en https://console.groq.com/ y una api key.

Opción 1: LLMs locales ligeros (RECOMENDADO)

Aunque digas que tu hardware es ligero, hay modelos que funcionan incluso en CPUs modestas:

Ollama con modelos pequeños:

# Instalar desde AUR
yay -S ollama

# Iniciar servicio
sudo systemctl start ollama

# Modelos muy ligeros (1.5-3GB RAM):
ollama run llama3.2:1b        # El más ligero, 1GB
ollama run phi3:mini          # 2.3GB
ollama run qwen2.5:1.5b       # 1.5GB

Luego puedes usarlo desde consola:

ollama run llama3.2:1b "explícame qué hace grep"

Opción 2: APIs gratuitas

Hay APIs LLM gratuitas sin pagar:

Groq (muy rápido, gratis):

# Registrarte en groq.com para API key
export GROQ_API_KEY="tu_key"

curl -X POST "https://api.groq.com/openai/v1/chat/completions" \
  -H "Authorization: Bearer $GROQ_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "llama-3.3-70b-versatile",
    "messages": [{"role": "user", "content": "tu pregunta"}]
  }'

Opción 3: Tu idea de scraping (menos recomendado)

Si insistes en scraping de SearX:

#!/bin/bash
# buscar.sh
QUERY="$*"
curl -s "http://localhost:8888/search?q=${QUERY// /+}&format=json" | \
  jq -r '.results[] | .title + "\n" + .content + "\n" + .url + "\n---"' > /tmp/resultados.txt

grep -i "$1" /tmp/resultados.txt

¿Qué hardware tienes? Con 4GB RAM ya puedes correr modelos de 1-3B parámetros que son sorprendentemente capaces para uso en terminal.

Sí, hay varias opciones de CLI para Groq:

1. groq-cli (oficial en npm)

# Instalar
npm install -g groq-cli

# O con pnpm/yarn
pnpm install -g groq-cli

# Configurar
export GROQ_API_KEY="tu_key"

# Usar
groq "tu pregunta aquí"

2. llm de Simon Willison (más versátil)

# Instalar (Python)
pipx install llm

# Instalar plugin de Groq
llm install llm-groq

# Configurar
llm keys set groq
# (pega tu API key)

# Usar
llm -m groq/llama-3.3-70b-versatile "tu pregunta"

# Alias para más comodidad
alias ask='llm -m groq/llama-3.3-70b-versatile'
ask "cómo funciona grep"

3. Script bash simple (sin dependencias)

#!/bin/bash
# ~/bin/groq
GROQ_API_KEY="tu_key_aqui"

curl -s https://api.groq.com/openai/v1/chat/completions \
  -H "Authorization: Bearer $GROQ_API_KEY" \
  -H "Content-Type: application/json" \
  -d "{
    \"model\": \"llama-3.3-70b-versatile\",
    \"messages\": [{\"role\": \"user\", \"content\": \"$*\"}]
  }" | jq -r '.choices[0].message.content'
chmod +x ~/bin/groq
groq "explícame systemd"

Mi recomendación: llm de Simon Willison porque:

  • Soporta múltiples proveedores (Groq, OpenAI, Claude, Ollama local)
  • Muy activo y mantenido
  • Historial de conversaciones
  • Fácil cambiar entre modelos

¿Cuál prefieres probar primero?