Claw: agente LLM para Linux en un solo script sh

Claw es un agente LLM para Linux que corre desde una sola línea de shell: sin Node, sin Python, sin npm. Requiere únicamente sh + curl + jq, pesa lo que un script de 100 líneas, y soporta OpenAI y Anthropic desde el mismo binario. Según la página oficial de Claw, corre en Alpine containers, VMs v86 y VPS baratos sin modificación.

En 30 segundos

  • Claw es un agente LLM implementado en POSIX sh puro, licencia MIT, una sola descarga con wget -qO /usr/local/bin/claw https://getclaw.site/claw
  • Requisitos mínimos: sh, curl y jq. Funciona en busybox ash, sin package managers
  • Soporta OpenAI y Anthropic con un flag; acepta cualquier endpoint compatible con OpenAI vía base URL configurable
  • Tiene chat en streaming, ejecución real de comandos shell, memoria compactada en JSONL y modo mentor (segunda pasada crítica sobre la respuesta)
  • Pensado para servidores baratos, containers Alpine y ambientes donde instalar Python ya es demasiado pedir

Qué es un agente LLM para Linux

Un agente LLM es un sistema que no solo responde texto: razona, decide qué herramientas usar, las ejecuta, observa el resultado y vuelve a razonar. La diferencia con un chatbot común es la ejecución. Claw es un agente LLM para Linux porque puede correr comandos shell reales en tu sistema, leer el output y continuar el razonamiento desde ahí.

Ponele que le pedís a Claw que revise por qué tu servicio nginx está caído. En vez de explicarte qué hacer, corre systemctl status nginx, lee el error, interpreta el log, y te dice qué encontró. Eso es la diferencia entre un agente y un copiloto de texto.

El problema con la mayoría de los agentes existentes es que asumen un entorno de desarrollo completo: Node 20, Python 3.11, pip, npm, conda, o algún runtime con 500 MB de dependencias. Los frameworks de agentes más usados en 2026 requieren instalar entre 10 y 50 paquetes antes de correr el primer comando. En un VPS de 5 dólares o un container Alpine, eso no zafa.

Claw: el agente minimalista para cualquier Linux

Claw se instala con un solo comando:

wget -qO /usr/local/bin/claw https://getclaw.site/claw && chmod +x /usr/local/bin/claw

Eso es todo. Un archivo. Un chmod. Listo.

Lo que lo hace diferente de cualquier agente que hayas visto antes es que está escrito en POSIX sh puro. No hay compilación, no hay runtime, no hay virtualenv. Si tu sistema tiene sh, curl y jq, Claw corre. Eso incluye busybox ash, que es lo que viene en Alpine por defecto.

Si no querés instalarlo todavía, la demo en el browser te deja abrirlo en una terminal web y correrlo directamente.

Requisitos, instalación y primeros pasos

Tres dependencias. No más.

  • sh — cualquier shell POSIX, incluyendo busybox ash
  • curl — para llamar a la API del modelo
  • jq — para parsear JSON de ida y vuelta

En Alpine, apk add curl jq y ya estás. En Debian/Ubuntu con imagen minimal, apt-get install -y curl jq. El binario en sí ya está en el script.

Las sesiones se manejan con la flag -s nombre. Cada sesión tiene su propio historial, sus reglas compactadas y su journal en markdown. Podés tener una sesión para el servidor de producción, otra para el proyecto de infraestructura, otra para debugging, y cambiar entre ellas instantáneamente. Sobre eso hablamos en cambios en la facturación de Copilot (2026).

Los logs se escriben en JSONL: cada prompt y cada respuesta quedan journalizados. Cuando la ventana de contexto se llena, un segundo llamado al modelo compacta todo en reglas durables y un markdown de sesión. Así no perdés el hilo aunque la conversación dure horas.

Capacidades: chat, herramientas de shell y memoria

El flujo de Claw sigue el patrón clásico de agentes: el modelo genera un bloque de herramienta (tool block), Claw lo ejecuta en el sistema real, captura el output y lo manda de vuelta al modelo para que continúe el razonamiento.

Por defecto corre en modo YOLO: ejecuta los comandos sin pedirte confirmación. Si eso te pone nervioso (y en producción debería ponerte nervioso), pasás la flag -y y te pregunta antes de cada ejecución.

El modo mentor es otra cosa: una segunda pasada donde un asistente auxiliar critica la respuesta original contra tu pedido inicial y la revisa. Según la documentación de Claw, esto se activa con un flag específico y agrega una llamada extra al modelo. La diferencia en calidad de respuesta es notable para tareas donde el primer intento suele ser correcto pero incompleto.

Podés meter instrucciones en ~/.config/clawlite/instructions/ y se incorporan al system prompt sin reiniciar. Contexto del proyecto, guías de herramientas, reglas de estilo, lo que sea.

Modelos e integraciones: OpenAI, Anthropic y compatibles

Claw soporta OpenAI y Anthropic nativamente. Un flag cambia el provider. La base URL es configurable, así que podés apuntarlo a cualquier endpoint compatible con la API de OpenAI: modelos locales con Ollama, proxies privados, o servicios alternativos.

¿Por qué importa poder elegir el provider? Dos razones concretas. Primera: costo. GPT-4o puede costar 5 veces más que Claude Haiku para la misma tarea de infraestructura. Segunda: privacidad. En algunos contextos no querés que los logs de tus comandos shell lleguen a los servidores de OpenAI. Con base URL configurable podés mandar todo a un modelo local sin tocar el código. Relacionado: actualizaciones de 2026 en los planes de Copilot.

La API key va por variable de entorno. Sin sorpresas ahí.

Casos de uso reales: dónde brilla Claw

VPS baratos y containers Alpine

Si alojás proyectos en proveedores tipo Contabo o Hetzner con imágenes Alpine o Debian minimal, instalar cualquier agente Python o Node implicaba primero construir el entorno. Con Claw, el agente está operativo antes de que termine el wget.

Para hosting de proyectos propios donde el presupuesto manda, donweb.com tiene VPS Linux donde Claw corre sin ninguna configuración adicional.

Debugging asistido en producción

El caso que más me convence: tenés un servicio roto a las 2 AM, SSH al servidor, corrés Claw, y le describís el síntoma. El agente corre los comandos de diagnóstico, lee los logs, y te propone un fix. Todo desde la misma sesión, con historial persistente.

Cualquiera que haya debugueado un servidor Linux solo sabe que el 80% del tiempo lo perdés buscando cuál fue el último comando que corriste y qué devolvió. Claw resuelve exactamente eso: la memoria es parte del diseño.

Automatización de infraestructura interactiva

Scripts de administración que antes eran bash puro con mucho echo y poco criterio pueden reemplazarse por sesiones de Claw donde el agente decide qué correr según el estado real del sistema. No es lo mismo que un playbook de Ansible (que ejecuta una secuencia fija), sino un agente que razona sobre el contexto actual.

Claw vs otros agentes: comparativa directa

HerramientaDependenciasTamaño aprox.ProvidersEjecución shellMemoria persistente
Clawsh, curl, jq~1 archivo shOpenAI, Anthropic, compatiblesSí (YOLO o confirmado)Sí (JSONL + compaction)
Goose (Block)Python 3.10+, pip~50 MB instaladoMúltiples
AIShell (Microsoft).NET runtime~80 MBAzure OpenAI, OpenAILimitada
Frameworks típicos (LangChain, etc.)Python + 20-50 paquetes200-500 MBMúltiplesDepende de implementaciónDepende de implementación
agente llm para linux diagrama explicativo

Goose, que Block lanzó como agente CLI open source, es la alternativa más cercana en concepto pero requiere Python. En features gana a Claw (tiene más providers, mejor integración con MCP), pero en entornos restrictivos directamente no corre.

¿Cuándo elegir Claw? Cuando el sistema no tiene Python o Node disponibles, cuando el tiempo de setup importa, o cuando el tamaño del ambiente es una restricción real (containers, sistemas embebidos, Raspberry Pi).

¿Cuándo elegir otro? Cuando necesitás integraciones más ricas, múltiples herramientas personalizadas, o un ecosistema de plugins. Claw no tiene nada de eso todavía (está en v0). Tema relacionado: la pausa temporal de Copilot en 2026.

Limitaciones, seguridad y buenas prácticas

Claw ejecuta comandos reales en tu sistema. No hay sandbox. No hay VM. Lo que el modelo genera, tu shell lo corre. Eso es lo que lo hace poderoso y lo que lo hace peligroso si no lo usás con criterio.

El modo YOLO (sin confirmaciones) está bien para tareas de lectura o en ambientes de desarrollo. En producción, pasá siempre la flag de confirmación y revisá cada comando antes de ejecutar. La ironía es que el modo se llama YOLO y es exactamente así.

Sobre inyección de prompts: si le pasás a Claw contenido de fuentes externas (logs de usuarios, requests de red, archivos de configuración que podría haber modificado alguien), existe el riesgo de que un contenido malicioso intente redirigir las instrucciones del agente. No es específico de Claw, es un problema general de agentes con herramientas reales, pero en un agente shell es más inmediato.

La API key va en la variable de entorno. No la metas en el historial de comandos ni en archivos dentro del repo. Uso básico de seguridad, pero con agentes es tentador hardcodear para que “funcione rápido”.

La compaction de sesiones usa un llamado adicional al modelo. Si usás sesiones largas de debugging, contá con llamadas extra para el proceso de compactación. No es gratis.

Errores comunes al usar agentes LLM en Linux

Correr en modo YOLO en un servidor de producción sin revisar. El agente puede correr rm -rf si el modelo lo considera apropiado. El modo confirmación existe por algo. Usalo siempre que el sistema tenga datos que importan. En técnicas avanzadas de prompting para IA profundizamos sobre esto.

Asumir que el agente “entiende” el contexto del sistema por arte de magia. El modelo no sabe que tu servidor tiene configuraciones específicas salvo que le des esa información. Las instrucciones en ~/.config/clawlite/instructions/ son para eso: cargá el contexto del proyecto antes de empezar a trabajar, no después de que el agente cometa un error por falta de contexto.

Usar el mismo agente para tareas sensibles y tareas genéricas. Las sesiones aisladas de Claw existen por una razón. Si tenés una sesión donde discutiste credenciales o rutas internas, no la uses para tareas que después vas a compartir o loguear en algún lado. El journaling en JSONL guarda todo.

Ignorar que está en v0. Claw es una herramienta nueva, sin una base de usuarios grande, sin auditorías de seguridad publicadas. Perfecta para experimentar, útil para entornos propios controlados, pero no la pongas como pieza crítica de infraestructura corporativa todavía.

Preguntas Frecuentes

¿Qué es un agente LLM y cómo funciona en Linux?

Un agente LLM es un sistema donde el modelo de lenguaje no solo genera texto, sino que también puede ejecutar herramientas (comandos, APIs, búsquedas) y razonar sobre sus resultados. En Linux, eso se traduce en un proceso que recibe tu pedido, decide qué comandos shell correr, los ejecuta, lee el output, y genera una respuesta basada en lo que encontró.

¿Puedo ejecutar un agente de IA en un servidor Linux minimal?

Sí, con Claw. Requiere solo sh, curl y jq, que están disponibles en prácticamente cualquier distribución Linux, incluyendo Alpine y Debian minimal. No necesita Python, Node ni ningún package manager. La instalación es un solo wget más un chmod.

¿Cómo instalar un agente LLM sin dependencias complejas?

Con Claw: wget -qO /usr/local/bin/claw https://getclaw.site/claw && chmod +x /usr/local/bin/claw. Después configurás tu API key de OpenAI o Anthropic como variable de entorno y corrés claw. No hay pip install, no hay npm, no hay build.

¿Qué agentes LLM funcionan en Alpine o en VPS baratos?

Claw es el más ligero disponible en 2026 para este tipo de entornos. Alpine no tiene Python por defecto, así que descarta la mayoría de frameworks. Claw fue diseñado explícitamente para Alpine containers y VPS con recursos mínimos. Para entornos donde sí tenés Python disponible, Goose de Block es una alternativa más completa en features.

¿Cómo automatizar tareas de Linux con Claude o GPT desde terminal?

Claw conecta directamente con las APIs de Anthropic (Claude) y OpenAI (GPT) desde la línea de comandos. Corrés claw, describís la tarea, y el agente ejecuta los comandos necesarios en tu sistema. Para tareas repetibles, podés meter las instrucciones en el directorio de configuración de Claw y se cargan automáticamente en cada sesión.

Conclusión

Claw resuelve un problema concreto que los frameworks de agentes más conocidos ignoraron: hay una cantidad enorme de sistemas Linux donde instalar Python o Node es un obstáculo real, y en esos sistemas hasta ahora no existía una opción seria para correr un agente LLM.

Está en v0 y eso importa. No es una herramienta lista para producción crítica sin revisión, y el equipo ni siquiera lo presenta así. Lo que sí es: la opción más liviana disponible hoy para experimentar con agentes en entornos restringidos. Si tenés un VPS barato, un container Alpine, o una Raspberry Pi, y querías probar cómo se ve un agente con acceso real al shell, Claw es el punto de entrada más directo que vas a encontrar.

El minimalismo acá no es una limitación de diseño. Es una decisión de arquitectura que coincide con lo que Anthropic describió en su research sobre agentes efectivos: menos capas, más control, feedback loops más cortos. A veces el script de 100 líneas en POSIX sh es exactamente lo que el problema necesita.

Fuentes

Desplazarse hacia arriba