Lemonade AMD: servidor IA local de código abierto

Lemonade es un servidor LLM local de 2MB de peso, totalmente open source, patrocinado por AMD, que te deja ejecutar modelos de lenguaje en tu PC sin enviar datos a la nube. Instalación automática en Windows, Linux y macOS. Compatible con Ryzen AI, GPU AMD y fallback a CPU. Disponible desde el sitio oficial.

En 30 segundos

  • Servidor LLM local open source de 2MB que ejecuta modelos privadamente en tu PC
  • Soporta GPU Radeon AMD, NPU Ryzen AI y CPU, con auto-configuración según hardware
  • API compatible OpenAI en http://localhost:8000/api/v1 — integración con cientos de apps existentes
  • Instalador simple que auto-descarga dependencias; interfaz gráfica para elegir y cambiar modelos
  • Casos de uso: privacidad total, desarrollo offline, cero costo de inferencia, alternativa a Ollama y LM Studio

Qué es Lemonade: servidor LLM local open source

Lemonade es un servidor de modelos de lenguaje que corre localmente en tu máquina, sin conexión a internet y sin que tus datos salgan de tu PC. Proyecto open source bajo licencia Apache 2.0, patrocinado por AMD y desarrollado por la comunidad de IA local.

La diferencia con otros servidores LLM es brutal en simplicidad: descargás un installer (o un script bash), ejecutá, y en minutos tenés un servidor corriendo en tu máquina con una interfaz gráfica bonita que te deja bajar modelos, seleccionar cuál usás, y cambiar entre ellos con dos clicks. No hay configuración de CUDA, no hay troubleshooting de dependencias (ponele que casi ninguno), no hay “instalar PyTorch manualmente y rezar que funcione”.

Funciona en Windows, Linux y macOS (beta). El tamaño del servidor es de 2MB — básicamente nada, ocupa menos que un podcast.

Características principales de Lemonade

Arranquemos por lo obvio: es pequeño. Dos megabytes de código. Descargás el installer, seguís los pasos (literalmente, siguiente-siguiente-siguiente), y Lemonade auto-detecta tu hardware, configura las dependencias necesarias y te deja seleccionar un modelo desde la GUI. Sin terminal, sin configs oscuras, sin googlear errores de compilación a las 3 de la mañana (que no es poco).

Lo interesante es que corre múltiples modelos en paralelo. Si querés tener gpt-oss-120b para tareas pesadas y Qwen-Coder-Next para code completion al mismo tiempo, podés. El servidor maneja el scheduling automáticamente según disponibilidad de VRAM.

Soporta formatos de modelo variados: GGUF (llama.cpp), FLM (Ryzen AI), ONNX, y binarios nativos. Eso significa que cualquier modelo reciente que encuentres en Hugging Face probablemente funcione. La interfaz web de Lemonade tiene un buscador integrado que te muestra modelos compatibles.

Multimodalidad: texto, imágenes y audio. Para audio usa Whisper. Para imágenes podés hacer descripción (vision) si cargas un modelo que lo soporte. No es DALL-E en tu PC, pero para procesamiento de datos multimodales localmente es sobrio.

Aceleración por GPU, NPU y CPU

Aquí es donde AMD se anotó una buena.

Lemonade auto-configura para tres tipos de hardware: NPU (Neural Processing Unit) en Ryzen AI, GPU Radeon AMD, y fallback a CPU. La prioridad es NPU porque consume 10-20x menos energía que GPU para la misma inferencia. Si tenés un Ryzen 9 con Ryzen AI integrado (9945HX, 9955X3D o cualquiera de la serie Ryzen AI Max+), Lemonade automáticamente usa eso primero. Complementá con privacidad en servidores locales.

Debajo de la capota usa varios inference engines según lo que le convenga: llama.cpp para CPU/GPU, Ryzen AI SW para NPU, FastFlowLM para optimizaciones específicas. Vos no tenés que elegir — Lemonade lo hace por vos basado en lo que tenés instalado.

Para GPU Radeon, soporta RDNA y anteriores. Si tenés una 7800 XT, 6800 XT o incluso más viejas, funciona. La aceleración es via ROCm, que AMD mantiene mejor cada vez (aunque todavía no es tan maduro como CUDA de Nvidia).

La idea es que con una GPU Radeon de 12GB VRAM podés correr modelos de 10-13B tokens sin problema. Con NPU en una laptop Ryzen AI (que tiene 40-50 TOPS de compute), el rendimiento es suficiente para experiencias interactivas.

API compatible OpenAI: integración sin reescribir código

Acá viene lo piola del asunto: Lemonade expone la API en http://localhost:8000/api/v1 usando el mismo formato que OpenAI.

Eso significa que cualquier aplicación, biblioteca o script que use OpenAI API puede apuntar a Lemonade local sin cambiar una línea de código. LibreOffice, Visual Studio Code, Cursor, ChatBox, ollama-ui, n8n, Make.com — lo que sea que hable OpenAI API, habla Lemonade. Solo cambias el endpoint y la API key.

Es importante porque muchos dev tools estaban cloudlocked: usabas la API oficial o nada. Ahora con Lemonade local tenés el flujo de desarrollo completamente offline (si querés), con datos que nunca salen de tu máquina.

La compatibilidad es de verdad: soporta streaming, completions, embedings, hasta vision si el modelo lo tiene. El timeout, la paginación, los headers — todo igual a OpenAI.

Instalación y primeros pasos

Bajás el installer desde lemonade-server.ai. En Windows es un .exe, en Linux un shell script. Doble click (o bash script), elegís dónde instalarlo (default es C:\Program Files\Lemonade en Windows), y listo. Te puede servir nuestra cobertura de opción descentralizada a ChatGPT.

Abre una ventana de terminal, ejecutá el comando que te dice el installer (algo como `lemonade start` o `./lemonade`), y en 10-15 segundos tenés el servidor corriendo. La GUI se abre automáticamente en http://localhost:8000.

Desde la GUI: click en “Download Model”, buscás lo que necesitás (gpt-oss-120b, Qwen-Coder-Next, LLaMA 2 13B, DeepSeek, lo que sea), lo seleccionás, descargás. La barra de progreso te muestra cuánto falta. Una vez descargado, hacés click en “Select” y listo — ese modelo está activo y podés empezar a hacer requests a http://localhost:8000/api/v1/chat/completions.

El tamaño de los modelos varía: Mistral 7B ocupa 4GB, Llama 2 13B ocupa 8GB, gpt-oss-120b ocupa 70GB. Lemonade te muestra el espacio disponible en tu disco antes de descargarlo, así que no sorpresas.

Lemonade vs Ollama vs LM Studio: tabla comparativa

CaracterísticaLemonadeOllamaLM Studio
Tamaño2MB~150MB~300MB
Multi-motorllama.cpp, Ryzen AI, FastFlowLMllama.cppllama.cpp
NPU supportSí (Ryzen AI)NoNo
GUINativa, webCLI, web (comunidad)Nativa, excelente
Multi-modelo simultáneoNo (uno a la vez)No (uno a la vez)
API OpenAISí, en :8000/api/v1Sí, en :11434/apiNo (solo UI)
Curva de aprendizajeMuy bajaBaja (CLI)Muy baja
EstabilidadBeta (en desarrollo activo)Muy estableMuy estable
servidor llm local código abierto diagrama explicativo

Lemonade gana en autoconfiguración y soporte NPU. Ollama gana en estabilidad y comunidad consolidada. LM Studio gana en interfaz para usuarios no-técnicos. La elección depende de qué necesitás.

Casos de uso: cuándo usar Lemonade localmente

Privacidad y cumplimiento normativo

Si trabajás con datos sensibles (salud, legal, finanzas), Lemonade no envía nada a la nube. Todo stays on-device. No hay logs en servidores de OpenAI, no hay data retention policies de terceros, nada. Cumplís GDPR, HIPAA, LGPD limpiamente porque los datos nunca salen de tu jurisdicción.

Desarrollo offline

Subís a un avión, trabajás 8 horas sin internet, escribís código con asistencia de IA, probás todo en local. Cuando baja el avión, sincronizás. Con OpenAI cloud estás blockeado si se corta internet. Con Lemonade: seguís trabajando como si nada.

Cero costo de inferencia

OpenAI cobra por token. Claude cuesta. Con Lemonade descargás el modelo una vez (20-70GB) y luego la inferencia es gratis. Si hacés mil requests por día a un modelo local, el costo marginal es cero (solo electricidad). Multiplica eso por un trimestre y tenés ahorro importante.

Experimentación rápida

Probás diferentes modelos en 10 minutos. Cambias de Mistral a Qwen a DeepSeek sin reimplementar nada. La API es idéntica. Esto es un golazo para research o para equipos que necesitan iterar rápido en arquitectura. Para más detalles técnicos, mirá competidor open source de GPT.

Hardware recomendado para ejecutar Lemonade

Requisitos mínimos: CPU de 4 cores, 16GB RAM, 500GB SSD. Si solo querés experimentar con modelos pequeños (7B), con eso te arreglás. Funciona pero es lento — probablemente 2-3 tokens por segundo en CPU.

Hardware óptimo: cualquier laptop con Ryzen AI (9045HX, 9955X3D, Ryzen AI Max+ 395). Estos chips tienen un NPU integrado de 40-50 TOPS que acelera la inferencia dramáticamente — podés correr modelos de 13B a velocidades decentes sin GPU externa. donweb.com hospeda muchos proyectos que usan IA local, así que si necesitás deployar algo así en la nube tenés opciones.

Si tenés GPU: Radeon RX 6800 XT o mejor (12GB+ VRAM). Eso te deja correr modelos de 13-70B sin problema. Mini PCs como Beelink GTR9 Pro (Ryzen AI Max+ 395) son una buena opción — todo-en-uno, 126 TOPS NPU, tamaño de una tostadora.

Lemonade auto-detecta tu hardware y optimiza. Si tenés NPU, la usa. Si no, busca GPU. Si no hay GPU, baja a CPU. No tenés que decirle nada — lo hace automáticamente.

Roadmap y comunidad

El proyecto está en desarrollo activo patrocinado por AMD. Roadmap incluye: optimización de MacOS (ahora beta), soporte para más modelos de multimodalidad, integración más profunda con Hugging Face, y mejoras de rendimiento en Ryzen AI.

La comunidad es joven pero activa. GitHub tiene issues abiertos, Discord activo para soporte, contribuciones aceptadas. Es un proyecto que creció rápido porque toca un problema real — gente que quiere IA local sin la complejidad de Ollama o la limitación de LM Studio sin API.

Errores comunes al usar Lemonade

Esperar CUDA speeds en CPU

Lemonade en CPU es lento por definición — es una CPU, no una GPU. Si esperás 100 tokens por segundo en CPU, te vas a decepcionar. 2-5 tokens/seg es lo normal. Si necesitás speed, necesitás hardware con aceleración (GPU o NPU).

No revisar espacio en disco antes de descargar

Gpt-oss-120b pesa 70GB. LLaMA 2 70B pesa 40GB. Si tenés 50GB libres en disco y bajás dos modelos, explota. Lemonade te dice cuánto espacio necesitás, pero hay que leer la UI.

Cambiar de modelo y esperar que la sesión anterior siga

Cada modelo es un proceso separado. Si cambias de Mistral a Qwen, la conversación anterior no viene con vos. Tenés que startear una sesión nueva en la aplicación que estés usando. Es comportamiento normal, pero sorprende la primera vez. Tema relacionado: similar a Gemini pero sin la nube.

Preguntas Frecuentes

¿Qué es Lemonade y por qué debería importarme si ya uso OpenAI o Claude?

Lemonade ejecuta modelos en tu PC, no en la nube. Si necesitás privacidad total, desarrollo offline, o querés evitar costos de API, es diferente. Si CloudAI te funciona bien, no necesariamente tenés que cambiar. Pero si trabajás con datos sensibles o querés experimentar sin pagar por token, Lemonade es el camino.

¿Necesito GPU para usar Lemonade?

No obligatoriamente. Funciona en CPU, pero es lento. Con NPU (Ryzen AI) tenés buen rendimiento sin GPU separada. Con GPU Radeon es óptimo. Lo ideal es tener uno de estos tres, pero podés empezar sin nada.

¿Cuánto espacio en disco necesito?

Lemonade ocupa 2MB. Los modelos son lo que pesa: 7B modelos pesan 4-5GB, 13B unos 8GB, 70B unos 40GB. Bajás los que necesites. Podés tener varios instalados pero corrés uno a la vez (o múltiples si tenés VRAM para eso).

¿Lemonade es más rápido que Ollama?

En CPU, similar (ambos usan llama.cpp debajo). En Ryzen AI, Lemonade es más rápido porque aprovecha la NPU directamente. En GPU Radeon, depende — Ollama también corre bien en Radeon con ROCm. No hay ventaja dramática, pero Lemonade tiene el soporte NPU que Ollama no.

¿Puedo usar Lemonade en producción?

Técnicamente sí (API OpenAI compatible, estable). Pero es project aún en desarrollo active, así que no lo metería en un sistema crítico sin testing exhaustivo. Para desarrollo, experimentación, herramientas internas: adelante. Para un SaaS que cobra dinero: probablemente esperaría que se estabilice más.

Conclusión

Lemonade llena un hueco incómodo entre “quiero IA local simple” (Ollama/LM Studio) y “quiero que todo funcione mágicamente” (OpenAI). Es pequeño, se auto-configura, soporta NPU de Ryzen AI (ventaja tangible de AMD), y la API es compatible con lo que todos ya conocen.

¿Vale la pena migrar de OpenAI? Depende de tu caso. Si pagás mucho en tokens, sí. Si necesitás privacidad, sí. Si solo haces pruebas ocasionales, probablemente OpenAI sigue siendo más fácil. Pero si tenés hardware Ryzen AI, una GPU Radeon, o simplemente querés control total sobre tus datos, Lemonade es la opción más directa ahora.

Lo que cambió es que ya no necesitás elegir entre “fácil pero cloud” y “local pero complicado”. Lemonade intenta ser ambas cosas, y en su mayoría lo logra.

Fuentes

Desplazarse hacia arriba