
Los mejores prompts para Claude AI comparten una estructura de cuatro bloques — instrucciones, contexto, tarea y formato de salida — combinada con etiquetas XML que otros modelos no aprovechan igual. Claude interpreta contextos extensos de hasta 200K tokens y responde mejor a instrucciones conversacionales detalladas que a esquemas rígidos, lo que cambia cómo tenés que formular cada prompt.
En 30 segundos
- Claude rinde mejor con prompts estructurados en bloques claros (instrucciones, contexto, tarea, formato) separados por etiquetas XML, algo para lo que fue entrenado específicamente.
- La ventana de 200K tokens permite meter documentos completos como contexto sin resumir, pero la ubicación importa: documentos primero, instrucciones después.
- Anthropic ofrece herramientas gratuitas — Prompt Generator y Prompt Improver en la consola — que resuelven el problema de arrancar desde cero.
- Copiar prompts de ChatGPT y pegarlos en Claude sin adaptar es uno de los errores más frecuentes y afecta directamente la calidad de las respuestas.
Claude es el modelo de inteligencia artificial desarrollado por Anthropic. Está disponible en distintas versiones — Haiku (rápido y económico), Sonnet (equilibrio entre velocidad y capacidad) y Opus (el más potente) — y se diferencia de otros modelos por su adherencia estricta a instrucciones de sistema, su manejo nativo de etiquetas XML y una ventana de contexto de 200.000 tokens en toda la familia de modelos.
Qué hace diferente a Claude a la hora de recibir prompts
Si venís de usar ChatGPT o Gemini, lo primero que vas a notar es que Claude no necesita que le hables con esquemas rígidos para entenderte. El modelo fue entrenado para interpretar instrucciones conversacionales y, al mismo tiempo, para respetar estructura cuando se la das. Esa combinación es lo que lo hace particular.
La ventana de 200K tokens significa que podés incluir documentos enteros — un contrato de 80 páginas, un codebase completo, una transcripción de reunión — sin necesidad de resumir antes. Otros modelos como GPT-4o manejan 128K y Gemini llega a 1-2M tokens, pero Claude tiene un punto fuerte: mantiene coherencia real con contextos largos, no solo los acepta técnicamente.
Hay una diferencia clave en cómo Claude procesa las etiquetas XML. Mientras que ChatGPT las interpreta como texto más, Claude fue específicamente entrenado para reconocerlas como delimitadores estructurales. Esto permite separar instrucciones de contenido de manera que el modelo no confunda unas con otras, algo crítico cuando trabajás con prompts complejos o datos que podrían “contaminar” las instrucciones.
Eso sí, Claude 4.x tiene un cambio importante respecto a versiones anteriores: no infiere tanto contexto implícito. Si antes podías ser vago y Claude adivinaba lo que querías, ahora necesitás ser más explícito. No es un defecto; es una decisión de diseño que reduce alucinaciones pero exige prompts mejor armados.
Anatomía de un prompt efectivo para Claude: la estructura de 4 bloques
Anthropic usa una analogía que me parece acertada: un buen system prompt se lee como un contrato corto. Claro, sin ambigüedades, con cada sección cumpliendo una función específica. El patrón recomendado tiene cuatro bloques. Si te interesa, podes leer mas sobre nuestra guía completa sobre Claude.
Bloque 1: Instructions (Instrucciones)
Acá definís quién es Claude para esta tarea, qué reglas debe seguir y qué tono usar. Es el equivalente al system prompt en la API. Ejemplo real:
<instructions>Sos un revisor de código senior especializado en Python 3.11+ y FastAPI. Revisás pull requests buscando bugs, problemas de performance y violaciones de estilo PEP 8. Respondé siempre en español. Si encontrás un bug crítico, marcalo con [CRÍTICO].</instructions>
Bloque 2: Context (Contexto)
Todo lo que Claude necesita saber para hacer bien el trabajo: documentos, código, datos, historial. La regla de oro es ubicar los documentos largos al principio del prompt y las instrucciones después. Claude procesa mejor la información cuando el contexto viene primero.
Bloque 3: Task (Tarea)
Qué querés que haga, específicamente. “Revisá este código” es débil. “Revisá este endpoint de FastAPI buscando vulnerabilidades de inyección SQL, problemas de manejo de excepciones y usos incorrectos de async/await” es un prompt que funciona.
Bloque 4: Output Format (Formato de salida)
Cómo querés la respuesta: JSON, markdown, tabla, lista numerada, prosa. Si no lo especificás, Claude elige por vos, y no siempre acierta. Un tip que funciona bien: podés “pre-llenar” la respuesta del asistente en la API con el inicio del formato deseado (por ejemplo, empezar con { para forzar JSON), algo que ni ChatGPT ni Gemini permiten.
Técnicas avanzadas: XML tags, thinking tags y prompt chaining
Las etiquetas XML son la herramienta más subutilizada de Claude. No son decorativas: cambian fundamentalmente cómo el modelo interpreta tu prompt.
Podés usar cualquier nombre de tag que tenga sentido para tu caso. <documento>, <reglas>, <ejemplo>, <entrada>, <salida_esperada> — Claude entiende tags descriptivos sin necesidad de seguir un esquema predefinido. Y podés anidarlos: Si te interesa, podes leer mas sobre las diferencias entre Sonnet y Opus.
<ejemplos><ejemplo><entrada>Texto del usuario</entrada><salida>Respuesta esperada</salida></ejemplo></ejemplos>
El tema de los thinking tags (extended thinking) merece atención. Cuando activás el pensamiento extendido a través de la API con el parámetro thinking y un budget_tokens, Claude genera un bloque de razonamiento interno antes de responder. Esto mejora notablemente los resultados en matemáticas, lógica formal, problemas multi-paso y debugging complejo. El trade-off es que consume más tokens y es más lento. No lo necesitás para redactar un email, pero para resolver un bug sutil en una función recursiva, la diferencia es notable.
El prompt chaining (encadenamiento) es otra técnica que vale la pena dominar. En vez de pedirle a Claude que haga todo en un solo prompt monstruoso, dividís la tarea en pasos. Primero le pedís que analice el problema. Tomás esa salida, la metés como contexto del segundo prompt donde le pedís que proponga soluciones. Y en un tercero, que implemente la mejor. Cada paso es más simple, y los resultados mejoran porque Claude no tiene que mantener en la cabeza una instrucción de 15 requisitos simultáneos.
Templates listos para usar: código, escritura y análisis
Estos templates están probados y podés copiarlos directamente. Las variables entre llaves son lo que tenés que reemplazar con tu contenido.
Template 1: Generación de código
<instructions>Sos un desarrollador senior en {LENGUAJE} {VERSION}. Usás {FRAMEWORK} y seguís las convenciones del proyecto.</instructions><context>{CÓDIGO_EXISTENTE_O_SPECS}</context><task>Escribí {DESCRIPCIÓN_FUNCIÓN}. Debe manejar los siguientes edge cases: {CASOS_BORDE}. Incluí type hints y docstrings.</task><output_format>Código listo para copiar, sin explicaciones. Si hay decisiones de diseño relevantes, agregalas como comentarios en el código.</output_format>
Template 2: Redacción iterativa
<instructions>Sos un redactor especializado en {NICHO}. Tono: {TONO}. Audiencia: {AUDIENCIA}. Largo objetivo: {PALABRAS} palabras.</instructions><context>{DATOS_FUENTES_INFORMACIÓN}</context><task>Escribí la sección "{NOMBRE_SECCIÓN}" del artículo sobre {TEMA}. Enfocate en {ÁNGULO_ESPECÍFICO}.</task><output_format>Prosa lista para publicar. Sin encabezados (ya los tengo). Párrafos de 3-4 oraciones máximo.</output_format>
Template 3: Análisis de datos
<instructions>Sos un analista de datos. Priorizá hallazgos accionables sobre descripciones obvias. Si un dato no tiene implicación práctica, no lo menciones.</instructions><context><dataset>{DATOS_CSV_O_JSON}</dataset><objetivo_negocio>{QUÉ_DECISIÓN_NECESITO_TOMAR}</objetivo_negocio></context><task>Analizá los datos y respondé: {PREGUNTAS_ESPECÍFICAS}</task><output_format>Resumen ejecutivo (3 oraciones) + hallazgos principales (lista numerada) + recomendación.</output_format> Si te interesa, podes leer mas sobre controlar Claude Code de forma remota.
Prompts para programar con Claude: ejemplos que funcionan
La programación es donde Claude muestra su mayor diferencial, especialmente con prompts bien armados. Un tip que marca diferencia: siempre especificá la versión exacta del lenguaje y framework. “Python” no es lo mismo que “Python 3.12 con Pydantic v2 y SQLAlchemy 2.0”. Claude ajusta las respuestas a la API correcta de cada versión.
Debugging
<instructions>Sos un debugger experto en {LENGUAJE}. Tu trabajo es encontrar la causa raíz, no poner parches.</instructions><context><code>{CÓDIGO_CON_BUG}</code><error>{MENSAJE_DE_ERROR_COMPLETO}</error><environment>{VERSIONES_OS_DEPENDENCIAS}</environment></context><task>Encontrá la causa raíz del error. Explicá por qué ocurre y proponé la corrección mínima necesaria.</task>
Ejemplo concreto: le pasé a Claude un error de TypeError: 'NoneType' object is not subscriptable en una función de FastAPI que procesaba respuestas de una API externa. El prompt incluía el traceback completo, la función y el schema de respuesta esperado de la API. Claude identificó en 8 segundos que el error ocurría cuando la API devolvía un 204 No Content (body vacío) y que faltaba un chequeo de response.json() antes del acceso por clave. No sugirió un try/except genérico — propuso validar el status code primero, que era la solución correcta.
Code Review
<instructions>Revisá este código como si fueras el reviewer más exigente del equipo. Buscá: bugs, vulnerabilidades de seguridad (OWASP top 10), problemas de performance, violaciones de convenciones.</instructions><context><code>{CÓDIGO_A_REVISAR}</code><project_conventions>{CONVENCIONES_SI_LAS_HAY}</project_conventions></context><task>Listá cada issue encontrado con severidad (crítico/alto/medio/bajo), ubicación (línea), problema y fix sugerido.</task>
Errores que arruinan tus prompts en Claude (y cómo evitarlos)
Después de trabajar extensivamente con Claude, estos son los errores que veo repetirse constantemente.
Error 1: Meter todo en un solo prompt. Pedirle que analice un dataset, genere un informe, cree las visualizaciones y escriba las conclusiones, todo junto. Claude no falla porque no pueda hacerlo — falla porque la calidad de cada parte baja cuando compite por atención con las demás. La solución es prompt chaining: una tarea por prompt, cada resultado alimenta al siguiente.
Error 2: Copiar prompts de ChatGPT sin adaptar. Los prompts que funcionan en GPT-4o usan patrones que Claude no necesita. “Think step by step” es un ejemplo clásico: en Claude 4.x, el modelo ya razona paso a paso por defecto cuando la tarea lo requiere. Agregarlo no mejora nada y a veces genera respuestas innecesariamente largas. Lo que sí necesitás en Claude y no en ChatGPT son las etiquetas XML para separar secciones. Si te interesa, podes leer mas sobre Claude Sonnet enfocado en programación.
Error 3: No especificar el formato de salida. “Analizá estos datos” puede devolverte una tabla, un párrafo, una lista o JSON. Si después te quejás de que el formato no era lo que querías, la culpa es del prompt. Claude es muy obediente con el formato cuando se lo pedís — pero no adivina cuál preferís.
Error 4: Dar contexto insuficiente. “Arreglá este bug” sin incluir el traceback, las versiones ni el código circundante es como pedirle a un mecánico que arregle tu auto por teléfono sin describir el ruido. Claude puede pedir clarificación, pero muchos no le dan la oportunidad y se frustran con la respuesta genérica.
Error 5: Usar instrucciones negativas en vez de positivas. “No escribas de manera formal” es menos efectivo que “Usá un tono conversacional, como si le explicaras a un compañero de trabajo”. Claude responde mejor cuando le decís qué hacer que cuando le decís qué no hacer. Las instrucciones negativas a veces producen el efecto contrario, especialmente en prompts largos.
Claude vs ChatGPT vs Gemini: cómo adaptar tus prompts a cada modelo
| Aspecto | Claude (Anthropic) | ChatGPT (OpenAI) | Gemini (Google) |
|---|---|---|---|
| Estructura preferida | Etiquetas XML nativas | Markdown con headers y delimitadores | Markdown con headers |
| Ventana de contexto | 200K tokens | 128K tokens (GPT-4o) | 1-2M tokens |
| Prefilling de respuesta | Sí (exclusivo vía API) | No disponible | No disponible |
| Pensamiento extendido | Extended thinking (budget configurable) | Modelos o1/o3 separados | Thinking mode en Gemini 2.0 |
| Adherencia a system prompt | Muy alta | Alta | Media-alta |
| Tono por defecto | Mesurado y preciso | Entusiasta y servicial | Informativo y neutro |
| Fortaleza en prompting | Instrucciones complejas multi-constraint | Esquemas estrictos y JSON mode | Documentos largos y multi-fuente |

Si tenés prompts armados para ChatGPT y querés migrarlos a Claude, la adaptación principal es reemplazar los delimitadores markdown (###, ---, triple backtick) por etiquetas XML equivalentes. También podés eliminar instrucciones redundantes como “think step by step” o “be concise” — Claude tiende a ser conciso por defecto.
Ahora bien, no todo es mejor en Claude. Para tareas que requieren output en JSON estricto con schemas validados, GPT-4o tiene un JSON mode más robusto. Y si necesitás procesar un documento de 500 páginas completo, Gemini con su ventana de 1-2M tokens es la opción obvia. Lo inteligente es usar cada modelo donde mejor rinde, no casarte con uno solo.
Herramientas oficiales de Anthropic para crear y mejorar prompts
Anthropic no te deja solo con la documentación. Tiene herramientas concretas que resuelven problemas reales de prompting.
Prompt Generator (en la consola de Anthropic, console.anthropic.com): describís tu tarea en lenguaje natural — “quiero un prompt que revise código Python buscando vulnerabilidades de seguridad” — y la herramienta genera un prompt completo con etiquetas XML, sección de ejemplos y manejo de edge cases. Resuelve el síndrome de la página en blanco, que es probablemente el mayor obstáculo cuando arrancás con prompting. Si te interesa, podes leer mas sobre nuestra guía completa sobre GPT.
Prompt Improver (misma consola): pegás un prompt existente y lo reescribe aplicando las mejores prácticas de Anthropic. Agrega estructura XML, clarifica instrucciones ambiguas y suma manejo de casos borde que probablemente no habías considerado. Lo probé con prompts que ya creía buenos y siempre encontró algo que mejorar.
Tutorial interactivo en GitHub (anthropics/prompt-eng-interactive-tutorial): es un curso basado en Jupyter notebooks con más de 9 capítulos. Cubre desde estructura básica hasta técnicas avanzadas como prefilling, few-shot prompting y reducción de alucinaciones. Cada capítulo tiene ejercicios con corrección automática. Necesitás una API key de Anthropic para correrlo, pero el contenido es el mejor recurso gratuito que encontré para aprender prompting específico de Claude.
Prompt Library (docs.anthropic.com/en/prompt-library): catálogo de prompts categorizados por caso de uso — generación de código, extracción de datos, escritura creativa, resumen, soporte al cliente. Cada uno incluye el system prompt completo, mensajes de ejemplo y el estilo de output esperado. No son templates genéricos: están optimizados para Claude y se nota.
Qué significa para empresas y equipos en Latinoamérica
El prompting no es un skill abstracto — tiene impacto directo en productividad. Un equipo de desarrollo que usa prompts bien estructurados con Claude puede reducir el tiempo de code review, generar tests unitarios en segundos y debuggear más rápido. Pero la brecha entre un prompt malo y uno bueno es enorme.
Para equipos en Latinoamérica, hay un punto práctico relevante: Claude maneja español muy bien, pero los prompts en español rinden mejor cuando incluís instrucciones explícitas de idioma en el system prompt. “Respondé siempre en español rioplatense” o “Usá español neutro latinoamericano” hace diferencia versus asumir que Claude va a detectar el idioma automáticamente.
Otro punto: la API de Claude tiene precios competitivos para la región, y las herramientas gratuitas como el Prompt Generator y la Prompt Library bajan la barrera de entrada. Un equipo chico puede armar una biblioteca interna de prompts optimizados sin invertir meses en trial and error.
Para entender mejor el contexto detrás de estas decisiones, vale la pena leer Los Mejores Prompts para Claude: Templates y Ejemplos que Fu.
Errores comunes
Creer que “más largo = mejor prompt”. Agregar párrafos de contexto irrelevante no mejora las respuestas — las empeora. Claude pondera todo lo que le das por igual. Si metés 3 páginas de contexto donde solo 2 párrafos son relevantes, estás diluyendo la señal. Mejor: incluí solo lo necesario, bien etiquetado con XML. Si te interesa, podes leer mas sobre lo que ofrece Gemini como alternativa.
Usar el mismo prompt para todos los modelos de Claude. Haiku, Sonnet y Opus tienen capacidades distintas. Un prompt complejo con múltiples constraints que Opus maneja perfecto puede confundir a Haiku. Si usás Haiku para tareas rápidas, simplificá el prompt. Si usás Opus para análisis profundo, podés ser más ambicioso con las instrucciones.
No iterar sobre el prompt. Mucha gente escribe un prompt, obtiene una respuesta mediocre y concluye que “Claude no sirve para esto”. El prompting es iterativo. Si la primera respuesta no es lo que esperabas, ajustá: agregá un ejemplo de lo que sí querés, acotá el scope, especificá mejor el formato. En general, 2-3 iteraciones alcanzan para llegar a un prompt que funcione consistentemente.
Preguntas Frecuentes
¿Cuáles son los mejores prompts para usar en Claude AI?
Los mejores prompts para Claude siguen la estructura de 4 bloques (instrucciones, contexto, tarea, formato de salida) separados con etiquetas XML. La Prompt Library oficial de Anthropic tiene decenas de ejemplos optimizados por categoría. La clave no es el prompt individual sino la estructura: contexto específico, tarea acotada y formato de salida explícito.
¿Qué diferencia hay entre hacer prompts para Claude y para ChatGPT?
Claude fue entrenado para interpretar etiquetas XML como delimitadores estructurales, algo que ChatGPT no aprovecha igual. Claude también permite prefilling de respuestas vía API (forzar que la respuesta arranque con un formato específico) y no necesita instrucciones como “think step by step” porque ya lo hace por defecto en Claude 4.x. ChatGPT rinde mejor con JSON mode estricto.
Si querés entender mejor cómo sacarle provecho a este modelo, armamos una guía sobre Los Mejores Prompts para Claude: Templates y Ejemplos que Fu.
Si querés sacarle más partido a Claude, explorá Los Mejores Prompts para Claude: Templates y Ejemplos que Fu donde profundizamos en técnicas concretas.
¿Cómo usar etiquetas XML en los prompts de Claude?
Usá tags descriptivos como <instructions>, <context>, <task> y <output_format> para separar secciones del prompt. Los nombres de los tags son libres — podés usar cualquier nombre que describa el contenido. Claude los reconoce nativamente y distingue mejor las instrucciones del contenido, reduciendo errores de interpretación.
¿Qué estructura de prompt funciona mejor en Claude?
La estructura más efectiva coloca los documentos o datos largos al principio del prompt (dentro de tags XML), seguidos por las instrucciones específicas y el formato de salida deseado al final. Para tareas complejas, usá prompt chaining: dividí en subtareas y encadená los resultados. El Prompt Generator de la consola de Anthropic genera esta estructura automáticamente.
Conclusión
Hacer buenos prompts para Claude no requiere fórmulas secretas, pero sí requiere entender cómo piensa este modelo en particular. Las etiquetas XML, la estructura de 4 bloques y el prefilling de respuestas son ventajas concretas que Claude tiene sobre otros modelos — pero solo si las usás.
Mi recomendación concreta: arrancá con el Prompt Generator de la consola de Anthropic para resolver la página en blanco, pasá por el tutorial interactivo de GitHub para entender la lógica detrás de cada técnica, y después armá tu propia biblioteca de templates basada en los patrones de este artículo. No copies prompts de ChatGPT sin adaptar, especificá siempre el formato de salida y dividí las tareas complejas en cadenas de prompts simples. Tres semanas iterando con estos principios te van a dar mejores resultados que un año copiando prompts genéricos de internet.
Fuentes
- Documentación oficial de Anthropic — Prompt Engineering: https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
- Prompt Library de Anthropic: https://docs.anthropic.com/en/prompt-library
- Tutorial interactivo de prompt engineering (GitHub): https://github.com/anthropics/prompt-eng-interactive-tutorial
- Documentación de Extended Thinking: https://docs.anthropic.com/en/docs/build-with-claude/extended-thinking
- Guía de etiquetas XML en Claude: https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/use-xml-tags
Cómo funciona
- Armá la estructura base del prompt: Separá tu pedido en cuatro bloques diferenciados — instrucciones generales, contexto relevante, la tarea específica y el formato de salida que esperás — para que Claude pueda procesar cada parte sin confusiones.
- Usá etiquetas XML para delimitar secciones: Encerrá cada bloque entre tags como
<contexto>,<tarea>o<formato>. Claude fue entrenado para interpretar estas marcas como separadores semánticos, lo que mejora la precisión de las respuestas. - Cargá el contexto completo antes de la instrucción: Pegá documentos, datos o ejemplos al principio del prompt y dejá las instrucciones para el final. Este orden aprovecha mejor la ventana de contexto y reduce alucinaciones.
- Iterá con las herramientas de Anthropic: Pasá tu primer borrador por el Prompt Generator o el Prompt Improver de la consola de Anthropic para detectar mejoras automáticas antes de usar el prompt en producción.
Ejemplo práctico
Mariana Quiroga, product manager en una fintech de Córdoba, necesitaba analizar 340 tickets de soporte del último trimestre para detectar patrones de queja recurrentes. En lugar de tirarle a Claude un prompt genérico como “analizá estos tickets”, armó un prompt estructurado en bloques con etiquetas XML:
<instrucciones>
Sos un analista de experiencia de cliente con 10 años en fintech. Analizá los tickets de soporte y detectá los 5 problemas más frecuentes.
</instrucciones>
<contexto>
Empresa: billetera virtual con 85.000 usuarios activos en Argentina.
Período: enero-marzo 2026.
</contexto>
<tickets>
[340 tickets exportados en CSV pegados acá, 48.000 tokens]
</tickets>
<formato_salida>
Para cada problema listá: nombre del issue, cantidad de tickets afectados, porcentaje sobre el total, causa raíz probable y una recomendación accionable para el equipo de producto.
Devolvé la respuesta en una tabla markdown.
</formato_salida>Claude procesó los 340 tickets en una sola pasada gracias a la ventana de 200K tokens — sin necesidad de resumir ni partir el archivo. El modelo identificó que el 31% de los tickets (106 de 340) se concentraban en un solo problema: errores al vincular cuentas bancarias de un banco específico. Ese insight le permitió a Mariana priorizar un fix que redujo los tickets de soporte un 27% en las dos semanas siguientes.
Resultado: El prompt estructurado con XML tardó 3 minutos en armarse, pero le ahorró al equipo más de 12 horas de categorización manual y reveló un patrón que el análisis humano de los últimos dos meses no había detectado.
¿Puedo usar los mismos prompts de ChatGPT en Claude?
No directamente. Claude interpreta etiquetas XML como delimitadores estructurales, algo que ChatGPT trata como texto plano. Lo ideal es adaptar el prompt usando la estructura de 4 bloques (instrucciones, contexto, tarea, formato) con tags XML para separar cada sección y aprovechar lo que hace único a Claude.
¿Dónde consigo templates gratuitos para Claude?
Anthropic ofrece dos herramientas gratuitas en su consola: el Prompt Generator, que crea prompts desde cero a partir de una descripción, y el Prompt Improver, que optimiza prompts que ya tenés. Además, en este artículo encontrás templates probados para código, redacción y análisis que podés copiar directo.
¿Cuál es el mejor prompt para programar con Claude?
El que incluye la versión exacta del lenguaje y framework, el código relevante dentro de tags XML como contexto, y una descripción precisa del problema. En vez de decir ‘revisá este código’, especificá qué buscás — bugs, problemas de performance o vulnerabilidades de seguridad — y en qué versión del stack estás trabajando.
¿Claude tiene templates de prompts oficiales listos para usar?
Sí. Anthropic ofrece una biblioteca de templates en la consola de Claude (console.anthropic.com) con prompts optimizados para tareas como análisis de código, redacción, extracción de datos y resumen de documentos. Además, el Prompt Generator integrado te crea un template personalizado a partir de una descripción breve de lo que necesitás.
¿Puedo usar los mismos prompts de ChatGPT en Claude?
Podés, pero vas a obtener resultados inferiores. Claude fue entrenado para interpretar etiquetas XML como delimitadores estructurales y responde mejor a instrucciones conversacionales detalladas con contexto explícito. Adaptar un prompt de ChatGPT a Claude implica agregar tags XML para separar secciones, ser más específico en la tarea y aprovechar la ventana de 200K tokens para incluir contexto completo en vez de resúmenes.
¿Qué prompt funciona mejor para pedirle código a Claude?
El template más efectivo combina rol + contexto técnico + tarea específica + formato de salida. Por ejemplo: definís a Claude como desarrollador senior del lenguaje que usás, pegás el código o error relevante entre tags XML como <codigo>, describís exactamente qué necesitás (no solo ‘arreglá esto’) y pedís que incluya explicación de los cambios. Activar extended thinking mejora notablemente los resultados en debugging complejo.
¿Cuántos tokens puedo meter en un prompt de Claude?
Claude soporta hasta 200.000 tokens de contexto en toda su familia de modelos (Haiku, Sonnet y Opus), equivalente a unas 150.000 palabras o un libro de 500 páginas. Podés incluir documentos enteros, codebases completos o transcripciones largas sin necesidad de resumir, pero ubicá siempre los documentos al principio del prompt y las instrucciones después para mejores resultados.
