Buenas Prácticas de Prompts para IA: Guía Definitiva 2025

Por Qué el 90% de los Prompts Fallan (Y Cómo Estar en el 10%)

Has probado ChatGPT, Claude o Gemini. Te emociona la IA. Escribes un prompt… y la respuesta es genérica, vaga, o directamente inútil. No es culpa de la IA. Es culpa del prompt.

Un buen prompt es la diferencia entre:

  • «Escribe un artículo sobre IA» → 500 palabras aburridas y genéricas
  • «Escribe un tutorial técnico de 1,500 palabras sobre fine-tuning de LLMs con LoRA, incluyendo código Python, casos de uso reales y una tabla comparativa de hiperparámetros» → Artículo específico, útil y publicable

Esta guía te enseña las 15 buenas prácticas que usan los profesionales para sacar el máximo partido a los LLMs. Con ejemplos reales, antes/después, y templates listos para copiar.

🎯 Qué Aprenderás

  • 15 técnicas probadas de prompt engineering
  • Ejemplos antes/después con resultados reales
  • 20+ templates copy-paste para tus casos de uso
  • Diferencias entre modelos (GPT, Claude, Gemini)
  • Trucos avanzados (chain-of-thought, few-shot, etc.)

Los Fundamentos: Anatomía de un Prompt Perfecto

Un prompt efectivo tiene 4 componentes:

  1. Contexto: Quién eres, qué necesitas
  2. Instrucción: Qué quieres que haga
  3. Formato: Cómo quieres la respuesta
  4. Restricciones: Qué NO incluir

Ejemplo Malo vs Bueno

❌ Prompt malo:

Escribe sobre Docker

Problema: Demasiado vago. ¿Tutorial? ¿Comparativa? ¿Para quién? ¿Qué longitud?

✅ Prompt bueno:

Eres un ingeniero DevOps experto. Escribe un tutorial de Docker para desarrolladores junior que nunca han usado containerización.

Estructura:
- Qué es Docker y por qué usarlo (200 palabras)
- Instalación en Linux (paso a paso)
- 5 comandos esenciales con ejemplos
- Primer Dockerfile (ejemplo completo con Node.js app)
- Troubleshooting común (3 problemas típicos)

Tono: Técnico pero accesible. Usa analogías cuando sea posible.
Longitud: 1,500 palabras.
Formato: Markdown con bloques de código.

Por qué funciona: Contexto (DevOps → junior), estructura clara, tono especificado, longitud definida, formato explícito.

Las 15 Buenas Prácticas de Prompts (Con Ejemplos)

1. Sé Específico, No Vago

Cuanto más específico, mejor resultado.

❌ Vago ✅ Específico
«Explica machine learning» «Explica cómo funciona el algoritmo Random Forest, incluyendo: splitting criteria, tree construction, y aggregation. Incluye un ejemplo con clasificación de emails (spam/no-spam).»
«Mejora este código» «Refactoriza este código Python para: 1) Reducir complejidad ciclomática, 2) Añadir type hints, 3) Extraer constantes mágicas, 4) Implementar logging. Mantén la funcionalidad actual.»

2. Proporciona Contexto Rico

La IA no sabe quién eres ni qué sabes. Díselo.

❌ Sin contexto:
"¿Cómo optimizo mi base de datos?"

✅ Con contexto:
"Contexto: Soy backend developer con PostgreSQL 15. Tengo una tabla 'users' con 5M de filas. Las queries de búsqueda por email tardan 800ms.

Pregunta: ¿Cómo optimizo las búsquedas por email? Considera: índices, partitioning, y query optimization. Prioriza soluciones que no requieran downtime."

3. Define el Formato de Salida

JSON, Markdown, tabla, lista, código… especifica cómo quieres la respuesta.

✅ Formato claro:
"Genera una comparativa de 3 frameworks JS (React, Vue, Svelte).

Formato: Tabla Markdown con estas columnas:
- Framework
- Curva de aprendizaje (1-5)
- Performance (1-5)
- Ecosistema (1-5)
- Casos de uso ideales
- Empresas que lo usan

Después de la tabla, un párrafo de 100 palabras con recomendación según proyecto."

4. Usa Ejemplos (Few-Shot Learning)

Muestra 2-3 ejemplos de lo que quieres. La IA aprenderá el patrón.

Convierte estas descripciones en nombres de variables en camelCase:

Ejemplo 1:
Input: "número de usuarios activos"
Output: activeUserCount

Ejemplo 2:
Input: "fecha de última actualización"
Output: lastUpdatedDate

Ahora convierte estas:
- "lista de productos más vendidos"
- "precio total con impuestos incluidos"
- "resultado de validación de formulario"

5. Establece el Rol/Persona

La IA cambia su estilo según el rol que le asignes.

Rol Resultado
«Eres un profesor universitario» Explicaciones académicas, rigurosas, con referencias
«Eres un senior developer» Código optimizado, mejores prácticas, consideraciones de producción
«Eres un copywriter experto» Textos persuasivos, orientados a conversión
«Eres un crítico técnico» Análisis exhaustivo, encuentra problemas, sugiere mejoras

6. Divide Tareas Complejas

Una tarea grande → múltiples prompts pequeños.

❌ Todo de golpe:

"Crea una app completa de e-commerce con React, Node.js, PostgreSQL, autenticación, carrito, pagos con Stripe y panel de admin"

Resultado: Código superficial, sin detalles, probablemente con bugs.

✅ Paso a paso:

  1. «Diseña el schema de PostgreSQL para e-commerce (users, products, orders, cart)»
  2. «Crea el backend API en Node.js con Express para autenticación (JWT)»
  3. «Implementa endpoints de productos (CRUD)»
  4. «Crea el frontend React para listado de productos con filtros»
  5. «Integra Stripe checkout en el carrito»

Resultado: Código detallado, revisable, funcional en cada paso.

7. Itera y Refina

Primera respuesta raramente es perfecta. Pide mejoras específicas.

Prompt 1: "Escribe función Python que valide emails"

Respuesta: [código básico con regex]

Prompt 2: "Mejora la función para:
- Validar TLDs reales (.com, .org, etc)
- Rechazar emails desechables (temp-mail.org, etc)
- Añadir type hints y docstring
- Incluir 5 test cases"

Respuesta: [código mucho mejor]

8. Usa Delimitadores Claros

Separa inputs, contexto e instrucciones con delimitadores.

Analiza este código y sugiere mejoras:

```python
[tu código aquí]
```

Contexto del proyecto:
---
- API REST para IoT devices
- 10,000 requests/minuto
- Latencia crítica (<100ms)
---

Enfócate en: performance, seguridad, mantenibilidad.

9. Especifica la Audiencia

¿Para quién es la respuesta? Junior, senior, no-técnico...

"Explica qué es un CDN para tres audiencias diferentes:

Audiencia 1: CEO sin conocimientos técnicos (100 palabras, enfoque en valor de negocio)
Audiencia 2: Developer junior (200 palabras, conceptos básicos con analogía)
Audiencia 3: DevOps engineer (150 palabras, detalles técnicos de implementación)"

10. Pide Justificaciones y Razonamiento

No solo respuestas, sino el porqué.

❌ Simple:
"¿React o Vue para mi proyecto?"

✅ Con razonamiento:
"Compara React vs Vue para un dashboard admin con:
- 50+ componentes reutilizables
- Actualizaciones real-time con WebSockets
- Equipo de 3 developers junior

Para cada framework, explica:
1. Por qué sería buena opción (pros)
2. Posibles problemas (cons)
3. Curva de aprendizaje para juniors
4. Ecosistema de librerías relevantes

Termina con tu recomendación justificada."

11. Controla la Temperatura (Creatividad vs Precisión)

Aunque esto se configura en la API, puedes pedirlo en el prompt.

Tarea Temperatura Ideal Instrucción en Prompt
Código/Math/Facts Baja (0.1-0.3) "Responde con precisión técnica, sin creatividad"
Escritura creativa Alta (0.7-0.9) "Sé creativo, original, experimenta con metáforas"
Brainstorming Alta (0.8-1.0) "Genera ideas diversas y fuera de lo común"

12. Chain-of-Thought (Pensamiento Paso a Paso)

Pide que piense en voz alta. Mejora razonamiento en problemas complejos.

"Resuelve este problema paso a paso, explicando tu razonamiento en cada paso:

Tengo una API con 1,000 req/s. Cada request tarda 200ms en procesarse. ¿Cuántos workers concurrentes necesito para manejar la carga sin queue buildup?

Piensa paso a paso:
1. Calcula requests totales por segundo
2. Calcula tiempo de procesamiento total
3. Determina workers necesarios
4. Añade overhead y buffer
5. Recomendación final"

13. Usa Constraints (Limitaciones)

Restricciones guían la creatividad y evitan respuestas genéricas.

"Genera 5 nombres para una startup de IA.

Constraints:
- Máximo 8 letras
- Fácil de pronunciar en inglés y español
- Evitar: palabras con 'AI', 'bot', 'tech'
- Disponible como .com (verifica)
- Memorable y único
- Sin connotaciones negativas

Para cada nombre, explica el significado/origen."

14. Evita Ambigüedades

Palabras como "mejor", "óptimo", "rápido" son relativas. Define métricas.

⚠️ Ambiguo:

"¿Cuál es la mejor base de datos para mi app?"

"Mejor" depende de: volumen, tipo de queries, consistencia, budget, equipo...

✅ Específico:

"Necesito elegir base de datos con estos requisitos:
- 100GB datos estructurados (relacional)
- 10,000 writes/segundo
- ACID compliance crítico
- Budget: $500/mes
- Equipo con experiencia en SQL

Compara PostgreSQL, MySQL y CockroachDB en estas dimensiones:
- Performance en writes
- Escalabilidad horizontal
- Costo (managed services)
- Curva de aprendizaje

Recomienda una con justificación."

15. Testing y Validación

Pide que valide sus propias respuestas.

"Genera 5 expresiones regulares para validar:
1. Email
2. Teléfono español
3. Código postal USA
4. URL con HTTPS
5. Tarjeta de crédito (Visa/Mastercard)

Para cada regex:
- Proporciona la expresión
- 3 ejemplos que DEBEN coincidir ✅
- 3 ejemplos que NO deben coincidir ❌
- Explicación de cada parte del regex"

Templates Listos para Usar por Caso de Uso

1. Programación / Debugging

Eres un senior software engineer experto en [lenguaje].

Código actual:
```[lenguaje]
[tu código]
```

Tarea: [refactorizar / optimizar / debuggear / añadir feature]

Requisitos:
- Mantén la funcionalidad actual
- Añade comentarios explicativos
- Incluye type hints/types
- Sigue mejores prácticas de [lenguaje]
- Optimiza para [performance / legibilidad / mantenibilidad]

Explica los cambios principales que hiciste y por qué.

2. Escritura de Contenido

Eres un copywriter experto en [nicho].

Audiencia: [descripción de la audiencia]
Objetivo: [informar / persuadir / educar]
Tono: [profesional / casual / técnico / amigable]

Escribe un artículo sobre: [tema]

Estructura:
- Título gancho (60-70 caracteres)
- Introducción (150 palabras) que enganche
- [X] secciones principales con H2
- Conclusión con call-to-action
- Meta description SEO (155 caracteres)

Longitud total: [X] palabras

Keywords a incluir naturalmente: [keywords]

3. Análisis de Datos

Eres un data analyst experto.

Dataset: [descripción o CSV]

Análisis requerido:
1. Estadísticas descriptivas básicas
2. Identificar outliers y anomalías
3. Correlaciones entre variables
4. Insights accionables
5. Visualizaciones sugeridas (describir tipo de gráfico)

Formato de respuesta:
- Resumen ejecutivo (100 palabras)
- Hallazgos detallados con datos
- Recomendaciones priorizadas (top 3)
- Código Python para reproducir análisis

4. Generación de Ideas / Brainstorming

Actúa como un consultor de innovación.

Contexto: [tu situación/problema]

Genera 10 ideas para [objetivo] que sean:
- Originales (no lo típico)
- Factibles con [recursos disponibles]
- Medibles (cómo sabrías si funcionan)

Para cada idea proporciona:
- Nombre descriptivo
- Descripción (50 palabras)
- Esfuerzo estimado (bajo/medio/alto)
- Impacto potencial (1-10)
- Primer paso para implementarla

Ordena de mayor a menor ROI (impacto/esfuerzo).

5. Aprendizaje / Explicaciones

Eres un profesor que hace complejos conceptos simples.

Concepto a explicar: [concepto]

Audiencia: [nivel de conocimiento]

Explica usando:
1. Analogía del mundo real (que cualquiera entienda)
2. Ejemplo técnico concreto
3. Diagrama o representación visual (describe en texto)
4. 3 casos de uso prácticos
5. Errores comunes al aplicarlo

Evita: jerga innecesaria, suposiciones de conocimiento previo

Verifica comprensión con 3 preguntas al final.

Diferencias Entre Modelos: Qué Funciona Mejor en Cada Uno

GPT-4 / GPT-4 Turbo

Fortalezas:

  • Razonamiento complejo y multi-paso
  • Código en múltiples lenguajes
  • Seguimiento de instrucciones complejas
  • Contexto largo (128k tokens en Turbo)

Mejores para: Tareas técnicas, análisis complejos, debugging

Truco: Usa system prompts detallados. GPT-4 respeta mucho el rol asignado.

Claude 3.5 Sonnet

Fortalezas:

  • Comprensión de contexto superior
  • Respuestas más naturales y conversacionales
  • Excelente en escritura creativa
  • Análisis de documentos largos
  • Menos alucinaciones que GPT-4

Mejores para: Escritura, análisis de docs, contenido editorial

Truco: Claude responde mejor a prompts conversacionales que a prompts estructurados rígidos.

Gemini 1.5 Pro

Fortalezas:

  • Contexto masivo (1M tokens)
  • Excelente con código
  • Búsqueda integrada (más actualizado)
  • Análisis de múltiples documentos simultáneos

Mejores para: Research, análisis de múltiples fuentes, codebase reviews

Truco: Aprovecha el contexto gigante. Pasa documentación completa.

Modelos Open Source (Llama 3, Mixtral)

Fortalezas:

  • 100% privado (self-hosted)
  • Sin costos por token
  • Customizable (fine-tuning)

Mejores para: Producción con datos sensibles, volumen masivo

Truco: Usa prompts más explícitos. Open source necesita más guía que closed models.

Errores Comunes y Cómo Evitarlos

Error 1: Prompt Demasiado Largo

Problema: 2,000 palabras de contexto = confusión

Solución: Divide en múltiples prompts o resume el contexto crítico en 200-300 palabras.

Error 2: Asumir Conocimiento Previo

Problema: "Usa el patrón Repository como discutimos"

Solución: Cada prompt es independiente. Re-proporciona contexto necesario.

Error 3: No Validar Outputs

Problema: IA puede alucinar, especialmente con hechos/números

Solución: Verifica datos críticos. Pide fuentes. Cross-reference con docs oficiales.

Error 4: Usar IA para Todo

Problema: IA no reemplaza pensamiento crítico

Solución: Usa IA como copiloto, no piloto. Tú decides, IA sugiere/ejecuta.

Error 5: No Iterar

Problema: Primer output rara vez es óptimo

Solución: Refina 2-3 veces con feedback específico.

Recursos y Herramientas

Plataformas para Probar

  • OpenRouter: Acceso a 50+ modelos con una API. Cómo usarlo con n8n
  • Poe: UI para probar múltiples LLMs (GPT-4, Claude, Gemini)
  • HuggingChat: Open source, gratis, múltiples modelos

Prompt Libraries

  • Awesome ChatGPT Prompts: GitHub repo con 1,000+ prompts
  • PromptBase: Marketplace de prompts (algunos de pago)
  • FlowGPT: Community de prompts con ratings

Automatización de Prompts

Integra LLMs en tus workflows con n8n:

Preguntas Frecuentes (FAQs)

¿Los buenos prompts funcionan en todos los modelos?

En general sí, pero hay diferencias. GPT-4 prefiere structure, Claude prefiere conversational, modelos open source necesitan más explicitud. Adapta ligeramente según el modelo.

¿Cuánto contexto puedo proporcionar?

Depende del modelo:

  • GPT-4 Turbo: 128k tokens (~100,000 palabras)
  • Claude 3.5: 200k tokens (~150,000 palabras)
  • Gemini 1.5 Pro: 1M tokens (~750,000 palabras)

Pero más contexto ≠ mejor respuesta. Proporciona solo lo relevante.

¿Cómo sé si un prompt es bueno?

Test simple: ¿Otra persona podría ejecutar tu prompt y obtener el resultado esperado? Si sí, es bueno. Si no, añade más detalles.

¿Puedo guardar prompts para reutilizarlos?

¡Absolutamente! Crea una biblioteca personal de prompts. Usa:

  • Notion/Obsidian para organizar templates
  • GitHub repo para versionar prompts de código
  • n8n para automatizar prompts recurrentes

¿La IA puede escribir prompts mejores que yo?

Sí. Hay una técnica meta: "Mejora este prompt para obtener mejores resultados: [tu prompt]". Funciona sorprendentemente bien.

¿Cómo evito que la IA alucine hechos?

  1. Pide que cite fuentes
  2. Usa modelos con web search (Gemini, Perplexity)
  3. Valida datos críticos manualmente
  4. Usa temperature baja (0.1-0.3) para hechos
  5. Implementa RAG con tu knowledge base

¿Los prompts en inglés son mejores que en español?

Estadísticamente sí, los modelos están más entrenados en inglés. Pero la diferencia se reduce en modelos recientes. Usa el idioma que prefieras, la calidad es 95% similar.

¿Cómo hago prompts para generar código sin bugs?

  • Especifica lenguaje y versión
  • Pide type hints/types
  • Solicita docstrings/comentarios
  • Incluye test cases
  • Pide manejo de errores explícito
  • Especifica edge cases a considerar

¿Puedo usar prompts de otras personas?

Sí, pero adáptalos. Un prompt genérico rara vez es óptimo para tu caso específico. Usa prompts públicos como inspiración, no como copy-paste.

¿Hay límites en la complejidad de un prompt?

Técnicamente no, pero prácticamente sí. Si tu prompt tiene >1,000 palabras, probablemente necesitas dividirlo en múltiples prompts secuenciales.

¿Cómo debuggeo prompts que no funcionan?

  1. Simplifica: Reduce a la mínima expresión que funcione
  2. Itera: Añade complejidad gradualmente
  3. Clarifica: Pide a la IA que explique por qué respondió así
  4. Compara: Prueba el mismo prompt en diferentes modelos
  5. Pregunta: "¿Qué información adicional necesitas para responder mejor?"

¿Los prompts caducan?

No exactamente, pero los modelos evolucionan. Un prompt óptimo para GPT-3.5 puede no ser óptimo para GPT-4. Revisa y actualiza tus prompts cada 6-12 meses.

¿Cómo mido si un prompt mejoró?

Métricas según caso de uso:

  • Código: Menos bugs, mejor performance, más legible
  • Escritura: Menor tiempo de edición, mejor engagement
  • Análisis: Insights más accionables, decisiones mejores
  • Productividad: Tiempo ahorrado, tareas completadas

Conclusión: Domina los Prompts, Domina la IA

La diferencia entre usar IA como juguete vs como herramienta profesional está en los prompts. Las 15 prácticas de esta guía son las que usan los profesionales para sacar 10x más valor de los LLMs.

Tu plan de acción:

  1. Elige 3 prompts que usas frecuentemente
  2. Aplica 5 de estas 15 técnicas a cada uno
  3. Compara resultados antes/después
  4. Guarda los prompts mejorados en tu biblioteca personal
  5. Itera semanalmente

En un mes, tus prompts serán 5x mejores. En 3 meses, estarás en el top 10% de usuarios de IA.

Sobre esta guía: Basada en 2+ años usando LLMs profesionalmente, testing de 500+ prompts en producción y análisis de outputs de GPT-4, Claude, Gemini y modelos open source. Todas las técnicas están probadas y funcionan. Última actualización: Octubre 2025.

Por ziru

El Diario IA
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.