Chain of Thought (CoT)
Prompting que obliga a un LLM a generar razonamiento paso a paso antes de responder.
Definición
Chain of Thought (CoT) es una técnica de prompting que instruye a un modelo de lenguaje de gran tamaño (LLM) a producir pasos de razonamiento intermedios antes de llegar a una respuesta final. Al generar explícitamente su proceso de pensamiento, el modelo logra una precisión significativamente mayor en tareas que requieren lógica, aritmética, razonamiento de múltiples pasos y análisis complejo.
Las características clave del prompting de Chain of Thought incluyen:
-
Trazas de razonamiento explícitas: En lugar de saltar directamente a una respuesta, el modelo escribe cada paso de su razonamiento, haciendo que la lógica sea visible y auditable. Esta transparencia ayuda a los desarrolladores a identificar dónde falla el razonamiento.
-
Variantes Zero-Shot y Few-Shot: El CoT puede activarse con una instrucción simple como "Piensa paso a paso" (zero-shot CoT) o proporcionando ejemplos resueltos que demuestren el formato de razonamiento deseado (few-shot CoT).
-
Ganancias de precisión medibles: La investigación ha demostrado que el prompting de CoT mejora drásticamente el rendimiento en benchmarks de matemáticas, lógica y razonamiento de sentido común, especialmente con modelos más grandes.
-
Base para técnicas avanzadas: CoT es la pieza fundamental para métodos más sofisticados como Tree of Thought, Self-Consistency y los patrones de razonamiento utilizados en modelos como o1 y DeepSeek-R1.
Chain of Thought se ha convertido en una práctica estándar en la ingeniería de prompts y es una de las técnicas más confiables para mejorar la calidad de la salida de los LLM en tareas con una alta carga de razonamiento.