Cadena de Pensamiento

El prompting de Cadena de Pensamiento (CoT) es una técnica utilizada para mejorar las capacidades de razonamiento de los modelos de lenguaje grandes (LLMs) guiándolos a través de una serie de pasos de razonamiento intermedios.

El prompting de Cadena de Pensamiento (CoT) es una técnica avanzada diseñada para mejorar las habilidades de razonamiento de los Modelos de Lenguaje Grandes (LLMs). En lugar de pedir directamente una respuesta, el prompting CoT anima al modelo a generar una serie de pasos de razonamiento intermedios que conducen al resultado final. Esto se logra típicamente proporcionando algunos ejemplos en el prompt que demuestran este proceso de razonamiento paso a paso, o simplemente añadiendo frases como "Pensemos paso a paso" a la consulta del usuario. El principio subyacente es que al externalizar el proceso de pensamiento, el LLM puede descomponer mejor problemas complejos, seguir su propia progresión lógica y reducir la probabilidad de cometer errores. Este método ha mostrado mejoras significativas en el rendimiento en tareas que requieren razonamiento aritmético, de sentido común y simbólico. La contrapartida es un aumento en la longitud de la salida generada y potencialmente mayores costos computacionales debido al proceso de generación extendido. Sin embargo, la mejora en la precisión y la interpretabilidad a menudo superan estos inconvenientes, haciendo de CoT una herramienta valiosa para aprovechar los LLMs en escenarios complejos de resolución de problemas.

        graph LR
  Center["Cadena de Pensamiento"]:::main
  Pre_philosophy["philosophy"]:::pre --> Center
  click Pre_philosophy "/terms/philosophy"
  Rel_prompt_engineering["prompt-engineering"]:::related -.-> Center
  click Rel_prompt_engineering "/terms/prompt-engineering"
  Rel_function_calling["function-calling"]:::related -.-> Center
  click Rel_function_calling "/terms/function-calling"
  Rel_machine_learning["machine-learning"]:::related -.-> Center
  click Rel_machine_learning "/terms/machine-learning"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Prueba de conocimiento

1 / 3

🧒 Explícalo como si tuviera 5 años

Es como pedirle a un amigo que muestre su trabajo al resolver un problema de matemáticas, en lugar de solo dar la respuesta. Esto le ayuda a pensar con más claridad y a obtener la respuesta correcta.

🤓 Expert Deep Dive

El prompting de Cadena de Pensamiento altera fundamentalmente el proceso de inferencia de los LLMs al introducir una etapa explícita de razonamiento intermedio. Arquitectónicamente, aprovecha la naturaleza autorregresiva de los modelos transformer, animando a la generación de una secuencia de tokens que representan pasos lógicos. Esto puede verse como una forma de síntesis de programas implícita o predicción estructurada, donde el LLM genera un 'programa' de pasos de razonamiento antes de producir la 'salida' final. La efectividad proviene de la capacidad del modelo para condicionar la generación de tokens subsiguientes en tokens generados previamente, creando efectivamente un grafo computacional dinámico. Las contrapartidas incluyen un aumento en la latencia y el consumo de tokens. Las vulnerabilidades pueden surgir si los pasos intermedios son defectuosos, lo que lleva a 'basura entra, basura sale' a pesar del enfoque estructurado. La investigación explora métodos para generar automáticamente CoT, optimizar la granularidad de los pasos y verificar la consistencia lógica de las cadenas generadas.

🔗 Términos relacionados

Requisitos previos:

📚 Fuentes