Chain of Thought
O prompting Chain of Thought (CoT) é uma técnica usada para melhorar as capacidades de raciocínio de modelos de linguagem grandes (LLMs), guiando-os através de uma série de etapas de raciocínio intermediárias.
O prompting Chain-of-Thought (CoT) é uma técnica avançada projetada para aprimorar as habilidades de raciocínio de Modelos de Linguagem Grandes (LLMs). Em vez de pedir diretamente uma resposta, o prompting CoT incentiva o modelo a gerar uma série de etapas de raciocínio intermediárias que levam à saída final. Isso é tipicamente alcançado fornecendo alguns exemplos no prompt que demonstram esse processo de raciocínio passo a passo, ou simplesmente anexando frases como "Vamos pensar passo a passo" à consulta do usuário. O princípio subjacente é que, ao externalizar o processo de pensamento, o LLM pode decompor melhor problemas complexos, rastrear sua própria progressão lógica e reduzir a probabilidade de cometer erros. Este método demonstrou melhorias significativas no desempenho em tarefas que exigem raciocínio aritmético, de senso comum e simbólico. A desvantagem é um aumento no comprimento da saída gerada e potencialmente custos computacionais mais altos devido ao processo de geração estendido. No entanto, a precisão e a interpretabilidade aprimoradas geralmente superam essas desvantagens, tornando o CoT uma ferramenta valiosa para alavancar LLMs em cenários complexos de resolução de problemas.
graph LR
Center["Chain of Thought"]:::main
Pre_philosophy["philosophy"]:::pre --> Center
click Pre_philosophy "/terms/philosophy"
Rel_prompt_engineering["prompt-engineering"]:::related -.-> Center
click Rel_prompt_engineering "/terms/prompt-engineering"
Rel_function_calling["function-calling"]:::related -.-> Center
click Rel_function_calling "/terms/function-calling"
Rel_machine_learning["machine-learning"]:::related -.-> Center
click Rel_machine_learning "/terms/machine-learning"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧠 Teste de conhecimento
🧒 Explique como se eu tivesse 5 anos
É como pedir a um amigo para mostrar o trabalho dele ao resolver um problema de matemática, em vez de apenas dar a resposta. Isso o ajuda a pensar com mais clareza e a obter a resposta correta.
🤓 Expert Deep Dive
O prompting Chain-of-Thought altera fundamentalmente o processo de inferência dos LLMs, introduzindo uma fase explícita de raciocínio intermediário. Arquiteturalmente, ele alavanca a natureza autorregressiva dos modelos transformer, incentivando a geração de uma sequência de tokens que representam etapas lógicas. Isso pode ser visto como uma forma de síntese de programa implícita ou previsão estruturada, onde o LLM gera um 'programa' de etapas de raciocínio antes de produzir a 'saída' final. A eficácia decorre da capacidade do modelo de condicionar a geração de tokens subsequentes em tokens gerados anteriormente, criando efetivamente um grafo computacional dinâmico. As desvantagens incluem aumento de latência e consumo de tokens. Vulnerabilidades podem surgir se as etapas intermediárias forem falhas, levando a 'lixo entra, lixo sai' apesar da abordagem estruturada. A pesquisa explora métodos para gerar automaticamente CoT, otimizar a granularidade das etapas e verificar a consistência lógica das cadeias geradas.