Gradiente Descendente
Algoritmo de otimização iterativo para encontrar o mínimo local de uma função.
Essencial para redes neuronais. A 'taxa de aprendizagem' define o tamanho do passo; se for errada, o modelo nunca aprenderá corretamente.
graph LR
Center["Gradiente Descendente"]:::main
Rel_backpropagation["backpropagation"]:::related -.-> Center
click Rel_backpropagation "/terms/backpropagation"
Rel_neural_network["neural-network"]:::related -.-> Center
click Rel_neural_network "/terms/neural-network"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧒 Explique como se eu tivesse 5 anos
🌍 É como descer uma colina no escuro total. Você sente a inclinação com os pés e dá um passo para onde o terreno desce mais rapidamente.
🤓 Expert Deep Dive
O gradiente aponta para a subida mais íngreme; o algoritmo move-se na direção oposta. Variantese como o SGD são vitais para datasets massivos.