Descenso de Gradiente
Algoritmo de optimización iterativo para encontrar el mínimo local de una función.
Es esencial en ciencia de datos. Un reto común es evitar quedar atrapado en 'mínimos locales' que no son el punto más bajo global.
graph LR
Center["Descenso de Gradiente"]:::main
Rel_backpropagation["backpropagation"]:::related -.-> Center
click Rel_backpropagation "/terms/backpropagation"
Rel_neural_network["neural-network"]:::related -.-> Center
click Rel_neural_network "/terms/neural-network"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧒 Explícalo como si tuviera 5 años
🌍 Imagina que bajas una montaña con mucha niebla. Como no ves el final, vas tanteando el suelo y das un paso hacia donde baje más inclinado.
🤓 Expert Deep Dive
Optimiza los pesos restando el gradiente multiplicado por la tasa de aprendizaje. Optimizadores como Adam usan el momento para mejorar la convergencia.