Descenso de Gradiente

Algoritmo de optimización iterativo para encontrar el mínimo local de una función.

Es esencial en ciencia de datos. Un reto común es evitar quedar atrapado en 'mínimos locales' que no son el punto más bajo global.

        graph LR
  Center["Descenso de Gradiente"]:::main
  Rel_backpropagation["backpropagation"]:::related -.-> Center
  click Rel_backpropagation "/terms/backpropagation"
  Rel_neural_network["neural-network"]:::related -.-> Center
  click Rel_neural_network "/terms/neural-network"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧒 Explícalo como si tuviera 5 años

🌍 Imagina que bajas una montaña con mucha niebla. Como no ves el final, vas tanteando el suelo y das un paso hacia donde baje más inclinado.

🤓 Expert Deep Dive

Optimiza los pesos restando el gradiente multiplicado por la tasa de aprendizaje. Optimizadores como Adam usan el momento para mejorar la convergencia.

📚 Fuentes