Gradientenverfahren
Ein iteratives Optimierungsverfahren zur Suche nach lokalen Minima einer Funktion.
Es ist das Herzstück des Deep Learnings. Fast alle neuronalen Netze werden mit Varianten dieses Algorithmus (wie Adam oder RMSProp) trainiert.
graph LR
Center["Gradientenverfahren"]:::main
Rel_backpropagation["backpropagation"]:::related -.-> Center
click Rel_backpropagation "/terms/backpropagation"
Rel_neural_network["neural-network"]:::related -.-> Center
click Rel_neural_network "/terms/neural-network"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧒 Erkläre es wie einem 5-Jährigen
🌍 Stell dir vor, du bist auf einem nebligen Berg und willst ins Tal. Du fühlst mit den Füßen, wo es am steilsten bergab geht, und gehst einen Schritt in diese Richtung.
🤓 Expert Deep Dive
Die Wahl der Lernrate ist entscheidend: Ist sie zu groß, überspringt das Modell das Minimum; ist sie zu klein, dauert das Training ewig.