G

Descente de Gradient

Définition

Un algorithme d'optimisation utilisé pour minimiser la fonction de perte dans les modèles de machine learning en ajustant itérativement les paramètres dans la direction de la descente la plus raide. Les variantes incluent la descente de gradient stochastique (SGD), le mini-batch et les méthodes adaptatives comme Adam.

Terme défini