R

Apprentissage par Renforcement à partir de Retours Humains

Définition

Une méthodologie d'entraînement qui utilise les préférences humaines pour guider l'ajustement fin des modèles d'IA. Le RLHF entraîne un modèle de récompense à partir de comparaisons humaines des sorties du modèle, puis utilise l'apprentissage par renforcement pour optimiser le modèle d'IA par rapport à ce signal de récompense.

Terme défini