Définition

Des erreurs systématiques dans les systèmes d'IA qui produisent des résultats injustes ou discriminatoires, souvent issus de données d'entraînement biaisées, de conceptions de modèles défaillantes ou de préjugés sociétaux encodés dans les données. Traiter les biais de l'IA est essentiel pour construire des systèmes justes et équitables.

Terme défini