T

Un paramètre qui contrôle le caractère aléatoire de la sortie d'un modèle d'IA. Des valeurs de température plus basses produisent des réponses plus déterministes et ciblées, tandis que des valeurs plu...

Définition
T

Le processus de découpage du texte en unités plus petites appelées tokens, qui peuvent être des mots, des sous-mots ou des caractères. La tokenisation est la première étape des pipelines de traitement...

Définition
T

Une architecture de deep learning introduite dans l'article de 2017 « Attention Is All You Need » qui s'appuie sur des mécanismes d'auto-attention au lieu de la récurrence. Les Transformers sont la ba...

Définition
E

Un passage complet à travers l'ensemble du jeu de données d'entraînement lors de l'entraînement du modèle. Plusieurs époques sont généralement nécessaires pour que le modèle converge, mais trop d'époq...

Définition