Title | Un modèle Transformer Génératif Pré-entrainé pour le français Generative Pre-trained Transformer in French (We introduce a French adaptation from the well-known GPT model) |
Publication Type | Article dans des actes |
Année de la conférence | 2021 |
Authors | Simoulin, Antoine, and Benoît Crabbé |
Nom de la conférence | Actes de la 28e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale |
Pagination | 246–255 |
Date de publication | jun |
Publisher | ATALA |
Conference Location | Lille, France |
Abstract | Nous proposons une adaptation en français du fameux modèle Generative Pre-trained Transformer (GPT). Ce dernier appartient à la catégorie des architectures transformers qui ont significativement transformé les méthodes de traitement automatique du langage. Ces architectures sont en particulier pré-entraînées sur des tâches auto-supervisées et sont ainsi spécifiques pour une langue donnée. Si certaines sont disponibles en français, la plupart se déclinent avant tout en anglais. GPT est particulièrement efficace pour les tâches de génération de texte. Par ailleurs, il est possible de l'appliquer à de nombreux cas d'usages. Ses propriétés génératives singulières permettent de l'utiliser dans des conditions originales comme l'apprentissage sans exemple qui ne suppose aucune mise à jour des poids du modèle, ou modification de l'architecture. |