Un modèle Transformer Génératif Pré-entrainé pour le français Generative Pre-trained Transformer in French (We introduce a French adaptation from the well-known GPT model)

TitleUn modèle Transformer Génératif Pré-entrainé pour le français Generative Pre-trained Transformer in French (We introduce a French adaptation from the well-known GPT model)
Publication TypeArticle dans des actes
Année de la conférence2021
AuthorsSimoulin, Antoine, and Benoît Crabbé
Nom de la conférenceActes de la 28e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale
Pagination246–255
Date de publicationjun
PublisherATALA
Conference LocationLille, France
Abstract

Nous proposons une adaptation en français du fameux modèle Generative Pre-trained Transformer (GPT). Ce dernier appartient à la catégorie des architectures transformers qui ont significativement transformé les méthodes de traitement automatique du langage. Ces architectures sont en particulier pré-entraînées sur des tâches auto-supervisées et sont ainsi spécifiques pour une langue donnée. Si certaines sont disponibles en français, la plupart se déclinent avant tout en anglais. GPT est particulièrement efficace pour les tâches de génération de texte. Par ailleurs, il est possible de l'appliquer à de nombreux cas d'usages. Ses propriétés génératives singulières permettent de l'utiliser dans des conditions originales comme l'apprentissage sans exemple qui ne suppose aucune mise à jour des poids du modèle, ou modification de l'architecture.