
LLF – Bât. ODG – 5e étage – Salle 531
Alexandre Roulois (LLF)
Machine learning : stratégies pour optimiser l’entraînement d’un modèle
Jusqu’à présent, nous avons abordé les concepts essentiels de l’apprentissage supervisé très simplement, en les répartissant dans des étapes incontournables de tout projet de machine learning. De la constitution du jeu de données à l’entraînement du modèle en passant par la visualisation des interactions entre les variables explicatives et leur pré-traitement (recodage, mise à l’échelle, gestion des données manquantes…), il est en quelques manipulations possible d’obtenir des résultats satisfaisants avec les outils de Scikit-Learn dans la mesure où l’on est certain·es de disposer de données fiables et d’avoir fixé un objectif compréhensible.
La réalité est plus nuancée. Si notre volonté n’est pas de dresser un panorama exhaustif des techniques de paramétrage d’un modèle d’apprentissage et de leurs subtilités, pour cela nous renvoyons à des ouvrages plus complets comme celui de Aurélien Géron, Hands-on Machine Learning with Scikit-Learn, Keras and TensorFlow, notre intention est d’infuser un certain nombre de réflexes propres à éviter les principaux écueils inhérents aux méthodes statistiques.
Laboratoire de Linguistique Formelle – UMR 7110 CNRS et Université Paris Cité – RNSR : 200112497J
Adresse géographique : Bât. Olympe de Gouges, 5ème étage. 8, Rue Albert Einstein 75013 Paris
Envoyer un courrier : Case Postale 7031 – 5, rue Thomas Mann – F-75205 Paris Cedex 13
Transports : Métro ligne 14 : arrêt "Bibliothèque François Mitterrand" – Tram T3A : arrêt "Avenue de France" – Bus n°89 et 62 : arrêt "Porte de France"
Téléphone : (+33) (0)1 57 27 57 64 – Télécopie : (+33) (0)1 57 27 57 81
Directeur de la publication : Heather Burnett – Dernière mise à jour : 2025-06-08