Grands modèles de langage

Formation proposée par l’Institut rhônalpin des systèmes complexe (IXXI) et la MSH Lyon St-Etienne, dans le cadre de sa plateforme PANELS.

Intervenant : Jean-Philippe Magué, maître de conférences en sciences du langage (ENS de Lyon, ICAR)

 

 

Au cours de cette formation sur les grands modèles de langage (LLM), nous nous pencherons sur les architectures à base de transformers pour comprendre le fonctionnement des modèles qui sous-tendent les agents conversationnels tels ChatGPT.

 

Après un rapide retour sur le fonctionnement des réseaux de neurones, nous nous intéresserons aux mécanismes d'entraînement des LLM puis nous rentrerons dans le détail de l'architecture de GPT2, un modèle suffisamment petit pour être manipulable directement, mais suffisamment complexe pour présenter les aspects fondamentaux des LLM.

 

 

Public : ouvert à tous les personnels (chercheurs, enseignants-chercheurs, ingénieurs et techniciens, doctorants) membres des laboratoires associés à la MSH Lyon St-Etienne.

 

Pré-requis : avoir une expérience de programmation en Python.

 

 

Information pratiques

Inscription gratuite mais obligatoire, avant le 3 juin 2025 (nb de places limité) >> formulaire en ligne
Contacts : Jean-Philippe Magué, maître de conférences (IXXI) - jean-philippe.mague (v) ens-lyon.fr
Alioscha Massein, statisticien (CNRS, MSH Lyon St-Etienne) | alioscha.massein (v) msh-lse.fr

Mots clefs