GPT-4, Stable Diffusion, GitHub Copilot : de nombreux modèles génératifs d’intelligence artificielle ont vu le jour ces derniers mois. Grâce à leurs performances et leur ergonomie, ils ne sont plus réservés aux seuls experts mais se sont ouverts au grand public. Parmi eux, les modèles dits « conversationnels » ont suscité de nombreuses réactions. Capables de répondre à des requêtes formulées en langue naturelle, ils peuvent mener une conversation avec un agent humain, quel que soit le niveau de technicité. Leur popularité est déjà avérée (ChatGPT compte plus de cent millions d’utilisateurs actifs mensuels) et leurs applications s’annoncent nombreuses.
Comment sont construits ces modèles conversationnels ? Quelle place occupent-ils dans l’écosystème du Traitement Automatique des Langues (TAL) ? En quoi sont-ils innovants ? Ce n°6 d’« Éclairage sur... » invite à une plongée au coeur de la technologie de ces dispositifs pour en saisir les principaux enjeux et limites. Combinant plusieurs briques techniques pré-existantes, ces modèles d’IA ne se révèlent pas si révolutionnaires comparés aux modèles antérieurs en TAL, mais innovent plutôt en matière d’accessibilité. Leur conception soulève de nombreuses questions sur le respect de la vie privée, la propriété intellectuelle ou l’ouverture de la science : là où les modèles GPT sont développés comme de véritables produits, des modèles plus respectueux et ouverts pourraient aussi trouver leur place. L’éducation des utilisateurs permettrait de dépasser l’engouement autour de quelques modèles seulement et de véritablement démocratiser leurs capacités.