Placéco Gironde, le média qui fait rayonner l’écosystème

Votre édition locale

Découvrez toute l’actualité autour de chez vous

« L’IA est un sujet trop sérieux pour être laissé aux informaticiens » - Premium

Demain
mercredi 06 septembre 2023

Enseignant chercheur au Labri, et référent de la nouvelle chaire IA digne de confiance de l’université de Bordeaux, Laurent Simon évoquait au printemps la vague ChatGPT sur le plateau de l’émission Digitéco.

Figure de proue des nouveaux possibles de la transformation numérique, l’IA fascine autant qu’elle inquiète, tant son utilisation soulève de questions techniques, sociales, juridiques ou éthiques. Dans ce nouveau Far West, comment s’assurer de construire ou d’utiliser une IA « responsable » ? Eléments de réponse avec Laurent Simon, référent de la nouvelle chaire « IA digne de confiance », portée par l’Enseirb-Matmeca et par l’université de Bordeaux, en partenariat avec Kedge Business School.

Pourquoi est-il nécessaire de construire une IA « digne de confiance » ?
C’est nécessaire pour que l’on puisse s’approprier l’outil. Si l’IA s’exerce au travers d’une recommandation, il faut que j’aie la garantie que cette recommandation répond à mes besoins et ne me met pas en danger. Cette notion de confiance s’incarne dans la qualité de la réponse, mais elle passe aussi par la compréhension de la façon dont l’IA a pris sa décision. Or les outils que nous sommes en train de créer ont, par construction, un fonctionnement assez opaque. Ils sont très performants de façon globale, mais on ne peut pas expliquer chaque décision individuelle, ce qui fait de la question de la responsabilité un vrai problème sous-jacent. C’est le paradoxe de la conduite autonome : s’il n’y avait que des véhicules pilotés par IA, il y aurait beaucoup moins d’accidents qu’aujourd’hui, mais il y aurait tout de même des accidents, différents, qui soulèvent une double responsabilité : celle face au dommage, mais aussi celle face au fait de ne pas utiliser ces outils, qui permettraient de diminuer le nombre d’accidents.

Une étude Accenture affirme que 88% des gens ne font pas confiance aux décisions par une IA. Y a-t-il un problème de défiance ?
Cela n’empêche pas d’obéir à des systèmes basés sur des IA, par exemple sur les réseaux sociaux, où l’on n’éprouve pas forcément de défiance vis-à-vis des publicités qui nous sont proposées. Tout dépend du caractère critique de la décision. Sans parler des biais d’acceptabilité. Prenez Parcoursup, qui n’est pas de l’IA, mais un algorithme de décision qui fait ce que la loi demande et dont on a montré que l’implémentation était correcte. Nous devrions donc être contents, mais beaucoup estiment que Parcoursup pose un problème et que c’est la décision automatique qui est en cause.

« Faire preuve de transparence »

Comment construire cette confiance ?
La confiance réside dans la façon dont on va créer ces systèmes et se prémunir des éventuels biais. Il ne suffit pas de créer un algorithme transparent et dont on arrive éventuellement à comprendre le fonctionnement. Il faut aussi pouvoir justifier que les données que l’on a collectées pour entraîner l’algorithme soient bien représentatives de ce qu’on en fera plus tard, sans biais de genre, d’origine, de handicap ou autre… Ici, nous n’en sommes qu’aux prémices. La plupart des données médicales collectées autour des AVC concernent des patients masculins, ce qui conduit à une moindre détection chez les femmes. Même s’ils restent complexes, les outils doivent donc faire preuve de transparence quant à la façon dont ils ont été entraînés, ce qui n’est pas fait aujourd’hui, puisqu’on est plutôt dans une course à la performance, quitte à parfois enfreindre la loi. Un outil comme ChatGPT soulève par exemple la question des droits d’auteur, puisqu’aujourd’hui les grands systèmes de langage ne savent pas citer leurs sources. L’utilisateur peut de ce fait plagier un auteur sans le savoir.

Est-ce uniquement une affaire d’informaticiens ou de mathématiciens ?
On dit parfois que l’IA est un sujet trop sérieux pour être laissé aux informaticiens ! Nous avons la tête dans le guidon, et de la même façon qu’on ne laisse pas un constructeur de voitures décider de la façon dont on roule sur la route, c’est au législateur, et donc au citoyen, de s’emparer de ces sujets. L’informaticien, lui, dira ce qui est possible ou ce qui ne l’est pas, en fonction des limites du système. Ensuite, une fois qu’on dispose d’un système d’apprentissage automatique qui garantit l’absence de biais, une certaine méfiance reste de mise, puisque que comme dans le cas du véhicule autonome, cette confiance est statistique, pas individuelle.

« Prendre du recul sur ce que produit l'IA »

Vous parlez de transparence, la confiance passe-t-elle impérativement par des modèles ouverts, dans une logique d’open source ?
C’est hallucinant d’utiliser un outil comme GPT4 alors qu’OpenAI ne précise pas comment et sur quoi il a été entraîné ! Il est impératif d’appliquer une certaine forme de transparence, mais elle peut aussi se révéler dangereuse, en donnant l’illusion qu’on comprend ce que le système fait, alors que son fonctionnement implique des milliards de calculs et que l’on ne sait pas vraiment expliquer une décision individuelle. La transparence a donc aussi ses limites. Un avionneur ne divulgue pas forcément la recette des matériaux qu’il utilise. L’open source, historique en informatique, peut être une bonne approche, mais il y en a d’autres. Sans connaître en détails le fonctionnement d’une boîte noire, on peut par exemple en certifier le fonctionnement, grâce à des normes et des tests.

Faut-il dans le même temps éduquer ou sensibiliser l’utilisateur final aux subtilités de l’IA ?
Comme à tout ce qui concerne la décision autonome. Avec l’IA, notre anthropomorphisme pousse à faire preuve d’une certaine empathie vis-à-vis de la décision qui nous est soumise, en essayant de la comprendre comme si elle avait été prise par un humain. Mais ça n'est pas parce qu’une IA est capable de raisonner sur un quiz ou une charade qu’elle a les capacités correspondantes. C’est contre-intuitif, mais il faut l’apprendre, parce qu’un outil peut aussi bien dire n’importe quoi que des choses très intelligentes. Il faut donc savoir prendre du recul sur ce que produit l’IA. Quand les calculatrices ont été introduites en cours de maths, les profs invitaient à vérifier que l’ordre de grandeur du résultat était correct. C’est un peu pareil avec l’IA : le devoir que me rend ChatGPT est-il cohérent ? L’exercice est plus subtil, mais il est indispensable, puisque nous allons avoir de plus en plus d’assistants personnels chargés de nous aider à réfléchir, formaliser et reproduire nos idées de manière écrite.

Des développements en plusieurs phases

De l’entraînement des grands modèles de langage à l’utilisation quotidienne des outils génératifs, l’avènement de l’IA soulève-t-il des enjeux de sobriété ?
Bien sûr. Il y a déjà des travaux sur le sujet. Avec comme premier enjeu la durée de vie des cartes de calcul utilisées pour entraîner les IA. Puisque de nouveaux processeurs sortent tous les six mois, il faut voir comment continuer un outil tel que ChatGPT sur des cartes qui ont déjà deux ou trois ans, dans la mesure où le coût environnemental des calculs est principalement lié à la fabrication de ces cartes. Il faut par ailleurs comprendre que les grands modèles de langage sont élaborés en plusieurs phases. La première, la plus coûteuse, est celle où le système essaie de comprendre la régularité des mots, dans toutes les langues, sur le plus grand nombre de textes possible. Cette étape coûte très cher, et n’est accessible qu’aux grands acteurs. On passe ensuite à des phases d’entraînement plus précis, avec des volumes moins importants, mais des données de très bonne qualité, pour arriver par exemple à donner le ton de la conversation. On peut donc factoriser l’entraînement, en créant d’abord un premier modèle un peu générique, quoi donnera ensuite naissance à plein d’autres langages, dont la spécialisation demande moins de calculs. Aujourd’hui, ça n’est possible que dans le cloud, mais demain, on peut très bien se dire que nos téléphones auront des puces spécialisées qui permettront de faire des inférences de ces grands modèles de langage. Le coût environnemental résidera alors principalement dans la fabrication du téléphone.

A voir aussi :
« Le boom des IA génératives », l'un des thèmes évoqués en mars dernier sur le plateau de DigitÉco, l'émission tech réalisée par Placéco, en association avec Digital Aquitaine.

traits blocage
Cet article premium vous intéresse ?
Sa lecture est réservée à nos adhérents Nouvelle-Aquitaine. Rejoignez la communauté Placéco pour accéder à ce contenu et profitez de nombreux services exclusifs.
Déja adhérent ? Se connecter