Sélectionner une page

La confiance dans l’intelligence artificielle passera par son évaluation et sa certification

La confiance dans l’intelligence artificielle passera par son évaluation et sa certification

Le Laboratoire national de métrologie et d’essais (LNE) est pleinement engagé dans la mise en place d’un cadre de confiance pour les futurs systèmes d’intelligence artificielle (IA). Il participe notamment à trois projets européens visant à la mise en place de réseaux et de plates-formes d’essais permettant de qualifier la performance, la fiabilité et la robustesse des systèmes d’IA, comme l’explique Agnès Delaborde, responsable du département Evaluation de l’intelligence artificielle et Cybersécurité du LNE.

Article adapté par Cédric Lardière

Les prouesses de l’intelligence artificielle (IA) n’en finissent pas d’impressionner, suscitant interrogations et parfois craintes. Moins que de déclarer un moratoire sur le développement de l’IA, tel que proposé récemment dans une lettre ouverte par des personnalités de la tech, il s’agit de mettre sur pied une réglementation adéquate pour encadrer l’usage et la commercialisation des intelligences artificielles.

Dans cette perspective, le Laboratoire national de métrologie et d’essais (LNE) réalise déjà de nombreuses évaluations pour les pouvoirs publics et les industriels du secteur. S’inspirant des recommandations de l’Union européenne, le laboratoire propose également une certification sur les processus d’intelligence artificielle, répondant ainsi au besoin de confiance de la part des professionnels et du grand public.

Agnès Delaborde, responsable du département Evaluation de l’intelligence artificielle et Cybersécurité du LNE.

Développé par OpenAI et lancé en novembre 2022, ChatGPT (Chat Generative Pre-trained Transformer) est un agent conversationnel capable de traiter les requêtes des utilisateurs dans différentes langues. Apte à réagir de façon fluide à des échanges complexes, il impressionne de prime abord par ses performances et a été vécu comme une rupture dans le développement des algorithmes d’IA. Concrètement, ChatGPT est fondé sur des techniques classiques de l’intelligence artificielle, à savoir les réseaux de neurones et l’apprentissage automatique (machine learning). En ce sens, on n’observe pas, là, de rupture technologique fondamentale.

Pour autant, le projet est d’une ampleur sans précédent quant au nombre de paramètres pris en compte par l’algorithme, le volume des données utilisées pour la phase d’apprentissage et la finesse avec laquelle ont été gérés de nombreux aspects tel que le filtrage de ces données. Ainsi, le chatbot impressionne par la qualité et la pertinence des échanges qu’il peut entretenir avec l’utilisateur.

Dans ce contexte, des personnalités de la tech, notamment le milliardaire Elon Musk, ont publié récemment une lettre ouverte dans laquelle les milliers de signataires appellent les laboratoires d’IA à faire une pause dans le développement de leur technologie. Selon eux, « les systèmes d’IA dotés d’une intelligence capable de concurrencer celle de l’homme posent de graves risques pour la société humaine ». Par conséquent, il serait nécessaire d’interrompre immédiatement, et pour au moins six mois, le développement de systèmes d’IA plus puissants que GPT-4, la dernière version du robot conversationnel d’OpenAI.

L’Europe est pionnière dans la réglementation des IA

Au-delà de cette publication, l’épisode rappelle surtout que les possibilités offertes désormais par l’intelligence artificielle plaident pour la mise en place d’une réglementation à même d’accompagner et d’encadrer l’essor de l’IA. C’est exactement ce à quoi s’emploie l’Union européenne : en 2021, la Commission européenne publiait une proposition de réglementation pour l’intelligence artificielle, l’AI Act, qui a pour objectif de réglementer l’usage et la commercialisation des IA lorsque le texte sera applicable en 2025.

Evaluation d’une intelligence artificielle en environnement virtuel [© LNE].

Si, d’ici là, l’Europe reste dans l’expectative quant aux manières concrètes dont cet acte sera implémenté, et se prépare encore à la future démonstration de conformité des produits et services à base d’IA, il semble évident qu’en Europe, nous disposons d’une longueur d’avance dans l’anticipation des technologies pouvant potentiellement porter atteinte aux droits fondamentaux et à la sécurité des individus.

En tant qu’établissement public à caractère industriel et commercial, dont la mission historique est d’apporter un soutien à l’industrie et d’assurer la sécurité et la santé des citoyens, le LNE est pleinement engagé dans la mise en place d’un cadre de confiance pour les futurs systèmes d’IA. Ainsi, en collaboration avec ses partenaires, les autorités de contrôle et les industriels, le LNE participe actuellement à trois projets européens majeurs visant à la mise en place de réseaux et de plates-formes d’essais pour l’intelligence artificielle.

Ces projets, appelés TEF (Testing and Experimentation Facilities), permettront concrètement de développer des méthodes et moyens d’essais permettant de qualifier la performance, la fiabilité et la robustesse des systèmes d’IA, et d’établir s’ils sont dignes de confiance. Plus précisément, les protocoles d’essais se focaliseront sur les essais de sécurité et l’évaluation des aspects éthiques, légaux et sociétaux.

Évaluer, fiabiliser et sécuriser

D’ores et déjà, le LNE a déjà évalué plus de 1 000 systèmes d’IA pour les industriels ou les pouvoirs publics, dans des domaines sensibles comme la médecine, la défense ou le véhicule autonome, et également dans les secteurs de l’agroalimentaire ou de l’industrie 4.0. Le LNE renforce actuellement ses moyens d’évaluation avec son projet LEIA de Laboratoire pour l’évaluation de l’intelligence artificielle.

Il s’agit d’une infrastructure reconstituant l’environnement dans lequel un dispositif physique embarquant de l’IA (robots d’aide à la personne, caméras « intelligentes », robots d’intervention civils et militaires…) est amené à évoluer. Elle permettra d’y caractériser la fiabilité de l’IA et de sécuriser son usage, mais aussi de s’assurer du caractère éthique de l’intelligence artificielle : l’ensemble des données est-il traité de manière équitable, l’information divulguée à l’utilisateur est-elle juste… ?

Evaluation du robot HRP-2 du Laboratoire d’analyse et d’architecture des systèmes (LAAS) dans une enceinte climatique [© LNE].

De fait, comme le soulignait Guillaume Avrin, alors responsable du département Evaluation de l’IA du LNE et, aujourd’hui, coordonnateur de la stratégie nationale pour l’intelligence artificielle, « plus nous disposons d’une connaissance précise du domaine de fonctionnement d’une IA, c’est-à-dire des conditions dans lesquelles elle fonctionne ou, au contraire, ne fonctionne pas, plus nous sommes disposés à interagir avec elle. La taille du domaine de fonctionnement nominal des technologies intelligentes, qui caractérise leur niveau de robustesse, est l’un des principaux critères de choix ». Plus précisément, le LNE travaille ainsi sur des méthodes d’évaluation en traitement de la langue, de la voix, de l’image.

Par ailleurs, le LNE a développé en 2021 le premier référentiel pour la certification des processus d’IA, qui vise à garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques, tant sur les aspects du développement algorithmique, des sciences des données, que de la prise en compte du contexte métier et du contexte réglementaire. La certification est volontaire, c’est-à-dire qu’elle peut être demandée par tout fournisseur de solution ou service d’IA souhaitant présenter un gage de confiance à ses clients, usagers ou investisseurs.

La certification atteste de la qualité des processus de conception, de développement, d’évaluation et de maintien en conditions opérationnelles. Ce faisant, elle répond au besoin de confiance de la part des professionnels et du grand public dans l’intégration ou l’utilisation de biens ou services contenant de l’IA. Elle permet notamment aux développeurs de démontrer qu’ils maîtrisent toutes les étapes du cycle de vie de leur intelligence artificielle et répondent aux exigences de leurs clients.

Soyez le premier informé !

Inscrivez-vous à notre Newsletter gratuite

You have Successfully Subscribed!

Share This