L'intelligence artificielle (IA) évolue en permanence et s’installe progressivement dans tous les domaines de notre vie quotidienne, trouvant des applications dans de multiples secteurs d’activités[1]. Les avantages de l'IA sont nombreux, par exemple pour les soins de santé personnalisés, l’amélioration des conditions de travail dans l’industrie ou encore l’optimisation du trafic routier. Néanmoins, cette technologie présente des risques qu’il convient de maitriser pour maximiser les bénéfices liés à son utilisation.
Ainsi, nombreux sont les pays et les organisations qui ont mis en place des mécanismes permettant de garantir la sureté et la fiabilité des applications d'IA, ainsi que le respect de valeurs éthiques. La Commission Européenne a, par exemple, initié une approche globale en matière d'IA[2], qui comprend des lignes directrices pour les aspects d’éthique, des recommandations pour la recherche et le financement, un soutien à l'éducation et au développement des compétences numériques, et le renforcement du cadre juridique actuel. Dans ce contexte global, les normes techniques ont également un rôle à jouer. Elles peuvent notamment faciliter :
- L’éducation des citoyens, en leur donnant des bases solides et objectives pour comprendre l’IA et les technologies liées ;
- La définition d’un langage commun pour décrire et évaluer les résultats des avancées scientifiques, soutenant ainsi la recherche et l’innovation ;
- L’implémentation de principes éthiques, en donnant des conseils techniques clairs ;
- La mise en conformité des organisations vis-à-vis de la réglementation, en traduisant des critères juridiques en critères techniques et en décrivant des contrôles à mettre en place.
Au niveau international, le sous-comité technique de normalisation ISO/IEC JTC 1/SC 42 Intelligence artificielle est en charge du développement de normes en support de l’IA. Madame Anna Curridori, membre du team « supervision IT » au sein de la Commission de Surveillance du Secteur Financier (CSSF), y participe en tant que déléguée nationale en normalisation. Nous lui avons demandé de nous donner son point de vue sur le rôle des normes dans le domaine de l'IA, et de nous expliquer les bénéfices qu’elle retire de sa participation à la normalisation technique.
L'éthique et la fiabilité de l’IA sont au cœur des discussions en Europe et dans le monde. Pensez-vous que les normes pourront aider à faire avancer ces sujets ? Quels sont les défis sous-jacents (explainability, partialité, gestion des risques, etc.) qui, selon vous, pourraient tirer le plus profit de la normalisation ?
Les normes sont élaborées par des experts internationaux, issus d'organisations et de secteurs d’activités différents, qui partagent leurs expériences sur un même sujet. Ce processus est très bénéfique puisque le livrable qui en résulte est une représentation de bonnes pratiques que d'autres organisations peuvent ensuite utiliser pour leurs propres projets. L'IA, et en particulier les aspects éthiques et de confiance liés (y compris l'explainability et le biais par exemple), sont des défis récents qui font l’objet d’un débat animé, sans pour autant qu'il y ait une solution unique.
La normalisation dans le domaine de l'intelligence artificielle peut dès lors s’avérer très utile en apportant non seulement une terminologie commune, mais également en décrivant de bonnes pratiques permettant de relever ces défis de manière efficace. Néanmoins, il ne faudrait pas que les normes créées soient trop restrictives afin qu’elles permettent de s'adapter aux évolutions futures.
Les processus de gestion des risques doivent également s’adapter pour tenir compte des risques liés à la mise en œuvre de l'IA. La normalisation peut aussi aider les organisations à analyser les risques liés à l'IA selon une méthodologie standard.
La réglementation et la normalisation peuvent être vues comme des outils complémentaires pour fournir des recommandations afin de garantir la sécurité des produits, protéger la vie privée des utilisateurs, etc. Voyez-vous cette convergence dans le domaine de l'IA ? Les projets actuels de normalisation de l'IA peuvent-ils soutenir la réglementation de l'IA (à minima pour le secteur financier) ?
En fin de compte, le but est le même, protéger les consommateurs et garder les risques sous contrôle pour les institutions financières, bien que la manière d'atteindre ces objectifs soit très différente. Les normes représentent de bonnes pratiques, que les institutions peuvent décider (ou non) de suivre, sachant qu’elles sont d’application volontaire et non obligatoire.
La réglementation est différente puisqu'elle peut imposer aux organisations de se conformer à certaines exigences, généralement sans en préciser le moyen. Par conséquent, l’organisation peut décider d'utiliser une norme de son choix pour s’y conformer.
Le fait de disposer de normes issues d’un consensus international dans un domaine aussi complexe que l'IA, en particulier en matière d'éthique et de fiabilité, peut néanmoins aider les autorités de régulation à définir des règles plus claires et adéquates, par exemple en définissant des règles en ligne avec la terminologie et les bonnes pratiques existantes. Cela peut ainsi aider l'autorité de régulation à adresser la meilleure réponse aux risques qu’elle veut maîtriser.
Quels sont, selon vous, les principaux avantages de la participation à la normalisation ?
Comme je l’expliquais, les normes sont élaborées par des experts internationaux en la matière, issus de différents secteurs et organisations. Intégrer cette communauté permet donc d'interagir et d'échanger avec ces experts, ce qui est très enrichissant. En outre, la participation à un groupe de travail permet d'accéder à des documents préparés par d'autres groupes travaillant sur des sujets connexes, donnant ainsi une vue d’ensemble sur le sujet. Personnellement, cela me permet de mieux comprendre les défis de l'IA et l'évolution des activités de normalisation en lien, ce qui m'aide également lorsque je participe à d'autres groupes de travail internationaux du côté de la supervision.
Interview réalisée par Mme Natalia Cassagnes, Chargée de mission au sein du Département Normalisation du GIE ANEC et Présidente du Comité d’étude national ISO / IEC JTC 1 / SC 42 au Luxembourg.
Avec 6 normes publiées et 21 normes en cours d'élaboration, le sous-comité technique ISO/IEC JTC 1/SC 42 dispose d’une vision globale des technologies et des applications de l'IA. Les travaux en cours visent notamment à décrire les concepts de l'IA de manière claire et complète, à collecter et à analyser des cas d'utilisation représentatifs, à relever les défis liés à l’utilisation des données, à la fiabilité et à la gouvernance de l'IA, ou encore à fournir une vue d'ensemble des méthodes et des approches de l'IA. Au Luxembourg, plus de 20 délégués en normalisation contribuent déjà à l'élaboration de ces normes internationales et défendent les intérêts nationaux.
Au Luxembourg, l'ILNAS (Institut luxembourgeois de la normalisation, de l'accréditation, de la sécurité et qualité des produits et services), en tant qu'Organisme national de normalisation, est fortement impliqué au sein de la normalisation technique du secteur des TIC - y compris l'intelligence artificielle et les big data, la blockchain, le cloud computing et l’Internet of Things - qui est l'un des secteurs prioritaires défini au cœur de la stratégie normative luxembourgeoise 2020-2030. L’ILNAS bénéficie du soutien du GIE ANEC (Agence pour la normalisation et l’économie de la connaissance) pour renforcer la participation du marché national dans la normalisation technique des TIC. Rappelons également que la participation à l’élaboration des normes internationales et européennes (ISO, IEC, CEN et CENELEC) est proposée gratuitement au Luxembourg, via l’ILNAS.
Pour plus d'informations, vous pouvez consulter le Portail-qualité, ou nous contacter directement à l'adresse normalisation@ilnas.etat.lu ou anec@ilnas.etat.lu.
[1] https://www.iso.org/news/ref2453.html
[2] https://ec.europa.eu/digital-single-market/en/artificial-intelligence