L’Intelligence Artificielle, une question de confiance

« […] L’intelligence artificielle (IA) peut contribuer aux progrès dans tous les domaines, de la sphère médicale à la sauvegarde de notre planète. Elle repose cependant sur des technologies dont la complexité croissante soulève des questions de confiance. Le renforcement de la réglementation a contribué à restaurer cette confiance, mais des zones grises demeurent. Comment s’assurer que l’intelligence artificielle est digne de confiance sans freiner son progrès ? […]».

Telle est l’introduction de l’article intitulé « Une question de confiance » proposé par le magazine ISO FOCUS publié au mois de novembre afin de discuter des défis liés à l’Intelligence Artificielle. Dans ce numéro, l’ISO fait tomber les mythes qui entourent l’IA, explore les opportunités qu’elle crée, et explique l’importance de disposer de normes pertinentes à l’échelle mondiale.

« […] La présence de lʼIA est vouée à durer. Bien utilisée, elle peut contribuer à améliorer nos vies et à résoudre certains de nos plus grands problèmes. Elle permet la collaboration entre l’homme et la machine et est en mesure d’améliorer nos capacités et celles des moyens techniques dont nous disposons au-delà même de ce que nous pouvons imaginer. Pour les entreprises, cela peut notamment se traduire par une productivité accrue, des coûts réduits, un accès plus rapide au marché et de meilleures relations avec la clientèle. Comme le révèle une enquête réalisée par Forbes Insights, intitulée « On Your Marks: Business Leaders Prepare For Arms Race In Artificial Intelligence » (À vos marques : les chefs d’entreprise se préparent à une course aux armements en matière d’intelligence artificielle), 99 % des dirigeants occupant des postes techniques disent que leur entreprise a l’intention d’augmenter ses dépenses dans ce secteur au cours de l’année qui vient.

La technologie évolue à une vitesse fulgurante, soulevant autant de questions relatives à la sûreté et à la sécurité que d’interrogations concernant les avantages qu’elle prétend apporter. S’il s’agit d’un processus visant à faire mieux que l’être humain dans le domaine de la décision et de l’estimation - par exemple pour la prévision des épidémies ou la conduite des trains, comment pouvons-nous être assurés d’en avoir la maîtrise ?

[…] Selon d’éminents experts du secteur, veiller à la fiabilité dès le début est l’un des principaux facteurs susceptibles de favoriser l’adoption de cette technologie à grande échelle. Cela étant, l’ISO et la Commission électrotechnique internationale (IEC) ont créé le sous-comité SC 42, Intelligence artificielle, qui relève du comité technique mixte ISO/IEC JTC 1, Technologies de l’information, et est chargé de centraliser les activités de normalisation touchant le domaine de l’IA […].

[…] Dans le programme de travail de l’ISO/IEC JTC 1/SC 42, il est fait mention de plusieurs thèmes concernant l’IA, dont beaucoup sont actuellement en cours d’élaboration au sein de son groupe de travail WG 3, Fiabilité. Les projets envisagés comprennent un certain nombre de documents normatifs visant directement à aider les intervenants du secteur à instaurer la confiance dans leurs systèmes […] ».

Pour plus d'informations, vous pouvez consulter l’article complet, « Une question de confiance» , dans le dernier numéro du magazine ISO FOCUS L’âge de l’intelligence artificielle (Novembre/Décembre 2019).

Projets liés à la confiance de l’IA et participation du Luxembourg

Parmi les documents du groupe de travail ISO/IEC JTC 1/SC 42/WG 3 figurent :

  • Le futur rapport technique ISO/IEC TR 24028, Information technology – Artificial intelligence (AI) – Overview of trustworthiness in artificial intelligence, « […] qui analyse les facteurs susceptibles de contribuer à l’érosion de la confiance dans les systèmes d’IA et détaille les moyens possibles d’y remédier […] ».
  • Le projet de norme ISO/IEC 23894, Information technology – Artificial intelligence – Risk management, qui aidera « […] les organismes à mieux évaluer les risques et les menaces types auxquels sont confrontés leurs systèmes d’IA et à intégrer au mieux la gestion des risques connexes dans leurs processus […]».

Le Luxembourg a apporté sa contribution à ces deux projets via son comité d’étude national ISO/IEC JTC 1/SC 42 Artificial Intelligence qui compte actuellement 24 délégués nationaux en normalisation. Pour tout renseignement complémentaire sur les projets de normes mentionnés ci-dessus, vous pouvez directement contacter Mme Natalia Cassagnes, présidente du comité d’étude national ISO/IEC JTC 1/SC 42, à l’adresse natalia.cassagnes@ilnas.etat.lu.

Vous souhaitez participer au développement des normes techniques ?

L’ILNAS offre la possibilité à toute personne intéressée de participer gratuitement à l’élaboration des normes en devenant délégué national en normalisation au sein d’un ou de plusieurs comités techniques.

Pour cela, il vous suffit de compléter un formulaire de demande d’inscription puis de le transmettre par e-mail à normalisation@ilnas.etat.lu.  

Dernière mise à jour