L’OCDE lance un cadre mondial pour promouvoir une IA « sûre, sécurisée et digne de confiance »
L’Organisation de coopération et de développement économiques (OCDE) a donné vendredi le coup d’envoi au premier cadre mondial visant à permettre aux entreprises de rendre compte des efforts qu’elles déploient pour promouvoir une Intelligence artificielle (IA) « sûre, sécurisée et digne de confiance ».
Cette initiative donnera lieu au suivi de la mise en œuvre du Code de conduite international du processus d’Hiroshima à l’intention des organisations qui développent des systèmes d’IA de pointe, élément central du processus d’Hiroshima sur l’Intelligence artificielle lancé lors de la présidence japonaise du Groupe des 7 (G7) rassemblant la France, les États-Unis, le Royaume-Uni, l’Allemagne, le Japon, l’Italie et le Canada.
Selon un communiqué de l’OCDE, les entreprises pourront ainsi, pour la première fois, fournir des informations comparables sur leurs mesures et pratiques de gestion des risques liés à l’IA – évaluations des risques, rapports sur les incidents et mécanismes de partage d’informations – « ce qui favorisera la confiance placée en elles et leur responsabilité dans la mise au point des systèmes d’IA de pointe ».
Lire aussi : CDM 2030: Une opportunité majeure pour la jeunesse marocaine
Certains des principaux créateurs mondiaux de systèmes d’IA de pointe ont contribué à cette initiative et « joué un rôle essentiel au cours de sa phase pilote, en mettant à l’épreuve ses principales caractéristiques et en veillant à son efficacité », relève l’organisation internationale qui cite de grands noms des systèmes d’IA, comme Amazon, Anthropic, Fujitsu, Google, KDDI CORPORATION, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce, et Softbank Corp., qui se sont déjà engagés à parachever le cadre inaugural.
« L’OCDE est déterminée à promouvoir la transparence, la communication d’informations comparables et la coopération entre les parties prenantes internationales, dans l’optique d’instaurer à terme un sentiment de confiance dans les systèmes d’IA, » a assuré le Secrétaire général de l’OCDE, Mathias Cormann.
A ses yeux, permettre aux entreprises de faire connaître leurs pratiques et de montrer l’attention qu’elles accordent à la sécurité, à la responsabilité et à la transparence est à même de contribuer « à la mise au point, au déploiement et à l’utilisation responsables des systèmes d’IA de pointe. »
En alignant le cadre de notification sur plusieurs dispositifs de gestion des risques, tels que le Code de conduite du processus d’Hiroshima, l’OCDE entend promouvoir l’interopérabilité et la gouvernance des différents mécanismes de gouvernance internationale de l’IA.
Les organisations développant des systèmes d’IA de pointe sont invitées à présenter leur rapport inaugural d’ici le 15 avril 2025, après quoi les rapports présentés seront acceptés au fur et à mesure. Les organisations présentant un rapport sont invitées à procéder à une mise à jour annuelle de celui-ci.
Le lancement de ce cadre mondial pour le suivi de la mise en œuvre du Code de conduite élaboré dans le cadre du processus d’Hiroshima sur l’IA du G7 intervient au lendemain du coup d’envoi à Paris de la «semaine de l’action pour l’intelligence artificielle », marquée par de nombreux évènements organisés en amont du Sommet des chefs d’Etat que la capitale française s’apprête à accueillir le 11 février avec l’ambition de bâtir « une IA de confiance ».
Avec MAP