C’est quoi, une IA éthique ? Voilà ce qu’en dit le gouvernement français

Photo of author
Clément

Passionné de high tech et technophile assumé, je traque les nouveautés IA le jour et dérouille les pixels dans les jeux vidéo la nuit. Sur AiTM, je décortique l'actu' et teste pour vous les dernières pépites de l'intelligence artificielle !

L’intelligence artificielle (IA) fait du ramdam dans tous les pans de la société. Un sujet que le législateur ne peut pas occulter.

L’ère numérique nous confronte à un dilemme : comment équilibrer innovation et éthique ? L’intelligence artificielle n’est pas seulement une question de science, mais aussi de confiance et de responsabilité. Conjointement avec la stratégie européenne, la France dévoile les grandes lignes de ce qu’est une IA éthique.

Un enjeu grandissant, en France comme en Europe

Face à l’influence croissant de l’IA, de la voiture autonome à l’assistant virtuel, des questions légitimes apparaissent quant aux dérives potentielles, à la protection des citoyens, etc.

La France, qui tient à affirmer un leadership en la matière sur la scène européenne (en témoignent les Viva Days avec l’IA à l’honneur), a ainsi communiqué les principes qui doivent guider une IA responsable et « de confiance ». Ce n’est qu’à cette condition, dixit le gouvernement, que ces technologies pourront pleinement être adoptées par la société.

Quelle définition pour une IA éthique ?

La France a esquissé un tableau ambitieux. Son objectif ? Il est triple :

  1. Favoriser un consensus mondial autour de l’IA
  2. Garantir que l’innovation reste centrée sur l’humain,
  3. Faciliter la mise en place d’un cadre commun en Europe

Nous imaginons bien volontiers l’UE se rassembler sur la définition de ce que doit être une intelligence artificielle de confiance. Après tout, elle a récemment voté l’AI Act, qui dresse les grandes lignes des usages autorisés et bannis de l’IA. Armée d’un groupe de 52 experts, la Commission européenne a identifié sept éléments essentiels pour une IA fiable, parmi lesquels la protection des données personnelles, la transparence ou encore l’intégration de mécanismes de responsabilisation.

Impression d'écran du site du gouvernement décrivant les lignes directrices essentielles pour une IA de confiance
Les 7 lignes directrices essentielles pour une IA de confiance Impression d’écran de la page gouvernementale « Promouvoir un modèle d’IA éthique »

Difficile, toutefois, d’imaginer un accord international de sitôt sur l’IA éthique, étant donné les perspectives (et utilisations) résolument différentes de ces technologies en Chine par exemple.

Quelles actions concrètes ?

Plusieurs pistes ont été lancées. En 2019 est fondé le comité pilote d’éthique du numérique, qui englobe les enjeux liés à l’IA. En parallèle, le comité d’éthique de la défense s’interroge sur les implications morales des nouvelles technologies militaires.

À l’échelle européenne, l’Union poursuit trois étapes clés : établir des exigences pour une IA fiable, collecter des retours d’experts et, enfin, élaborer un consensus international pour une IA centrée sur l’humain. A notamment été lancé le projet ALTAI, afin de fournir une boîte à outils méthodologique pour appliquer les principes d’une IA de confiance en entreprise.

En tout cas, le défi est grand pour les autorités. S’assurer de réguler, sans pour autant briser l’innovation. Un pari risqué, surtout face aux leaders internationaux de l’intelligence artificielle que sont la Chine et les Etats-Unis. L’UE, avec la France en fer de lance, arrivera-t-elle à imposer sa troisième voie ?

Laisser un commentaire