L’Europe à la traîne sur l’IA ? Elle vote l’AI Act !

Photo of author
Clément

Passionné de high tech et technophile assumé, je traque les nouveautés IA le jour et dérouille les pixels dans les jeux vidéo la nuit. Sur AiTM, je décortique l'actu' et teste pour vous les dernières pépites de l'intelligence artificielle !

Les autorités s’emparent enfin des enjeux massifs posés par l’ascension fulgurante de l’intelligence artificielle. Texte ambitieux ou coquille vide ?

C’est bien connu : l’innovation est toujours plus rapide que la loi. L’Union européenne (UE) entend inverser cette tendance avec l’adoption prochaine de l’Artificial Intelligence Act (AI Act). Ce projet de loi, adopté en juin dernier deux ans après sa présentation, entend fournir un cadre réglementaire aux créateurs de technologies d’IA.

Qu’est-ce que l’AI Act ?

Voté en avril, l’AI Act ambitionne de « garantir la sécurité et les droits des utilisateurs » tout en stimulant l’innovation, selon le commissaire européen au marché intérieur, Thierry Breton.

Le texte législatif propose une approche à quatre niveaux :

  1. Ce qui est interdit
  2. Ce qui est à haut risque,
  3. Ce qui est à moyen risque, et
  4. Ce qui est autorisé.

Ce qui est autorisé

Les systèmes considérés « à haut risque » doivent faire l’objet d’une évaluation par des agences des autorités publiques nationales. Il peut par exemple s’agit d’une technologie d’intelligence artificielle utilisée dans la santé, un domaine où les données revêtent un caractère particulièrement sensible.

La législation est plus clémente pour les systèmes « à moyen risque », qui ne sont pas contrôlés a priori, mais conservent une « obligation de transparence spécifique ».

Enfin, les objets connectés du quotidien (les frigidaires, les machines à laver, montres connectées, etc.) tombent dans la dernière catégorie. Pas de contrôle d’autorisation ni de transparence spécifique pour eux – à moins que votre lave-linge ne commence à vous donner des conseils boursiers.

Screenshot du site du Parlement Européen annonçant la première réglementation de l'intelligence artificielle dans l'UE
L’annonce officielle sur le site du Parlement Européen

Ce qui n’est pas autorisé

Les choses se corsent lorsqu’il s’agit de la catégorie « interdite ». Selon Nathalie Devillier, experte en droit de l’IA pour la Commission européenne, quatre principaux systèmes sont considérés comme « inacceptables », c’est-à-dire « totalement contraires aux droits fondamentaux de l’Union européenne ». Cela comprend des systèmes d’IA qui :

  • Exploitent des personnes vulnérables,
  • Utilisent l’identification biométrique à distance pour des fins répressives
  • Mettent en place des systèmes de « score social »
  • Recourent à des techniques subliminales.

Quel avenir pour l’IA en Europe ?

L’évolution des technologies, les tests et applications concrètes de la loi doivent amener la réglementation à évoluer. Et vite ! Étant donné la rapidité de l’évolution de l’IA, la Commission prévoit de revoir le règlement tous les six mois.

En outre, tout contenu généré par une IA devra être signalé comme tel (via une pastille de couleur par exemple). Reste que la détection de contenu généré par intelligence artificielle n’est pas chose aisée, Open AI peut en témoigner avec la fin de Classifier

L’UE s’attèle à déployer une réglementation ambitieuse, mais le vrai défi reste à venir : garder le rythme avec cette technologie en constante évolution et dans un contexte de forte concurrence internationale. Nul doute que des pays comme les Etats-Unis ou la Chine continueront de profiter de leur législation plus souple pour garder leur position de leader de l’IA.

Une chose est sûre : l’UE a lancé un avertissement aux créateurs et industries d’IA – le futur de l’intelligence artificielle en Europe doit être éthique, ou ne sera pas.

Laisser un commentaire