Pourquoi un cadre juridique sur l’IA ?

Le règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées en matière d’intelligence artificielle constitue le tout premier cadre juridique complet sur l’IA dans le monde. Ces règles visent notamment à encadrer le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA au sein de l’Union européenne (UE), tout en favorisant l’adoption d’une IA axée sur l’humain, digne de confiance, et garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux.

La Commission européenne justifie l’adoption de ce nouveau cadre juridique au motif que la législation existante est insuffisante pour relever les défis spécifiques que les systèmes d’IA peuvent poser. Selon l’institution, la plupart de ces systèmes présentent un risque limité, voire nul, et peuvent contribuer à résoudre de nombreux défis sociétaux. Néanmoins, certains systèmes d’IA créent des risques auxquels l’UE doit faire face pour éviter des résultats indésirables. La Commission précise qu’il est souvent impossible de savoir pourquoi un système d’IA a pris une décision et qu’il peut donc devenir difficile d’évaluer si une personne a été injustement désavantagée, dans le cadre d’une décision d’embauche ou dans celui d’une demande d’allocation publique, par exemple.

Une approche fondée sur les risques

La nouvelle réglementation définit quatre niveaux de risque pour les systèmes d’IA : le risque inacceptable, le risque élevé, le risque limité avec obligations de transparence, le risque minimal ou nul.

Les cas d’utilisation de l’IA présentant des risques inacceptables sont interdits depuis le 2 février 2025. Il s’agit des pratiques suivantes :

  • manipulation et tromperie préjudiciables fondées sur l’IA ;
  • exploitation préjudiciable des vulnérabilités fondée sur l’IA ;
  • notation sociale ;
  • évaluation ou prédiction du risque d’infraction pénale individuelle ;
  • moissonnage non ciblé d’images faciales provenant d’Internet ou de la vidéosurveillance afin de créer ou développer des bases de données de reconnaissance faciale ;
  • reconnaissance des émotions sur les lieux de travail et dans les établissements d’enseignement ;
  • catégorisation biométrique pour déduire certaines caractéristiques protégées ;
  • identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public.

Calendrier d’application : les prochaines étapes

Entré en vigueur le 1er août 2024, le règlement sur l’IA sera pleinement applicable le 2 août 2026, à quelques exceptions près :

  • interdictions relatives aux systèmes d’IA présentant des risques inacceptables le 2 février 2025 ;
  • application des règles pour les modèles d’IA à usage général et nomination des autorités compétentes au niveau des États membres le 2 août 2025 ;
  • application des règles relatives aux systèmes d’IA à haut risque de l’annexe I (jouets, équipements radio, dispositifs médicaux de diagnostic in vitro, etc.) le 2 août 2027.

Les trois points clés à retenir 

  • Le règlement sur l’IA a pour objectif de favoriser une IA digne de confiance en Europe.
  • La nouvelle réglementation définit quatre niveaux de risque pour les systèmes d’IA : inacceptable, élevé, limité avec obligations de transparence, minimal ou nul.
  • Depuis le 2 février 2025, les systèmes d’IA présentant des risques inacceptables sont interdits au sein de l’UE.