Un cadre juridique protecteur des droits fondamentaux
Lorsqu’elles recourent à des systèmes d’IA, les entreprises peuvent impacter négativement un large éventail de droits fondamentaux des personnes physiques, comme les droits à la vie privée, à la protection des données à caractère personnel, à la non-discrimination, et à l’accès à la justice. Pour pallier ces dérives, l’Union européenne (UE) a adopté un règlement sur l’intelligence artificielle, l’AI Act, tout premier cadre juridique complet sur l’IA au monde, entré en vigueur le 1er août 2024 et d’application progressive jusqu’en août 2026. Cette nouvelle norme favorise un usage de l’IA plus responsable au sein de l’UE, par le biais de règles claires et éthiques.
« En imposant des standards stricts, notamment l’interdiction de certaines pratiques comme la manipulation et l’altération du comportement humain, ou la reconnaissance des émotions sur le lieu de travail, l’AI Act change radicalement la donne pour les entreprises, notamment en matière de transparence, de sécurité, et de protection des droits des citoyens », explique Jean-Charles Boucher. Cette régulation impose une nouvelle vision aux entreprises, qui sont appelées à adapter leurs modèles et leurs processus pour embarquer une IA éthique et transparente. Précisons que les entreprises, utilisant l’IA ou non, sont déjà soumises au règlement général sur la protection des données (RGPD), qui fixe notamment les règles de collecte, de traitement, et de protection des données personnelles.
Ce cadre réglementaire européen est complété par la Déclaration universelle des droits de l’homme de 1948, ainsi que par les principales conventions de l’Organisation des Nations Unies (ONU) relatives aux entreprises et aux droits de l’homme (pactes des droits civils et politiques, droits économiques, sociaux et culturels, discrimination raciale, droits des personnes handicapées, etc.). Conformément à ces normes, les entreprises ont l’obligation de mettre en place des procédures de diligence raisonnable en matière de droits de l’homme, prévenir les éventuelles incidences négatives de leurs activités, en atténuer les effets, et rendre compte de la manière dont elles y remédient. Ces principes, qui concernent déjà l’ensemble des entreprises, s’appliquent donc d’autant plus à celles qui utilisent l’IA.
Auditer ses pratiques et infrastructures pour garantir transparence, sécurité, et éthique
Les entreprises utilisant des systèmes d’IA, en particulier à haut risque, vont devoir respecter des règles précises en matière de transparence, de sécurité, et d’éthique, qui impliquent de revoir en profondeur leurs pratiques et infrastructures. « Cette mise en conformité peut, par exemple, nécessiter de modifier les algorithmes existants, de retravailler la structure des données, et de s’assurer que les décisions prises par l’IA respectent les droits fondamentaux et la vie privée des utilisateurs. Pour de nombreuses entreprises, cela signifie procéder à un audit complet de leurs systèmes, ce qui peut nécessiter des investissements importants et représenter un défi pour certaines organisations disposant de ressources limitées. », indique Jean-Charles Boucher.
Cette analyse passe en premier lieu par la réalisation d’une cartographie des risques liés aux systèmes d’IA. De plus, toute entreprise doit être en mesure de documenter chaque décision prise par l’IA et de la justifier, ce qui suppose des archives exhaustives. En parallèle, les organisations sont tenues de mettre en place un système de surveillance continue pour détecter et corriger d’éventuelles erreurs ou dérives, susceptibles d’entraîner des ajustements technologiques importants. En outre, afin que l’IA reste alignée sur les objectifs et les valeurs de l’entreprise, celle-ci doit mettre en œuvre un dispositif de supervision. Il est enfin indispensable de former les employés aux biais algorithmiques, à la sécurité des données, et à la gestion de la vie privée.
Mettre en œuvre des actions complémentaires pour renforcer le respect des droits fondamentaux
Outre l’intégration de mécanismes d’audit de leurs modèles d’IA destinés à éviter la reproduction de discriminations ou de biais algorithmiques, les entreprises ont tout intérêt à mettre en œuvre une série d’actions complémentaires pour s’assurer du respect des droits fondamentaux. Pour Jean-Charles Boucher, « il paraît tout d’abord indispensable d’élargir les fonctions des délégués à la protection des données (DPO) en les chargeant des technologies de l’IA, ainsi que d’investir massivement dans la formation des employés pour améliorer leur compréhension et leur utilisation des données. La littératie des données est en effet devenue une compétence essentielle : on a aujourd’hui besoin de personnaliser les formations pour répondre à des niveaux de compétence variés et pour lutter contre la résistance au changement des collaborateurs non techniques. »
Il est également conseillé aux entreprises de mettre en place des systèmes d’alerte permettant d’identifier les non-conformités, tout autant que des procédures conçues pour éviter l’utilisation intempestive de l’IA par les salariés, et, le cas échéant, la fuite d’informations sensibles ou personnelles sur des plateformes d’échange ou via des solutions d’IA générative.
Respect des droits fondamentaux et IA : quelles tendances émergentes pour aider les entreprises ?
Les systèmes d’IA portent en eux-mêmes la promesse d’une progression du respect des droits fondamentaux. Outil de lutte contre les cyberattaques, de détection de comportements suspects, et d’anticipation des vulnérabilités des systèmes informatiques, l’IA concourt déjà à la protection des droits individuels. Une surveillance en temps réel qui peut par exemple permettre de bloquer une tentative de phishing avant qu’elle n’atteigne sa cible. « A court ou moyen terme, les modèles d’IA se feront plus transparents et permettront aux utilisateurs de voir comment leurs décisions sont prises, renforçant ainsi leur confiance et celles des régulateurs. En optimisant la gestion des données et en supprimant les données redondantes dans les data lakes, les systèmes d’IA pourront également assister les entreprises dans leur effort vers la réduction de l’impact environnemental de leurs projets data », ajoute Jean-Charles Boucher.