Depuis l’arrivée de ChatGPT, et plus récemment de Gemini, modèle d’Intelligence Artificielle développé par Google, l’Union Européenne se penche sur la création d’une réglementation sur l’Intelligence Artificielle (IA) afin d’en encadrer son développement. Cette démarche s'inscrit dans une volonté de prévenir les risques associés à cette technologie tout en veillant à ne pas accumuler de retard.
Actuellement, il n'y a pas de règlement spécifique sur l'IA dans l'Union européenne. Toutefois, la Commission européenne a pris les devants en 2021 en présentant une proposition de « Règlement du Parlement européen et du Conseil, pour établir des règles harmonisées concernant l'intelligence artificielle. »
La bonne nouvelle ? Début décembre 2023, après plusieurs jours d’intenses négociations, le Parlement européen et le Conseil de l'Union européenne ont trouvé un accord sur ce texte, qui pourrait bien devenir la première loi sur l'intelligence artificielle dans le monde. C'est un pas de géant vers une régulation claire et nécessaire dans ce domaine passionnant.
Que dit exactement ce texte ? Que prévoie-t-il d’encadrer ? Les usages ou la technologie en elle-même ? Est-ce que cette proposition de réglementation soutiendra-t-elle assez l’innovation ? MBway Lyon, votre école de commerce et de management lyonnaise toujours en veille sur les nouveautés technologiques, vous éclaire sur le sujet.
Qu’est-ce que ce règlement européen sur l’IA souhaite encadrer ?
Cette proposition de cadre réglementaire vise à atteindre plusieurs objectifs clés :
- Sécurité et conformité : assurer la sécurité des systèmes d'IA sur le marché tout en respectant les lois en vigueur en matière de droits fondamentaux, les valeurs de l’UE, l'État de droit et la durabilité environnementale.
- Sécurité juridique : garantir une sécurité juridique robuste pour encourager les investissements et l’innovation dans le domaine de l’IA.
- Gouvernance consolidée : renforcer la gouvernance et l’application effective des lois existantes concernant les exigences de sécurité et les droits fondamentaux applicables aux systèmes d’IA.
- Développement de l’IA : faciliter le développement d'un marché unique pour des applications d'IA légales et sûres, tout en évitant la fragmentation du marché.
Plus en détail, ce texte comprend et établit :
- Des interdictions spécifiques à certaines pratiques
- Des exigences spécifiques pour les systèmes d'IA présentant des risques élevés
- Des règles harmonisées en matière de transparence pour les systèmes d’IA génératives (images, contenus audio ou vidéos), les systèmes d'IA interagissant avec des personnes ou encore les systèmes de reconnaissance des émotions ou qui permettent d’identifier une personne (catégorisation biométrique).
Cette approche tient compte des avantages sociaux et environnementaux potentiels de l'IA, tout en adressant les nouveaux risques et les conséquences négatives associés à cette technologie.
Pour garantir la cohérence, la proposition s'aligne avec la Charte des droits fondamentaux de l'UE ainsi qu'avec le droit dérivé de l'UE en matière de protection des données, protection des consommateurs, non-discrimination, et égalité entre les genres. Elle renforce également le droit existant en matière de non-discrimination en introduisant des exigences visant à minimiser les risques de discrimination algorithmique, accompagnées d’obligations en matière d'essais, de gestion des risques, de documentation, et de contrôle humain tout au long du cycle de vie des systèmes d’IA.
Quelles pratiques d’IA sont interdites par cette proposition de réglementation ?
La proposition de règlement sur l'IA met le holà à certaines pratiques pour garantir un usage responsable de cette technologie. Voici les usages qui seront interdits avec les outils d’IA :
- Manipulation du comportement : se servir des systèmes d'IA qui utilisent des tactiques subliminales pour influencer le comportement humain de manière nuisible (contourner le libre-arbitre pour causer un préjudice physique ou psychologique à quelqu’un).
- Exploitation des vulnérabilités : utiliser les IA exploitant de potentielles vulnérabilités liées à l'âge ou à un handicap, qui pourraient affecter le comportement d’une personne ou causer des préjudices physiques ou psychologiques.
- Catégorisation discriminatoire : disposer d’un système d'IA qui catégorise et classe des individus en fonction de leur comportement social, des caractéristiques personnelles ou sensibles (orientation sexuelle, opinions publiques, philosophiques ou religieuses, etc.). Ces classements sont jugés inutiles car ils peuvent entraîner des traitements injustes ou disproportionnés, qui seraient préjudiciables pour les personnes concernées.
- Reconnaissance des émotions : l’IA ne doit pas être utilisée pour reconnaître des émotions sur le lieu de travail ou dans les écoles.
- Identification biométrique : l'identification biométrique en temps réel dans des lieux publics à des fins répressives est interdite, sauf pour des raisons spécifiques comme la recherche de victimes de crimes graves (disparition d’un enfant, exploitation sexuelle, etc.) ou la prévention d'une menace pour la vie ou la sécurité des personnes (attaques terroristes, menaces spécifiques et imminentes, localisation d’un criminel punissable d’une peine de prison d’au moins 3 ans, etc.)
La proposition classe également certains systèmes d'IA comme étant à « haut risque », comme ceux influençant les élections. Les citoyens auront le droit de déposer des plaintes et d'obtenir des explications sur les décisions basées sur des systèmes d’IA à « haut risque » qui ont une conséquence sur leurs droits.
Quelles sanctions en cas de non-respect de ces interdictions ?
En cas de non-respect des règles, des amendes seront infligées, variant de 7,5 millions d'euros ou 1,5 % du chiffre d'affaires à 35 millions d'euros ou 7 % du chiffre d'affaires mondial, en fonction de la taille de l'entreprise et de la gravité de l'infraction.
La proposition vise à assurer une utilisation éthique de l'IA, avec des protections pour les droits des individus.
Est-ce que cette réglementation ne va pas stopper l’innovation de l’IA ?
L'évolution rapide des systèmes d'intelligence artificielle souligne la nécessité d'un nouveau contrôle réglementaire et d'un espace sécurisé pour l'expérimentation. La proposition de réglementation vise à assurer une innovation responsable tout en intégrant des garanties et des mesures pour atténuer les risques. Afin de ne pas stopper l’innovation dans ce domaine, il ne faut pas avoir un cadre juridique trop stricte, car il avance moins vite que la technologie.
Pour remédier à ça, les Etats membres proposent la création de "bacs à sable réglementaires" sur l'IA. Ces espaces offriront un terrain d'expérimentation contrôlé pendant le développement, assurant la conformité avec les règlements avant la mise sur le marché ou la mise en service.
Les objectifs de cette réglementation sont clairs :
- Favoriser l'innovation : créer un environnement contrôlé pour expérimenter pendant le développement des systèmes d’IA, garantissant la conformité avec la proposition de règlement.
- Renforcer la sécurité juridique : assurer une sécurité juridique aux innovateurs, tout en renforçant le contrôle et la compréhension des opportunités, des risques émergents et des conséquences de l'utilisation de l'IA.
- Faciliter l'accès au marché : accélérer l'accès aux marchés en éliminant les obstacles pour les petites et moyennes entreprises (PME) ainsi que les jeunes entreprises.
En mettant en place ces "bacs à sable réglementaires", le but est de trouver le bon équilibre entre l'innovation dynamique et la nécessité d'un contrôle réglementaire strict pour garantir un déploiement sûr et responsable des systèmes d'IA. C'est une approche gagnant-gagnant pour les innovateurs et les consommateurs.
Une réglementation qui ne sera pas effectivement avant 2026
Thierry Breton, commissaire européen qui a initié ce projet est fier d’affirmer que « L’UE devient le premier continent à fixer des règles claires pour l’utilisation de l’IA ». La présidence espagnole de l’UE ajoute que c’est « La plus grande étape de l’histoire de la transformation numérique de l’Europe »
Cependant, le ministre français de la Transition numérique, Jean-Noël Barrot a nuancé ces propos utopistes sur France Inter en exposant son point de vue : « C’est une étape dans un chantier qui s’est ouvert il y a quatre ans et qui nécessite des discussions supplémentaires ».
En effet, cette proposition de règlement doit encore être adoptée définitivement par un vote au parlement et par chaque Etat membre. Son application ne devrait donc pas être effective avant 2025 ou 2026, ce qui laissera aussi le temps aux entreprises de se mettre en conformité et de créer l’office européen de l’IA (« AI Office), une nouvelle entité de 100 personnes qui agiraient au sein de la Commission européenne pour assurer la coordination de la mise en œuvre de ces nouvelles règles.
Ces dernières années, l’Europe a raté certaines grandes avancées technologiques comme le Cloud ou les réseaux sociaux, laissant notamment les puissants outils des GAFAM dominer le quotidien des citoyens européens, au dépit parfois de certains droits et de leur vie privée. Pour éviter que l’histoire se répète, l’Europe doit développer des systèmes d’IA qui répondent et qui correspondent à sa culture et à ses valeurs.
Même si cette proposition de réglementation est une première avancée historique sur le sujet, tout n’est pas encore fait, ni acté. Cela reste prometteur pour la suite et vous devez rester en veille sur cette nouvelle technologie qui intègre plus vite qu’on le pense nos quotidiens.
Tous les métiers de manager, comme ceux enseignés dans nos MBA spécialisés, sont déjà en train d’être transformés avec les outils d’IA, et ce n’est pas prêt de s’arrêter. Vous souhaitez être formé dans une école de commerce et de management qui prend en compte les actualités des marchés et des métiers dans ses programmes ? Rejoignez sans plus attendre MBway Lyon pour la rentrée prochaine.