Dans un geste historique, l’Union européenne (UE) a pris des mesures décisives pour réglementer l’intelligence artificielle (IA), en dévoilant la première législation mondiale visant à superviser le développement et l’utilisation des technologies d’IA.
Cette évolution intervient dans un contexte d’appréhension croissante quant à l’impératif de maintenir la souveraineté sur les normes réglementaires, plutôt que de succomber aux normes imposées par d’autres acteurs mondiaux.
Le cheminement vers une réglementation de l’IA au sein de l’UE remonte à février 2017, lorsqu’une résolution conjointe du Parlement européen a souligné la nécessité de veiller à ce que l’UE et ses États membres conservent le contrôle des normes réglementaires, à l’abri de toute influence extérieure.
Aujourd’hui, le 13 mars de cette année, le Parlement européen a approuvé la loi sur l’IA, marquant une étape importante dans les efforts législatifs mondiaux visant à réglementer de manière exhaustive les technologies d’IA.
L’acte est en attente d’approbation par le Conseil européen et entrera en vigueur dans les 24 mois suivant sa ratification.
L’introduction de la loi sur l’IA a soulevé des inquiétudes quant à ce que l’on a appelé « l’effet Bruxelles », c’est-à-dire les ramifications potentielles de l’application d’une législation européenne stricte qui pourrait entraver la progression de ces technologies.
Néanmoins, pour l’UE, qui est à la traîne en tant que puissance technologique dans le domaine de l’IA, cela représente une affirmation audacieuse de sa domination politique et juridique dans un domaine principalement dominé par les États-Unis et la Chine.
Cependant, le succès n’est en aucun cas assuré. Bruxelles évalue avec acuité les risques potentiels. La loi sur l’IA prévoit la mise en œuvre directe de ses dispositions tout en élargissant la fameuse « bureaucratie bruxelloise ».
Le Bureau de l’IA nouvellement créé jouera un rôle central en veillant à la conformité avec les nouveaux règlements, en supervisant l’application de la loi et en enquêtant sur toute violation de ses dispositions.
Le cadre réglementaire s’appuie sur une évaluation approfondie des risques, qui tient compte des risques existants ou potentiels découlant du déploiement des technologies d’IA.
Alors que la plupart des technologies d’IA « sûres » seront soumises à des restrictions de cadre, une attention particulière est accordée à deux catégories distinctes : l’IA « interdite » et l’IA « à haut risque ».
Les systèmes interdits englobent les technologies de reconnaissance émotionnelle et de manipulation du comportement, la notation sociale, la police prédictive et la majorité des systèmes d’identification biométrique.
Les technologies présentant un risque pour les droits fondamentaux de l’homme entrent dans la catégorie des technologies à haut risque.
Ces technologies feront l’objet de tests et d’évaluations rigoureux afin d’assurer la conformité aux exigences de la nouvelle loi, y compris l’enregistrement obligatoire, la mise en œuvre de systèmes de gestion des risques, la tenue à jour de la documentation spécialisée et l’engagement auprès des utilisateurs.
La nouvelle législation a recueilli un soutien politique important. La présidente du Parlement européen, Roberta Metsola, a salué la loi comme étant révolutionnaire, affirmant qu’elle favorise l’innovation tout en préservant les droits humains fondamentaux.
Cependant, ses implications s’étendent au-delà du domaine bureaucratique ; L’« effet Bruxelles » touche principalement toutes les entreprises technologiques opérant sur le marché de l’UE.
Des comparaisons ont déjà été faites entre la loi sur l’IA et le règlement général sur la protection des données (RGPD) de l’UE, notamment en ce qui concerne les sanctions potentielles en cas de non-conformité : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel pour les entreprises.
On s’attendait à une résistance de la part des grandes entreprises. Les entreprises qui ont l’intention d’étendre leurs technologies d’IA à l’échelle mondiale perçoivent la réglementation comme une menace pour la poursuite de leurs activités sur le marché de l’UE.
Plus de 150 grandes entreprises, dont Siemens, Airbus et Danone, ont écrit une lettre ouverte à l’UE pour demander une réévaluation des plans de réglementation de l’IA.
Ils ont fait valoir que les règles approuvées pourraient saper le potentiel technologique de l’UE et mettre en péril la compétitivité et la souveraineté technologique de l’Europe.
Peu de temps après l’approbation de la loi, Meta, l’une des plus grandes entreprises technologiques, a exprimé son opposition à toute mesure de l’UE qui pourrait étouffer l’innovation.
« Il est essentiel que nous ne perdions pas de vue l’énorme potentiel de l’IA pour favoriser l’innovation européenne et permettre la concurrence, et l’ouverture est essentielle ici », a déclaré Marco Pancini, responsable des affaires européennes de Meta.
Cependant, l’opposition à cette réglementation ne se limite pas aux grandes entreprises. Les gouvernements de la France et de l’Allemagne ont également exprimé leurs préoccupations, plaidant pour des options d’« autorégulation », suggérant que des règles obligatoires pourraient avoir un impact négatif sur les startups européennes.
Les développeurs européens d’IA, tels que la société française Mistral AI et l’allemand Aleph Alpha, ont également plaidé en faveur de l’autorégulation, craignant un retard dans les progrès de l’UE par rapport à d’autres leaders technologiques et le risque d’une réglementation excessive poussant les entreprises à délocaliser leurs activités en dehors de l’UE pour échapper à des règles strictes.
Les solutions potentielles peuvent résider dans des instruments européens de corégulation, tels que des « bacs à sable » réglementaires, permettant aux entreprises de tester des produits innovants avant leur entrée sur le marché. Une telle corégulation de l’IA permettra aux régulateurs européens de trouver un équilibre entre le contrôle de l’État et le soutien à l’innovation.
« L’Europe est en train d’établir des normes mondiales en matière d’IA », a déclaré le commissaire européen au marché intérieur, Thierry Breton, après l’approbation de la législation.
À cet égard, le leadership de l’UE en matière de réglementation du développement et de l’utilisation des technologies d’IA est incontestable. Cependant, le leadership juridique ne garantit pas à lui seul le succès technologique.
Il sera tout aussi essentiel que d’autres leaders mondiaux – la Chine, les États-Unis et le Royaume-Uni – donnent tous la priorité au développement technologique et à la croissance de l’industrie dans leurs stratégies d’IA.
La réglementation de ces juridictions pourrait en effet valider les préoccupations des entreprises : les entreprises européennes délocalisent leurs activités dans des juridictions plus clémentes.
Et compte tenu des progrès rapides de l’intelligence artificielle, l’impact de « l’effet Bruxelles » se fera sentir dans quelques années.