En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’intelligence artificielle, le Artificial Intelligence Act. L’objectif : protéger les utilisateurs des risques posés par le déploiement des systèmes d’IA.
Quatre ans plus tard, certaines parties du règlement sont entrées en vigueur. Mais qu’est-ce que la loi européenne sur l’IA ? À qui s’applique-t-elle ? Quelles sont les conséquences pour les acteurs des marchés financiers et comment les investisseurs réagissent-ils ?
Voici ce qu’il faut savoir.
La loi européenne sur l’IA répartit l’utilisation de l’IA en quatre niveaux de risque, qui déterminent leur traitement réglementaire.
1 Risque inacceptable
Le premier - et sans doute le plus important - est le risque inacceptable. Cela signifie qu’un système d’IA représente une menace pour les personnes et leurs droits fondamentaux, et qu’il contrevient aux valeurs de l’UE. Sans surprise, les systèmes d’IA jugés “inacceptables” seront interdits. Il s’agit par exemple des systèmes d’IA qui permettent d’établir des scores sociaux. Ces systèmes classent les personnes en fonction de leurs caractéristiques personnelles ou de facteurs socio-économiques. D’autres exemples utilisent l’identification biométrique, avec quelques exceptions à des fins d’application de la loi.
2 Risque élevé
Les systèmes susceptibles d’avoir un impact négatif sur les droits fondamentaux seront classés comme étant à haut risque et divisés en deux catégories : ceux qui sont utilisés dans des produits couverts par la législation de l’UE sur la sécurité des produits (par exemple, l’aviation ou les dispositifs médicaux), et ceux qui devront être enregistrés dans une base de données (par exemple, les systèmes utilisés pour l’application de la loi ou la gestion des migrations, de l’asile et des contrôles aux frontières).
3 Risque limité/risque de transparence
Les utilisateurs doivent savoir quand ils interagissent avec l’IA, de sorte que les applications susceptibles d’être manipulées, comme les chatbots ou les deepfakes, doivent être transparentes et conformes à la législation de l’UE en matière de droit d’auteur.
4 Risque minimal
Les applications qui n’entrent pas dans les trois catégories susmentionnées sont classées comme “à risque minimal” et peuvent être développées et utilisées sur la base de la législation existante sans exigences légales supplémentaires. Il est important de noter que ce n’est pas parce qu’une application est classée comme présentant un risque minimal aujourd’hui que cette classification ne changera pas à l’avenir.
Le règlement décrit deux cas d’utilisation spécifiques à haut risque pour le secteur des services financiers. Le premier consiste à utiliser l’IA pour évaluer la solvabilité d’une personne. Le second est l’utilisation de l’IA pour la tarification de l’assurance-vie ou de l’assurance-maladie.
À qui s’applique la loi européenne sur l’IA ?
Naturellement, le règlement s’appliquera aux 27 États membres de l’Union européenne. Le règlement s’appliquera également aux entités situées en dehors de l’UE si le système d’IA est proposé sur le marché de l’UE ou a un impact sur les personnes situées dans l’UE.
Cela ajoute une couche de complexité supplémentaire, comme le fait remarquer Andrew Ye, stratège en investissement chez Global X ETF.
“Les entreprises non européennes pourraient être confrontées à d’importants défis d’adaptation, car les dispositions extraterritoriales de la loi exigent la conformité de toute entreprise opérant sur les marchés de l’UE”, ajoute-t-il. “Les récentes mesures d’application prises à l’encontre de nouveaux acteurs de l’IA dans divers pays de l’UE, y compris des interdictions d’applications et des enquêtes sur la confidentialité des données, témoignent d’une application transfrontalière rigoureuse de la loi. Ces affaires mettent en évidence les préoccupations réglementaires concernant les pratiques opaques en matière de données de formation à l’IA et la conformité juridictionnelle, ce qui pourrait inciter à adopter des règles plus strictes en matière de transfert de données au niveau international.”
Que disent les investisseurs professionnels ?
Bien qu’il soit encore tôt, les gestionnaires de fonds européens soulignent trois points essentiels à surveiller : la législation dans la pratique, l’impact sur l’innovation et les opportunités potentielles.
Dan Smith, analyste principal en actions chez Canaccord Wealth, voit deux défis principaux pour les entreprises technologiques à grande capitalisation. “Les restrictions sur le déploiement de l’IA pourraient freiner la demande de puces d’IA, d’informatique en nuage et de logiciels axés sur l’IA, ce qui pourrait potentiellement limiter la croissance future des revenus. Deuxièmement, les coûts de conformité liés à la documentation et à l’audit exerceront une pression sur les marges, ce qui s’ajoute aux perspectives déjà difficiles pour les bénéfices dans ce secteur, compte tenu des charges d’amortissement plus élevées associées à l’investissement considérable en capital requis pour l’infrastructure de l’IA”, note-t-il.
“Mais à court terme, le plus grand obstacle à l’expansion de l’IA n’est pas la réglementation, mais les contraintes de capacité, en particulier la disponibilité limitée des GPU et de la puissance de calcul. Étant donné que la demande d’IA dépasse actuellement l’offre, tout ralentissement de l’adoption au sein de l’UE devrait être compensé par une demande plus forte dans d’autres régions, du moins à court terme.”
David Winborne, co-gestionnaire de portefeuille du fonds Impax Global Equity Opportunities, explique que les entreprises à forte capitalisation ne sont pas les seules à être confrontées à des difficultés.
“Les implications de la loi européenne sur l’IA sont les plus importantes pour les petits développeurs d’IA européens. Cela s’explique en partie par le fait que de grandes entreprises telles que Microsoft MSFT ont déjà mis en place des contrôles approfondis de leurs solutions d’intelligence artificielle, de sorte que les coûts opérationnels supplémentaires seraient minimes, et ce d’autant plus que les entreprises américaines pourraient simplement choisir de ne pas proposer de solutions “non conformes” aux entreprises basées dans l’UE. Les entreprises telles que la start-up française Mistral AI sont plus susceptibles d’être matériellement affectées par les exigences, ce qui pourrait ralentir leur croissance."
Martin Hermann, gestionnaire de portefeuille senior pour les actions mondiales chez Berenberg Asset Management, note que si les restrictions pourraient étouffer le développement de l’IA dans l’UE, en particulier à un moment où des entreprises américaines comme OpenAI, Google et Anthropic développent des modèles d’IA de pointe, il y a tout de même une lueur d’espoir.
“La loi européenne sur l’IA crée des opportunités pour les entreprises spécialisées dans l’IA digne de confiance, l’explicabilité et la sécurité de l’IA. En outre, la loi interdit les modèles d’IA qui menacent la sécurité, les moyens de subsistance et les droits des personnes”, ajoute-t-il. “Les grandes entreprises disposant de ressources telles que SAP, Siemens et les laboratoires d’IA européens pourraient bénéficier d’une mise en conformité précoce et de solutions d’IA axées sur la réglementation.”
La loi européenne sur l’IA s’applique-t-elle au Royaume-Uni ?
Oui. Les entreprises britanniques qui créent ou utilisent un système d’IA utilisé dans l’UE seront soumises au règlement.
Par rapport à l’approche de l’UE fondée sur les risques, le Royaume-Uni a adopté ce qu’il appelle une "approche pro-innovation" en matière de réglementation. Qu’est-ce que cela signifie ? Pour l’essentiel, il n’est pas prévu d’introduire de nouvelles réglementations nettes. En revanche, les organismes de réglementation existants devront tenir compte de la manière dont les systèmes d’IA sont créés et utilisés.
Le 13 janvier 2025, le gouvernement travailliste a annoncé qu’il intensifierait ses efforts pour utiliser l’IA afin de stimuler la productivité et la croissance du produit intérieur brut par le biais d’un plan en 50 points. L’annonce comprenait un investissement de 14 milliards de livres sterling de la part de trois grandes entreprises technologiques pour développer l’infrastructure nécessaire au Royaume-Uni, avec l’objectif de créer 13 250 emplois dans le secteur. Cet investissement s’ajoute à celui de 25 milliards de livres annoncé précédemment. Si le plan se concentre sur l’infrastructure de l’IA et le rôle de l’IA dans les services publics, il ne présente pas de plan de réglementation.
Quand la loi européenne sur l’IA entre-t-elle en vigueur ?
La loi européenne sur l’IA comporte de nombreux éléments mobiles. Voici une chronologie des dates les plus importantes :
- Avril 2021 - La Commission européenne propose le premier cadre réglementaire de l’UE pour l’IA ;
- Mars 2024 -Le Parlement adopte la loi sur l’intelligence artificielle. ;
- Mai 2024 - Le Conseil approuve la loi sur l’IA ;
- Juin 2024 - Les législateurs de l’Union européenne signent l’acte ;
- 1er août 2024 - La loi européenne sur l’IA entre en vigueur dans les 27 États membres de l’UE ;
- 1er août 2026 - Après une période de mise en œuvre de deux ans, le règlement sera pleinement applicable.
Comme tous les textes législatifs complexes, il existe des exceptions, certaines règles entrant en vigueur plus tôt :
- 2 février 2025 - Les systèmes d’IA considérés comme présentant un “risque inacceptable” seront interdits. ;
- 2 mai 2025 - Les fournisseurs de systèmes d’intelligence artificielle devront préparer leurs codes de pratique afin de démontrer qu’ils respectent les exigences de conformité. ;
- 2 août 2027 - Les systèmes à haut risque disposeront d’un délai supplémentaire pour se conformer à la législation.
Le rôle de l’IA dans les services financiers
À la fin de l’année dernière, la Banque d’Angleterre et la Financial Conduct Authority ont mené une enquête sur l’intelligence artificielle et l’apprentissage automatique dans les services financiers britanniques. Les résultats ont révélé que 75 % des entreprises utilisent déjà l’IA, tandis que 10 % supplémentaires prévoient d’adopter l’IA au cours des trois prochaines années.
L’IA est désormais omniprésente, et elle n’est pas près de disparaître. Alors que le débat sur l’importance de l’IA dans nos vies fait rage, les acteurs des marchés financiers prêts à essayer l’IA peuvent en tirer des avantages.
- Automatisation - lorsqu’il s’agit de tâches manuelles ou répétitives, l’IA peut représenter un énorme gain de temps. Par exemple, l’agrégation automatisée de données. L’extraction de grandes quantités de données permet aux conseillers, aux gestionnaires de patrimoine et aux gestionnaires d’actifs de consacrer plus de temps à des tâches plus importantes. ;
- Analyse - L’IA peut être un outil analytique utile pour obtenir rapidement des informations. Par exemple, l’analyse des sentiments peut aider à surveiller l’humeur du marché, aidant les analystes à anticiper les changements. ;
- Détection d’anomalies - L’IA est excellente pour rechercher des modèles et des valeurs aberrantes, ce qui pourrait constituer un outil puissant pour lutter contre la fraude. ;
- Personnalisation - Grâce aux progrès du traitement du langage naturel, les gestionnaires et les conseillers peuvent utiliser des outils tels que les chatbots pour améliorer la communication avec les clients, délivrer des messages plus personnalisés, en apprendre davantage sur les objectifs et le niveau de tolérance au risque d’un client, et potentiellement prévenir le désabonnement des clients. ;
- Réduction des coûts - Grâce à ce qui précède, l’IA a le potentiel de réduire les coûts, d’augmenter le retour sur investissement et de stimuler la productivité (si elle est utilisée efficacement). ;
Quelle est la prochaine étape ?
Comme le fait remarquer Alison Porter, gestionnaire de portefeuille au sein de l’équipe Global Technology Leaders Team chez Janus Henderson Investors, l’incertitude demeure quant à la manière dont la législation sera appliquée et mise en œuvre.
“Globalement, l’approche fondée sur les risques de la loi européenne sur l’IA a été largement adoptée. Mais elle reste très théorique et n’est pas encadrée par des paramètres appropriés. Nous n’avons pas encore la partie de la loi relative à la responsabilité, qui pourrait ne pas aboutir, et il n’y a pas encore de code de pratique”, précise-t-elle. “Bien qu’ils aient établi des domaines de classification des risques différents, nous n’avons pas de véritables lignes directrices sur ce que cela implique exactement ou sur la manière dont les différentes applications de l’IA peuvent interagir. Il est tout simplement trop tôt et la loi est trop vaste pour en tirer des conséquences du point de vue de l’investissement pur”.
Un prix élevé à payer pour la non-conformité
En attendant la mise en œuvre complète, la première chose à faire est de vérifier si les activités liées à l’IA entrent dans les catégories “inacceptable” ou “à haut risque”. Le coût de la non-conformité est très élevé : 35 000 000 EUR ou jusqu’à 7 % du chiffre d’affaires annuel mondial total de l’entreprise pour l’exercice précédent, le montant le plus élevé étant retenu. Sans parler du risque potentiel pour la réputation de l’entreprise.
Alors que la loi européenne sur l’IA est mise en œuvre progressivement, il est également important de suivre la manière dont les pays non européens abordent la réglementation de l’IA. Aux États-Unis - le leader mondial des technologies de l’IA - l’accent mis par la nouvelle administration Trump sur la déréglementation signale un changement fondamental par rapport à l’approche de l’ancienne administration Biden.
Comme le fait remarquer David Winborne, “les effets positifs de la réglementation sur la sécurité de l’IA dépendront en fin de compte de son application dans les États membres de l’UE, qui s’est avérée inégale dans le cas du GDPR. En outre, comme la loi européenne sur l’IA a commencé à être mise en œuvre progressivement à partir de ce mois-ci, elle est susceptible d’être un sujet discuté dans les négociations commerciales entre les États-Unis et l’Europe en raison de la nature extra-territoriale de la législation”.
Vous voulez en savoir plus ?
Téléchargez Guide gratuit de Morningstar sur l’intelligence artificielle pour en savoir plus sur l’IA, des cas d’utilisation et de la terminologie clé aux réglementations spécifiques à chaque région et aux défis liés à l’IA.
Christopher Johnson a contribué à cet article.
L'auteur ou les auteurs ne possèdent pas de parts dans les titres mentionnés dans cet article. En savoir plus sur les politiques éditoriales de Morningstar.