Revenir au site

Intelligence artificielle : qu’en disent les cerveaux européens ?

| par Antoine Petel, Junior Fellow de l'Institut Open Diplomacy

19 février 2020

Le 3 janvier 2020, l’administration américaine imposait une mesure de restriction sur les exportations de logiciels d’intelligence artificielle (IA) pour rendre plus difficile leur accès à des puissances internationales rivales. 

Cette décision illustre la place aujourd’hui occupée par l’IA dans les relations internationales. En raison de l’ensemble des opportunités qu’elle offre et promet, elle est aujourd’hui considérée comme une des technologies stratégiques du 21e siècle. Elle est en outre perçue, en tant que tel, comme un outil de puissance. La maîtrise de l’IA est donc désormais un enjeu de souveraineté au devant duquel tous les Etats vont.

Prenant conscience de ces enjeux et de son retard technologique, l’Union européenne (UE) a publié en 2018 une stratégie sur l’IA. Elle repose sur la recherche d’un modèle européen qui articule reconquête de souveraineté et recherche de puissance avec respect de la personne humaine. Cette stratégie - tardive - confirme les lacunes européennes dans sa recherche d’une autonomie stratégique, et la place croissante du numérique dans celle-ci. 

Donner un cadre éthique et juridique à l’IA

L’UE part du principe que le développement de l’IA est conditionné à la confiance que lui accorde le consommateur. Le cas du véhicule autonome, avec les différents accidents intervenus, illustre très bien cet enjeu. Bien que les industriels possèdent une technologie suffisamment avancée pour son déploiement à grande échelle, cette capacité est fortement restreinte par la confiance insuffisante du consommateur pour en user. L’Europe s’est donc fixée pour premier objectif d’élaborer un cadre éthique et juridique sur l’IA. 

Désigné en juin 2018, un comité d’experts européen a donc élaboré un premier projet de lignes directrices sur l’éthique de l’IA. En ressortent 7 principes pour garantir une responsabilité à l'égard des systèmes d'IA et de leurs résultats. La nécessité de sauvegarder l’autonomie humaine, l’exigence de respecter la vie privée et les données à caractère personnel, la nécessaire transparence des algorithmes sont au premier plan de ce projet.

À terme, l’objectif de l’UE est de porter cette approche sur la scène internationale. Elle veut favoriser les coopérations avec des partenaires proches de ses positions (le Japon, le Canada ou Singapour) et pousser son initiative dans les négociations en cours pour déterminer les standards internationaux de l’IA, espérant imprimer une vision de l’IA centrée sur l'humain. 

Au-delà des seuls aspects éthiques, l’adaptation du cadre juridique de l’IA est une autre priorité pour l’UE. Ursula von der Leyen, nouvelle présidente de la Commission, s’est engagée à présenter un projet législatif sur l’IA dans les 100 premiers jours de sa mandature. Mais compte tenu de la complexité du sujet et des délais restreints, ce projet a pris la forme d’un livre blanc présentant les différentes options à disposition (publié le 19 février). Il est à noter que cette volonté régulatrice européenne diverge des Etats-Unis qui plaident pour une action publique très mesurée sur l’IA afin de ne pas entraver son développement par le secteur privé. 

L’action de la Commission européenne rejoint celle récente du Conseil de l’Europe qui a établi en septembre 2019 un comité ad hoc chargé de consulter et étudier les possibilités d’établir un cadre juridique pour le développement, la conception et l'application de l’IA fondé sur les normes de droits de l'homme, de démocratie et d'État de droit.

La démarche de l’UE porte donc avant tout sur le souci de protéger son marché intérieur et ses consommateurs face aux évolutions et impacts engendrés par l’IA. Cette dynamique européenne est cohérente avec ses valeurs historiques de protection des droits individuels et représente une voix essentielle dans l’ordre international pour imposer le respect des droits fondamentaux dans le développement de l’IA.

Préserver la compétitivité du marché unique

Parce qu’elle modifiera en profondeur l’industrie européenne et sa compétitivité, la maîtrise de la technologie de l’IA est un enjeu de souveraineté économique pour l’UE. Elle déterminera sa relation commerciale future avec la Chine et les États-Unis. En jeu, il y a aussi sa capacité de peser sur la scène internationale pour déterminer les standards internationaux en matière d’IA et ses utilisations associées. 

Actuellement, les investissements en IA sont largement dominés par les États-Unis avec plus de 12 milliards par an. Suit l’Asie et ses plus de 6 milliards annuel, et dont la Chine qui a d’ores et déjà affirmé sa volonté de devenir leader dans le développement de l’IA d’ici à 2030. En comparaison, les investissements européens sont minimes avec environ 3 milliards d’euros annuels, et expliquent en partie son retard technologique actuel. 

Malgré ses atouts nombreux, dont des compétences scientifiques et entrepreneuriales, pour permettre le développement de l’IA sur son territoire, l’UE prend du retard avec des investissements quatre fois moindre que les Etats-Unis. 

Pour y remédier, l’UE et ses États membres se sont fixés l’objectif d’investir 20 milliards d’euros par an sur la période 2020-2030 (chiffre global, intégrant les investissements du secteur public et privé, de l’Union et des États membres). Le but est de mieux intégrer son marché unique dans le secteur numérique afin de dynamiser les investissements privés. La Commission vise aussi le rapprochement du secteur industriel et du monde universitaire pour créer des centres d’excellence et définir un programme commun de recherche stratégique sur l’IA.

Le défi de l’UE est à la hauteur de son retard, immense. Mais l’enjeu est tel, que la bataille ne peut être perdue au risque de subir une nette rupture stratégique dans l’ordre international.