Exploiter l'intelligence artificielle | Conseil européen des relations étrangères

RÉSUMÉ

L'intelligence artificielle est impossible à ignorer – elle est appelée à transformer la société, l'économie et la politique.
L’Europe n’a pas encore pris toutes les mesures nécessaires pour tirer parti de ces avancées ou se protéger des aspects potentiellement dangereux d’Amnesty International.
Les États-Unis, la Chine et la Russie sont attentifs au pouvoir d’intelligence artificielle de changer la guerre moderne: ils comprennent la géopolitique de l’intelligence artificielle et peuvent poursuivre des objectifs techno-nationalistes.
L’Europe peut développer la souveraineté en matière d’IA en renforçant le talent, les données et le matériel informatique dont elle s’appuie; et en tant que «superpuissance réglementaire», il peut établir des normes que le reste du monde devra suivre.
Si l'Europe ne résout pas rapidement ces questions difficiles, elle se retrouvera entourée de rivaux plus puissants déployant l'IA contre elle.

INTRODUCTION

L'intelligence artificielle (IA) est en train de changer l'économie: elle influe sur notre façon de faire des achats, sur notre façon de communiquer, sur notre façon de faire de la recherche. L’intelligence artificielle n’est en définitive plus que «essentielle à tout». En effet, il est difficile de penser à des domaines dans lesquels l’IA ne peut pas accélérer, s’améliorer ou changer. Goldman Sachs, une banque d'investissement américaine, affirme qu'IA: «est une technologie de transfert d'aiguilles pour l'économie mondiale […] impact sur chaque entreprise, secteur et segment de l’économie dans le temps ».[1] L'intelligence artificielle est un catalyseur que certains ont assimilé à l'invention du moteur à combustion ou de l'électricité – technologies qu'il est impossible d'ignorer. Ce document examine la position de l'Europe sur l'IA; à quel point c'est souverain dans ce domaine! si l'Europe peut ou doit viser la souveraineté de l'IA; et quels sont les risques si ne pas acquérir une telle souveraineté.

Qu'est-ce que l'IA?

L'intelligence artificielle fait généralement référence aux efforts visant à construire des ordinateurs capables d'effectuer des actions qui nécessiteraient autrement une intelligence humaine, telle que le raisonnement et la prise de décision. Cela dénote un changement fondamental, qui consiste à dire aux humains comment agir, aux ordinateurs qui apprennent à agir. L’intelligence artificielle le fait principalement à travers l’apprentissage automatique, y compris les techniques de «formation approfondie». Bien que la culture populaire aime spéculer sur la «superintelligence» et ses conséquences,[2] la plupart des travaux de recherche et développement, et du présent document, sont axés sur des applications d’intelligence artificielle plus limitées et plus ciblées (également appelées «IA étroite»).

Le terme «IA» est apparu pour la première fois à la Conférence sur l’intelligence artificielle de Dartmouth, tenue en 1956. Depuis lors, le champ a connu plusieurs cycles de battage médiatique et de déception, cette dernière étant surnommée «hiver AI». Le domaine connaît actuellement un «printemps de l'IA», le développement de l'IA s'est considérablement accéléré au cours des dernières années. Auparavant, l'accès limité aux grands ensembles de données et l'absence d'architectures informatiques appropriées le retardaient. Récemment, toutefois, les performances des ordinateurs ont été améliorées et davantage de données sont devenues disponibles: en fait, un rapport de 2017 estimait que 90% des données mondiales avaient été créées au cours des cinq années précédentes. Au cours de la même période, le nombre de développeurs d’unités de traitement graphique (GPU) a été multiplié par quinze – un matériel essentiel pour l’IA.[3] Ensemble, ces développements ont conduit à une augmentation significative de la recherche en intelligence artificielle dans le monde entier, permettant ainsi à de meilleurs algorithmes de devenir plus largement disponibles. Ceci, à son tour, a généré plus de recherche.[4] Alors que les progrès se poursuivent, le public et les médias s'intéressent de plus en plus à l'IA – et la technologie commence à inspirer le battage médiatique et l'hystérie dans une égale mesure.

Pourquoi l'IA est importante

Le potentiel de l’IA peut paraître presque illimité. Ce n’est pas seulement un «double usage», en ce sens qu’il peut être utilisé à la fois pour des applications civiles et militaires, mais un «usage multiple», susceptible d’influencer tous les éléments de la vie. Bien que les promesses exagérées inspirées par la science-fiction risquent d’être entraînées, les applications d’IA ont déjà des avantages économiques et sociaux considérables. Dans le secteur de la santé, l'intelligence artificielle est utilisée pour lire les examens et améliorer la précision des diagnostics. En agriculture, l'IA peut aider à améliorer les rendements. Les usines, les batteries de serveurs et les autres entreprises énergivores utilisent l'IA pour améliorer leur consommation d'énergie. Selon Goldman Sachs, il existe «un potentiel pour l'IA et l'apprentissage automatique de redéfinir l'ordre concurrentiel dans tous les secteurs». Cependant, la banque a également averti que: "Les équipes de direction qui n'investissent pas dans ces technologies et ne les exploitent pas risquent d'être dépassées par des concurrents qui bénéficient de l'intelligence stratégique, des gains de productivité et de l'efficacité du capital qu'elles créent."[5] Étant donné que les entreprises préviennent du risque d’être dépassées par des concurrents qui adoptent l’IA, les États devraient s’interroger sérieusement sur le fait qu’ils en font assez en matière d’applications de l’IA pour garantir le bien-être continu de leurs économies.

Outre son impact économique potentiel, l'intelligence artificielle est rapidement devenue un élément de la concurrence géopolitique. Vladimir Poutine s'est peut-être engagé dans une hyperbole lorsqu'il a déclaré que «Celui qui deviendra le leader dans ce domaine sera le souverain du monde», mais la Chine et les États-Unis considèrent également l'IA comme un facteur du pouvoir géopolitique. En fait, la Chine et les États-Unis se considèrent comme le principal concurrent et tentent de devenir le leader en matière d'intelligence artificielle. Ils sont directement en concurrence pour le talent – Qi Lu, l'un des principaux dirigeants de Microsoft, a quitté l'entreprise en 2017 pour rejoindre le concurrent chinois Baidu – et dans le secteur de la recherche: en octobre 2016, la Maison Blanche a reconnu que la Chine avait dépassé les États-Unis dans le nombre d'articles de revues publié sur l'apprentissage en profondeur. Cette compétition peut même toucher à des sujets importants pour la culture et l’histoire de chaque pays, comme par exemple quand 280 millions de Chinois en Chine regardaient une machine appartenant à la société mère de Google, Alphabet, gagner à Go contre l’un des meilleurs joueurs humains au monde. Comme un observateur l’a noté à l’époque, une société californienne «avait conquis un jeu inventé il y a plus de 2 500 ans en Asie. Les Américains ne jouent même pas à Go. »Les progrès des capacités américaines motivent directement la recherche chinoise, et inversement. Kai-Fu Lee, ancien président de Google China, a commenté l'événement: «Si AlphaGo était le moment Sputnik en Chine, le [Chinese] Le plan du gouvernement en matière d’IA était comme un discours historique du président John F. Kennedy appelant les États-Unis à poser un homme sur la lune ».[6]

Si l'intelligence artificielle est effectivement comparable au moteur à combustion ou à l'électricité dans son potentiel de transformation, le fait de ne pas adopter cette technologie aura à la fois des répercussions économiques et pourrait entraîner des écarts géopolitiques considérables entre les pays. La première révolution industrielle, associée à l’invention de la machine à vapeur, a permis à la Grande-Bretagne d’être le premier à devenir la première puissance européenne, loin de la France et de la Prusse. Cet avantage a alimenté l'expansion de l'empire britannique et a donné à la Grande-Bretagne une longueur d'avance que le reste du monde mettrait des décennies à fermer.

Compte tenu du pouvoir et de l'influence que les nouvelles technologies peuvent conférer, il est frappant de constater que la plupart des pays européens (à l'exception notable de la France), ainsi que l'Union européenne elle-même, ne semblent pas considérer l'IA comme un facteur géopolitique – contrairement à l'attitude de La Russie, les États-Unis et la Chine. L’Ordonnance récemment publiée sur le maintien du leadership américain en matière d’intelligence artificielle adopte une approche clairement géopolitique et souligne que: «Le maintien du leadership américain dans le domaine de l’IA est d’une importance capitale pour le maintien de la sécurité économique et nationale des États-Unis et pour le développement de la mondialisation. l'évolution de l'intelligence artificielle d'une manière compatible avec les valeurs, les politiques et les priorités de notre nation ». En revanche, la «fiche d’information sur l’IA» de la Commission européenne ne fait que souligner l’importance de l’IA dans des secteurs tels que la santé, les transports et les services publics. Bien que l'Union européenne ait considérablement intensifié ses efforts en matière d'IA au cours de l'année écoulée, elle a pris soin d'éviter toute apparence qu'elle se considère comme faisant partie d'une compétition mondiale d'IA. Lors d'une réunion du Conseil des relations extérieures sur la «course à l'IA», Peter Fatelnig, de l'UE, a déclaré que ce n'était pas vraiment une course pour l'UE: «pour une course, il faut un but, et je ne suis pas tout à fait sûr. nous avons en fait une idée du but recherché ».

Ceci est inquiétant, étant donné le risque distinct que les États du monde entier adoptent des programmes techno-nationalistes, notamment un protectionnisme accru pour soutenir les champions nationaux. Dans un essai remarquable, Ian Hogarth, ingénieur en apprentissage automatique et investisseur dans le domaine de l'IA, avertit que: "L'apprentissage automatique sera une cause d'instabilité tellement dramatique que les États-nations seront obligés de faire passer leurs citoyens avant les objectifs plus larges de l'internationalisme". Un monde de concurrence mondiale turbocompressé par l'IA pourrait être à l'horizon. Cela irait directement à l’encontre de l’approche multilatérale de l’UE en matière de souveraineté commune en matière de gouvernance, dans la mesure où il met les États membres individuellement sous pression pour réagir. Et cela pourrait laisser le modèle de l’UE vulnérable face aux concurrents géopolitiques qui le surpassent en capacités d’IA dans de nombreuses applications pratiques.

Enfin, Amnesty International est sur le point de changer la guerre et les organisations militaires. Les forces armées du monde entier s'intéressent à cette technologie, y compris, mais sans s'y limiter, à l'autonomie activée par l'IA. Ils le font parce que l'IA peut: les aider à améliorer la vitesse, la furtivité, la précision et l'efficacité de leurs opérations; leur permettre de développer de nouvelles capacités militaires (telles que l'essaimage); réduire le besoin de main-d'œuvre (limitant ainsi également l'erreur humaine); et, potentiellement, réduire les coûts. Cependant, l'application de l'IA à la guerre, en particulier l'utilisation potentielle d'armes létales autonomes, soulève également des questions sur leur légalité et leur moralité. Cela a provoqué des protestations publiques et des débats en cours sur l'interdiction de tels systèmes dans le cadre de la Convention sur certaines armes classiques.

Dans cette optique, il est essentiel que l'UE, ses États membres et les pays européens n'appartenant pas à l'UE évitent plus généralement de prendre du retard dans la recherche et l'utilisation de l'IA, et qu'ils restent conscients de l'impact que l'IA peut avoir sur leurs économies et leurs sociétés. Où se situe actuellement l'Europe par rapport aux autres acteurs? Et que peut-il faire pour améliorer sa position?

Eléments de l'IA – et comment se comportent les principaux joueurs

Trois éléments, ou intrants clés, sont essentiels pour l'intelligence artificielle: l'accès au talent; accès à des quantités importantes de données; et l'accès au matériel et aux logiciels, y compris l'infrastructure et la puissance de calcul.[7]

1. Talent: Le développement rapide de l'IA et la demande résultante en chercheurs ont entraîné une pénurie de talents en IA dans le monde entier. Ian Hogarth résume bien le propos: «Il y a peut-être 700 personnes dans le monde qui peuvent contribuer à la pointe de la recherche sur l'IA, environ 70 000 peuvent comprendre leur travail et participer activement à sa commercialisation et 7 milliards de personnes qui en souffriront. «Ces chiffres aident à donner une idée du défi, bien qu'il soit difficile de dire exactement combien de chercheurs en intelligence artificielle sont présents dans le monde – ou combien sont nécessaires. Selon un rapport publié en décembre 2017 par le géant chinois de l'internet Tencent, entre 200 000 et 300 000 personnes étaient des chercheurs en intelligence artificielle ou des praticiens du secteur. Un autre rapport, rédigé par Element AI, estime ce chiffre considérablement inférieur à 22 000 dans le monde. La rareté des chercheurs en intelligence artificielle en fait un bien précieux. Peter Lee, directeur de Microsoft Research, a comparé le coût de l’embauche d’un chercheur en intelligence artificielle à celui d’un quart-arrière de la National Football League.[8] Cette pénurie a même conduit à la pratique des «acquisitions», par lesquelles les grandes entreprises reprennent les entreprises plus petites dans le but principal d'embaucher leurs employés.[9]

2. Données: Pour le moment, la plupart des IA sont formées en utilisant de grandes quantités de données – d'où le terme associé «big data». Par exemple, des centaines de milliers d'images peuvent être affichées sur un système d'intelligence artificielle afin qu'il puisse identifier des objets spécifiques. Cependant, l'IA peut être formée sans big data, en utilisant des méthodes telles que l'apprentissage par renforcement, qui génère ses propres données et s'entraîne en jouant contre elle-même. Plusieurs chercheurs en IA pensent que l'avenir de l'IA réside dans de petites données. Mais pour l'instant, la plupart du temps: sans beaucoup de données, il n'y a pas d'IA.

Les données pouvant être utilisées pour l'apprentissage automatique peuvent être créées de presque n'importe quel moyen et dans n'importe quel contexte. Cela comprend, par exemple, les données de recensement, les données météorologiques et les registres de santé. À titre d’exemple, le parc de véhicules de Tesla a accumulé plus de 1,2 milliard de kilomètres de données de conduite. En 2011 seulement, les drones de la US Air Force ont accumulé environ 37 ans de données vidéo. La génération de données annuelle mondiale devrait atteindre 44 zettaoctets (44 trillions de gigaoctets) d'ici 2020. Et les courtiers en données sont devenus des courtiers en pouvoir parallèle; ces entreprises collectent et combinent des données provenant de différentes sources, puis les vendent à des fins lucratives, ce qui crée d'importants problèmes de confidentialité.

3. matériel: Compte tenu de la croissance rapide de la complexité des modèles d'intelligence artificielle, l'unité centrale de traitement standard – le matériel d'un ordinateur exécutant les instructions du logiciel – s'est révélée insuffisamment puissante. Cela conduit à un intérêt croissant pour le développement de GPU, qui sont un circuit électronique plus spécialisé qui devient rapidement le pilier de l'IA.[10] Les sociétés de cloud (telles que Google, Microsoft, Tencent et d’autres, principalement américaines et chinoises) investissent dans ce type de matériel. Cela leur permet de facturer des prix considérablement plus élevés pour l'utilisation de leurs unités de traitement spécifiques à l'application. Par exemple, Google facture 6,5 dollars de l'heure pour son unité de traitement du tenseur, tandis que Nvidia peut facturer 1,6 dollar pour son processeur graphique. Le processeur standard ne coûte que 0,06 USD par heure. On prévoit que la valeur du marché du matériel lié à l'IA (informatique, mémoire, stockage) atteindra plus de 100 milliards de dollars d'ici 2025, principalement aux États-Unis et en Chine.[11]

Comment les deux principaux marchés de l'IA – les États-Unis et la Chine – se comparent-ils sur ces trois éléments? Et comment fait l'Europe?

Les États Unis

En ce qui concerne les talents, les plus grandes institutions de recherche américaines aux États-Unis forment un nombre important de spécialistes de l’IA, y compris des étrangers qui restent souvent dans le pays pour créer une entreprise. Le rapport Element AI visant à identifier des chercheurs en intelligence artificielle dans le monde a révélé que près de la moitié d’entre eux vivaient et travaillaient aux États-Unis. Les sociétés américaines GAFA (Google, Amazon, Facebook et Apple) et les petites entreprises de la Silicon Valley attirent avec succès des talents du monde entier. L’industrie s’engage également dans les acquisitions susmentionnées, telles que l’achat par Google de la société britannique DeepMind (société derrière AlphaGo). Dans le même temps, la pénurie de talents continue de s’aggraver: le magazine américain «2017» de LinkedIn Emerging Jobs Report »indique que les employeurs ont surtout besoin d’ingénieurs en apprentissage automatique, suivis des experts en informatique.

En ce qui concerne les données, le grand nombre d’utilisateurs des sociétés GAFA signifie qu’elles ont rassemblé d’énormes bases de données qu’elles peuvent utiliser pour développer leurs applications d’IA. Cela est facilité par les règles relativement laxistes relatives à la collecte de données aux États-Unis, qui facilitent la tâche des entreprises pour la collecte et le traitement des données.

Les États-Unis sont également en tête dans les domaines de l’infrastructure, des logiciels et du matériel. Trois sociétés américaines dominent le marché mondial des puces: Intel, AMD et Nvidia.[12] En 2015, le gouvernement américain a interdit à Intel de vendre des processeurs haut de gamme à la Chine. Le secteur privé joue également un rôle d'investissement extrêmement important: en Amérique du Nord, en 2016, il a investi entre 15 et 23 milliards de dollars en IA. C'est plus de dix fois le montant dépensé par le gouvernement américain pour des programmes d'IA non classifiés la même année.

Chine

Même s’il n’est pas aussi attrayant pour les talents mondiaux que les États-Unis, le système éducatif chinois génère de solides compétences en mathématiques, et le pays a une tradition de recherche sur les langues et la traduction. Goldman Sachs estime que: «le talent du plus haut calibre a été et continuera à stimuler le caractère innovant du secteur en Chine».[13] Alors que les sociétés chinoises BAT (Baidu, Alibaba et Tencent) sous-dépensent légèrement Google et Microsoft en recherche et développement (R & D), elles emploient un pourcentage plus élevé d’employés en R & D.[14]

Les internautes chinois sont plus nombreux que ceux de tout autre pays. Et la plupart d'entre eux accèdent à Internet à l'aide de smartphones, qui sont plus utiles que les ordinateurs personnels pour générer des données utiles pour l'IA.[15] En 2016, lors du festival du shopping à la journée des célibataires, Alibaba a enregistré 175 000 transactions par seconde.[16] En outre, les règles de confidentialité et de collecte des données en Chine sont laxistes et les utilisateurs chinois ne sont généralement pas aussi préoccupés par la confidentialité des données que les habitants de nombreux pays occidentaux. En conséquence, The Economist a qualifié la Chine de «Arabie saoudite des données».[17] Les start-ups chinoises ont également progressé plus rapidement que leurs homologues occidentales, ce qui signifie que la Chine compte déjà un troupeau de "licornes" d'IA – des start-ups d'une valeur supérieure à 1 milliard de dollars. La Chine utilise l'IA dans les logiciels de reconnaissance faciale et d'autres technologies liées à la sécurité. Grâce à la coopération internationale (comme celle avec le Zimbabwe ou le Venezuela), il acquiert davantage de données de reconnaissance faciale non chinois – tout en exportant de plus en plus ses systèmes de surveillance vers des régimes autoritaires.

Les États autoritaires ont des avantages par rapport aux pays démocratiques en ce qui concerne les données. Les protections relativement faibles de la Chine en matière de confidentialité des données donnent aux agrégateurs de données une plus grande liberté dans ce qu’ils peuvent faire avec ce qu’ils collectent. Et le gouvernement peut accéder aux données personnelles pour des raisons de sécurité publique ou nationale sans les mêmes contraintes juridiques qu'une démocratie. En outre, les États autoritaires ont d'autres moyens de faire en sorte que les entreprises respectent leurs règles. En Chine, comme le note le politologue, Gregory Allen, «pratiquement toutes les grandes entreprises technologiques chinoises coopèrent étroitement avec les services militaires et de sécurité de la Chine et sont légalement tenues de le faire. L'article 7 de la loi sur les services de renseignement en Chine confère au gouvernement le pouvoir légal de contraindre une telle assistance, bien que le gouvernement dispose également de puissants outils non coercitifs pour encourager la coopération. »Les sociétés américaines, en revanche, sont beaucoup moins nationales -« Google, Facebook, Amazon, Apple et Microsoft se considèrent comme des entreprises mondiales bien plus qu’américaines », note l’analyste Kara Frederick.[18]

Sur le plan du matériel, il semble que la Chine ait davantage lutté. Malgré les efforts déployés depuis le début des années 2000 pour développer ses propres processeurs PC (deux décennies plus tard que les États-Unis), la Chine reste dépendante de fournisseurs étrangers pour les puces. Le pays se porte mieux dans la recherche sur les superordinateurs: Sunway TaihuLight, un supercalculateur chinois, a décroché la première place du classement TOP500 des superordinateurs en juin 2017, le deuxième étant également chinois.

L'Europe 

Les capacités européennes en matière d’IA ont reçu beaucoup de mauvaise presse, Kai-Fu Lee affirmant que l’Europe «n’est même pas en lice pour la médaille de bronze en IA». Les vues d'ensemble de l'état de l'intelligence artificielle ne présentent souvent même pas l'Europe comme acteur. (C’est pourquoi les efforts visant à cartographier le paysage européen de l’apprentissage automatique, tel que le projet Juno .AI, méritent des éloges.)

En effet, l’Europe a du mal à retenir le talent en matière d’IA qu’elle éduque, notamment des chercheurs qui partent aux États-Unis. Un problème est que les entreprises européennes ne paient pas des salaires concurrentiels, un fait reconnu par Cédric Villani, mathématicien français et membre du parlement. Dans le cadre de la stratégie d'Amnesty International que le gouvernement français lui avait confiée, Villani recommande de «majorer considérablement les salaires» et de réduire considérablement les formalités administratives dans les instituts de recherche et les universités. La stratégie vise à tripler le nombre de personnes formées à l'IA en France au cours des trois prochaines années. Dans le même temps, la stratégie allemande en matière d’IA prévoit la création de 100 nouveaux postes de professeur liés à l’IA. Et, constatant les difficultés rencontrées par l’Europe pour retenir les talents en intelligence artificielle, un groupe de chercheurs européens en intelligence artificielle a fondé fin 2018 ELLIS, le laboratoire européen pour l’apprentissage et les systèmes intelligents. Il s'agit d'un organisme professionnel qui vise à fidéliser les talents en créant un réseau de centres de recherche, un programme de doctorat paneuropéen et des liens étroits avec l'industrie. Cela dit, l'indice d'Intelligence Artificielle 2018 indique que 28% de tous les articles de recherche sur l'IA dans la base de données de résumés et de citations Scopus proviennent d'Europe, la plus grande proportion de toutes les régions. Cela indique de bons niveaux d’éducation et de recherche, bien que ceux-ci ne se traduisent pas toujours par un succès commercial.

Un autre défi pour l'Europe est celui auquel la Chine et les États-Unis ne sont pas confrontés dans la même mesure: la collecte de données. La taille relativement petite des pays européens et leurs règles strictes en matière de sécurité des données signifient que, par rapport à leurs collègues des autres pays, les chercheurs et les développeurs européens de l’IA ont un accès relativement limité aux pools de données. Comme Angela Merkel l'a fait remarquer: «Aux États-Unis, le contrôle des données personnelles est en grande partie privatisé. En Chine, l'inverse est vrai: l'État a pris le contrôle. »Elle a ajouté que c'est entre ces deux pôles que l'Europe devra trouver sa place.[19] Alors que la Chine et les États-Unis tirent parti de vastes marchés intérieurs homogènes, l'Europe est en difficulté en raison de la fragmentation de son marché. L'UE a travaillé dur pour créer le marché unique numérique, mais la collecte de données n'a pas été unifiée dans la mesure du possible dans chaque pays. Parmi les 66 sociétés clés d'IA figurant dans une liste récente, seules neuf étaient européennes.[20]

En termes de matériel, l'Europe reste dépendante des fabricants de puces américains. Il existe cependant des domaines dans lesquels les entreprises européennes font preuve de force, comme dans le traitement du langage naturel, où près de la moitié des 12 entreprises clés sont européennes.[21] The Economist a observé que: "L'Allemagne a autant de brevets internationaux pour les véhicules autonomes que l'Amérique et la Chine combinées".[22] Avec DeepMind basé à Londres, l’Europe possède un champion mondial de l’IA, bien que celui-ci ait été acquis par Google en 2014.

AI en Europe: questions clés

L’Europe est donc à la traîne des autres acteurs mondiaux en raison des lacunes dans les trois éléments clés de l’IA. Les dépendances existantes, telles que les sociétés de puces, risquent de créer d'autres dépendances, telles que les applications d'IA étrangères. Ceci, à son tour, crée des opportunités d'abus – comme le montrent, par exemple, les opérations d'applications chinoises dont la sécurité des données est discutable en Europe. Au-delà des problèmes évoqués plus haut, le développement du secteur de l’IA en Europe souffre également d’un état d’esprit politiquement défensif et de facteurs économiques tels que le manque de capital-risque.

Il est également important de noter que les populations européennes ont tendance à considérer l'IA, au même titre que les avancées technologiques, non pas comme une opportunité, mais comme une menace: enquête après enquête a révélé des niveaux plus élevés de scepticisme, voire de rejet total, d'Amnesty International en Europe par rapport aux États-Unis. et plus encore, la Chine. Une étude sur le sujet conclut que: «Les répondants asiatiques étaient les plus optimistes quant aux effets positifs de l’IA dans l’avenir, alors que les Européens étaient les moins optimistes… La proportion de consommateurs préférant le docteur en robotique est la plus élevée en Asie, ce qui n’est pas surprenant vu leur parution. d’adopter plus volontiers les technologies de l’IA (en particulier par rapport à l’Europe) ".

Une autre enquête révèle que, du point de vue de la confiance, la Chine occupe la première place sur dix pays (les neuf autres sont: le Royaume-Uni, l'Espagne, les États-Unis, l'Australie, la France, l'Allemagne, l'Italie, la Russie et le Japon). Les principales conclusions de cette étude sont les suivantes: «73% des Chinois [believe that] l'impact futur de la technologie numérique sera globalement positif, ainsi que sur sa capacité à créer des emplois et à relever les défis de société. »Bien que les enquêtes multi-pays capturent rarement les nuances culturelles et doivent être utilisées avec prudence, les résultats indiquent néanmoins de manière générale scepticisme en Europe et l’impact de scandales tels que celui qui a entouré Cambridge Analytica. La couverture de ces scandales pourrait signifier que les Européens sont plus conscients des risques et de la possibilité d’abus de technologie que les habitants d’autres pays.

Ce manque de confiance et le sentiment des opportunités offertes par la technologie peuvent expliquer pourquoi la plupart des États européens abordent l'IA de manière défensive. Les approches allemandes et italiennes officielles de l'IA, par exemple, sont nettement motivées par la crainte de perdre des opportunités économiques. L’Allemagne, en particulier, semble être principalement motivée par l’objectif de préserver sa position économique favorable, telle qu’elle est exprimée dans sa stratégie nationale en matière d’IA.

L'absence de financement adéquat (capital-risque) constitue un autre obstacle au développement de l'IA en Europe. Une banque note que: «L’UE est prospère, dotée des technologies de pointe et d’une main-d’œuvre bien éduquée. Mais s’agissant de la disponibilité de capital-risque et d’une culture entrepreneuriale (de risque), il existe encore un vaste fossé par rapport aux États-Unis ». [23] En 2016, les investissements en capital-risque dans l'UE s'élevaient à environ 6,5 milliards d'euros, contre 39,4 milliards d'euros pour les États-Unis.[24] Et, comme indiqué ci-dessus, le cadre réglementaire de l’UE et les politiques de libre marché interdisent aux gouvernements chinois de s’appuyer sur une approche semblable à celle adoptée pour protéger et nourrir son secteur technologique.[25]

Pour l'Europe, les risques associés au fait de rater le bateau avec l'IA sont potentiellement énormes. La valeur économique est de plus en plus créée par les entreprises de technologie, en particulier les sociétés d’IA. Sept des dix entreprises les plus importantes au monde en 2019 sont des entreprises de technologie, toutes américaines ou chinoises. En 2008, seules deux des plus grandes sociétés cotées au monde étaient des sociétés de technologie.

Couverture européenne

Il n'y a pas de solution miracle pour rendre l'Europe plus forte et plus indépendante en matière d'IA. Les cinq mesures suivantes peuvent toutefois aider l’Europe à améliorer sa position et à acquérir une plus grande souveraineté dans ce domaine.

1. Améliorer la collecte et le partage de données au niveau européen. Pour améliorer leur accès aux données, les États membres, qu'ils soient membres de l'UE ou non membres, devraient créer des bases de données européennes partagées, anonymisées et nettoyées, destinées à la recherche. Cela signifie accélérer les efforts pour achever un marché unique numérique. L'UE pourrait également consacrer le mouvement des données en tant que nouvelle liberté européenne: les efforts récents de la Commission européenne dans ce sens sont donc les bienvenus. L’Europe devrait inciter davantage les entreprises à partager leurs données (anonymisées). La stratégie française en matière d’IA va déjà dans la bonne direction en affirmant que «les pouvoirs publics doivent mettre en place de nouvelles méthodes de production, de partage et de gestion des données en faisant des données un bien commun». Il compte y parvenir en ouvrant les données recueillies dans le cadre de projets financés par le gouvernement et par des fonds publics, et en incitant les acteurs privés à rendre leurs données publiques et transparentes. Les décideurs politiques peuvent aller plus loin que même l'approche française en veillant à ce que les régulateurs travaillent avec des experts en technologie du secteur privé pour parvenir à une véritable anonymisation en laquelle les citoyens peuvent avoir confiance.

2. Augmenter les investissements et dépenser plus intelligemment. Alors que les dépenses de l’État ne peuvent être qu’un élément de la situation globale des investissements, les gouvernements européens devraient soutenir les jeunes entreprises innovantes et augmenter le financement de la recherche sur l’IA. L'Europe a consacré 4 milliards de dollars à la recherche sur l'IA en 2016, mais la Chine a dépensé 7 milliards de dollars. Les deux chiffres sont dépassés de 23 milliards de dollars par rapport à l'Amérique du Nord. L'industrie européenne de l'IA a clairement exprimé son inquiétude quant à la tendance à rester à la traîne par rapport à ses concurrents internationaux: plus de 2 000 experts de CLAIRE (la Confédération des laboratoires de recherche sur l'intelligence artificielle en Europe) ont récemment appelé à un financement à grande échelle de l'UE afin de contrer le rapide le progrès. Fait encourageant, la Commission européenne, en partenariat avec le Fonds européen d'investissement, a mis en place un programme paneuropéen de fonds de fonds en capital-risque. Cela alloue 410 millions d'euros aux fonds à investir sur le marché européen du capital-risque. Il devrait mobiliser 2,1 milliards d’euros supplémentaires d’investissements publics et privés.

Cependant, ce n'est pas seulement la taille des fonds qui compte, mais également la manière dont l'argent est dépensé. Par exemple, entre 1958 et 2018, la DARPA (l'Agence américaine de recherche sur les projets de recherche avancée de la défense) a consacré 60 milliards de dollars à la recherche – parfois délibérément délirante – qui a abouti à des inventions telles qu'Internet et le GPS. À titre de comparaison, le programme européen Horizon 2020 s’élevait à 85 milliards de dollars entre 2014 et 2020, soit 25 milliards de plus sur une période dix fois plus courte.[26] Les projets qui visent explicitement à financer des «projets à la lueur», tels que le JEDI (Initiative européenne commune de désorientation) franco-allemand, constituent donc un pas dans la bonne direction. Compte tenu de son inconvénient en matière de données, l'Europe devrait investir dans un autre type d'IA. Il existe des sous-domaines prometteurs de l'IA, tels que l'apprentissage par renforcement, qui nécessite au départ moins de données.

3. Régulation. Les atouts de l’Europe en tant que «superpuissance réglementaire» pourraient l’aider à améliorer sa position en matière d’IA. L’UE étant le plus grand marché unique au monde, la plupart des multinationales dépendent de l’accès à la région, ce qui implique de se conformer aux normes de l’UE. L'UE a utilisé cette puissance à diverses reprises au cours des années dans le domaine économique, notamment en bloquant la fusion de General Electric et de Honeywell et en obligeant Microsoft à dégrouper son navigateur Explorer.

Si l'Europe veut être compétitive dans ce domaine, elle devrait faire de la réglementation le quatrième élément clé de l'IA, aux côtés des talents, des données et du matériel. Dans le domaine numérique, elle a déjà une longueur d'avance: «L'Europe semble être en tête en ce qui concerne l'établissement de normes pour la réglementation et la protection de la vie privée à l'ère numérique», commente Deutsche Bank, citant le règlement général sur la protection des données comme preuve cette force.[27] Emmanuel Macron s'est également exprimé sur ce front en déclarant: "Mon objectif est de recréer une souveraineté européenne sur l'IA… en particulier en matière de réglementation." "S'attaquer aux États-Unis et à la Chine sera difficile", note The Economist, tout en recommandant ce cours. : “L’Europe a l’opportunité de développer une alternative plus décentralisée, dans laquelle les données sont échangées ou partagées entre entreprises”. Le journal propose un accord sur les droits d'accès aux données, en le comparant à l'établissement de droits de propriété dans le domaine numérique. Il suggère également des étapes pour codifier les types de données qui devraient être rendues ouvertes, sur la base de leur valeur sociale.

L’Europe pourrait se diversifier dans le domaine de l’intelligence artificielle en établissant, par exemple, des règles qui couvrent la gouvernance, y compris en matière d’éthique. Plusieurs acteurs ont déjà adopté cette approche: la stratégie de la Commission européenne en matière d’IA vise spécifiquement à créer un cadre éthique et juridique pour l’IA «fondé sur les valeurs de l’UE». Le «groupe d'experts de haut niveau sur l'intelligence artificielle» mis en place par la Commission européenne a publié ses «lignes directrices sur l'éthique pour les IA de confiance» en avril 2019. Dans le même esprit, le gouvernement allemand considère les «exigences éthiques et légales» comme faisant partie intégrante, et future «marque de fabrique» de AI made in Germany. Outre la mise en place de telles règles, l’Europe devrait viser à les faire respecter, par exemple en créant un «sceau» pour l’IA éthique, ce que les entreprises pourraient gagner en démontrant les bonnes pratiques. L’Europe pourrait également envisager d’intégrer des règles éthiques en matière d’IA dans les futurs accords commerciaux, ce qui obligerait les entreprises étrangères à se conformer aux exigences européennes.

It is in this context that the EU could help citizens regain trust both in new technology – by making it safer to use – and in the EU as a political actor that has the best interests of its citizens in mind. Europe should, therefore, not compromise on its principles and see them as disadvantages, but rather aim to turn them into virtues. Europeans’ focus on data privacy, as Kai-Fu Lee notes, “will cause the American giants some amount of trouble and may give local European entrepreneurs the chance to build something that is more consumer and individual-centric … That would go further than American companies would ever contemplate in protecting privacy.” In this respect, Europe should also look for other likeminded partners among its liberal democratic allies, such as Canada or Australia, to further increase the area in which such rules are applied and thereby increase their impact.

4. Adopt AI in the military realm (within limits). AI provides critical input into military power. Some European countries appear uncomfortable with this – Germany’s AI strategy features just a single sentence on the military applications of AI, for example. Yet ignoring the impact that AI can have on warfare is not a viable long- or even short-term approach. Indeed, there may even be opportunities for European countries that they have not yet acknowledged: the new competitive landscape could, in fact, benefit middle powers, as they will have greater capacity to compete than they did in the creation of the complex – and expensive – military platforms used today, such as precision-guided missiles and nuclear-powered submarines. Political scientist Michael Horowitz argues: “As long as the standard for air warfare is a fifth-generation fighter jet, and as long as aircraft carriers remain critical to projecting naval power, there will be a relatively small number of countries able to manufacture cutting-edge weapons platforms. But with AI, the barriers to entry are lower, meaning that middle powers could leverage algorithms to enhance their training, planning, and, eventually, their weapons systems. That means AI could offer more countries the ability to compete in more arenas alongside the heavy hitters.” Horowitz even goes as far as to say that it is “possible, though unlikely, that AI will propel emerging powers and smaller countries to the forefront of defense innovation while leaving old superpowers behind”. He issues a warning against complacency to the US in particular.

European states can take advantage of this by adopting AI in their military systems – which does not mean that Europe should accept or employ lethal autonomous weapons, as many European states have adopted clear positions against the development and use of such weapons. Beyond lethal autonomous systems, whose possible development and use have become a hotly debated issue and given rise to public protests (for good reason), there are many AI applications in the military realm that are attractive for armed forces, as they can help to lower costs, reduce need for human operatives, and improve planning and foresight. Intelligence analysis is one of the first examples of AI use in military contexts – a fact that became known to the wider public in June 2018, when, following protests from its employees, Google ended ‘Project Maven’, a joint initiative with the US Department of Defense that aimed to use AI to analyse data collected by drones. Given the greater concern about military applications of technology among Europeans, it is likely that Europe will face even more pushback from firms and researchers on working with the military. In addition, Europe is under pressure because of its ageing population and financial limitations, so it may want to invest in AI for military maintenance and logistics.

5. Education of the population and policymakers. In a world potentially dominated by AI, it is important to adequately train the general population in AI. An educated and informed population may also be more resistant to handing over too much of its data to US (or Chinese) firms and insist on better privacy laws, thereby strengthening Europe’s regulatory power. Europe may want to take Finland as an example: the Finnish AI strategy aims to train 1 percent of the population in AI. Equally, Europe should aim to train policymakers and diplomats in AI, as AI-related provisions are likely to be part of trade agreements and other negotiations in the future.

Conclusion

AI is set to influence Europe and the world in many ways. It is crucial that European states and the EU take steps to benefit from AI, while mitigating some of the negative effects on their citizens and their own power.

AI could also provide a chance for the EU to showcase one of its most important strengths: that of the power to set standards, to cooperate, and to benefit from a single market. For Europe to become truly sovereign in AI, it will need to strengthen its access to talent, data, and hardware – the three key elements of successful AI. Europe also needs to add a fourth key element: regulation. Indeed, it is in this element that Europe has a chance to go beyond mere sovereignty to become a norm-setter, embedding its ethics and values into AI governance and development, and serving as an example to fight back against AI nationalism. In doing so, it will need to take significant steps itself, such as rapidly educating its own citizens and policymakers, as well as substantially increasing investment in AI and carefully choosing which subfields of AI to fund. This could involve some tough conversations with European voters, especially on navigating the tricky ethical waters of AI’s military applications. But if Europe does not address these difficult questions – and soon – it is liable to find itself surrounded by more powerful rivals that have set the ground rules for AI, leaving it unable to compete or to provide citizens with the protection that they expect and deserve.

[1] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016, p.3.

[2] Nick Bostrom, “Superintelligence”, 2014, Oxford University Press.

[3] GS Equity Research: Profiles in Innovation Revisited: AI hardware. 11 March 2018, p.7.

[4] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016, p.7.

[5] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016, p.4. Emphasis added.

[6] Kai-Fu Lee, “AI Superpowers: China, Silicon Valley, and the New World Order,” Houghton, Mifflin Harcourt, 2018, p.98.

[7] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016.

[8] GS Equity Research: China’s Rise in Artificial Intelligence”, 31 August 2017.

[9] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016, p.11.

[10] In addition to more specialised silicon such as FPGAs Field Programmable Gate Array, and ASICS Application Specific Integrated Circuit. GS Equity Research: Profiles in Innovation Revisited: AI hardware. 11 March 2018, p.4/7.

[11] GS Equity Research: Profiles in Innovation Revisited: AI hardware. 11 March 2018, p.3.

[12] GS Equity Research: Profiles in Innovation Revisited: AI hardware. 11 March 2018.

[13] GS Equity Research: China’s Rise in Artificial Intelligence”, 31 August 2017.

[14] GS Equity Research: China’s Rise in Artificial Intelligence”, 31 August 2017. P.7.

[15] The Economist, “China may match or beat American in AI”, 15 July 2017.

[16] GS Equity Research: China’s Rise in Artificial Intelligence”, 31 August 2017.

[17] The Economist, “China may match or beat American in AI”, 15 July 2017.

[18] At WIIS DE conference, 15 November 2018.

[19] The Economist, “Can the EU become another AI superpower”, 20 September 2018.

[20] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016, p.38.

[21] GS Research Unit, “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, 14 November 2016, p.38.

[22] The Economist, “Can the EU become another AI superpower”, 20 September 2018.

[23] Deutsche Bank, Digital economics. How AI and robotics are changing our work and our lives, 14 May 2018.

[24] Charlotte Stix, “A survey of the European Union’s Artificial Intelligence ecosystem”, March 2019, p. 19.

[25] Deutsche Bank, Digital economics. How AI and robotics are changing our work and our lives, 14 May 2018.

[26] Remarks by a JEDI representative at ECFR’s Flexible Union workshop in January 2019.

[27] Deutsche Bank, “Digital economics. How AI and robotics are changing our work and our lives”, 14 May 2018.

Share this publication

×