X

Intelligence artificielle, enjeux géopolitiques réels

Comme l’a montré une étude récente du Pôle Léonard de Vinci sur la vision et l’usage des Intelligences artificielles (IA) génératives par les étudiants, les étudiants sont déjà convaincus de l’intérêt et de l’impact – positif –  de l’IA pour leur activité académique comme pour leurs futurs métiers : ils en sont déjà des utilisateurs actifs et curieux.

Enseignants comme étudiants ont en revanche devant eux un nouvel horizon de recherche et d’apprentissage encore émergeant pour mieux comprendre et anticiper les conséquences actuelles et futures des développements en matière d’IA sur l’économie, la société, l’environnement ou les relations internationales.

En témoigne par exemple l’irruption de l’IA comme un enjeu géopolitique pluriel et complexe, auquel des programmes comme ceux du Bachelor Affaires et relations internationales de l’EMLV devront former et sensibiliser.

Un article de Bastien Nivet, Docteur en science politique (UE, international).

Télécharger l’étude 

De quoi l’IA est-elle le nom ?

L’IA n’est pas une technologie, mais davantage une série d’évolutions technologiques encore en cours. Il est difficile, voire inutile, de s’en faire une opinion (être pour, être contre l’IA est-ce vraiment possible), même si elle invite à se positionner (qu’en faire ? Comment ? Pourquoi ?).

Elle n’est pas un enjeu purement technologique, mais aussi économique, sociologique, éthique, politique et… géopolitique. Son évocation au singulier – « l’IA » – montre son caractère concret et palpable, son évocation au pluriel – « les IA »  – illustre au contraire sa diversité et sa multiplicité.

Comme l’indique la chercheuse Asma Mallha dans une note de l’Institut Montaigne sur les enjeux politiques et géopolitiques de l’IA, «  l’IA n’est pas un horizon, elle est une réalité matérielle, opérationnelle, déjà omniprésente dans nos existences (…). La révolution de l’IA n’est pas une perspective, elle a déjà eu lieu, progressivement, par à-coups, de sauts technologiques en surprises ».

Quels sont ces sauts technologiques en question ? Selon la Commission nationale de l’informatique et des libertés,  « Tout système mettant en œuvre des mécanismes proches de celui d’un raisonnement humain pourrait ainsi être qualifié d’intelligence artificielle ».

Dans l’accomplissement de ces mécanismes de reproduction des comportements humains tels que le raisonnement, l’apprentissage, le calcul, la planification, la création, l’IA peut parfois dépasser les capacités humaines, comme lorsque des machines parviennent à battre des champions d’échec ou de Go.

Le développement de ces capacités, la possibilité d’une autonomisation des machines et systèmes vis-à-vis des humains, génère autant d’opportunités que de risques et de craintes à l’échelle internationale.

Une géopolitique de l’IA entre innovation, souveraineté et compétition

L’acte de Législation sur l’Intelligence artificielle approuvé le 13 mars 2024 par le Parlement européen illustre cette dimension géopolitique duale de l’IA : tout en reconnaissant les apports possibles de l’IA dans les sociétés et économies des États membres et pour le marché européen, ce règlement européen insiste sur la mise en place de mesures de précaution, de transparence et de protection afin que les usages de l’IA soient le plus sûrs, non-discriminatoires, transparents et traçables possible.

Comme l’illustre le cas français, l’IA soulève un dilemme pour le législateur au niveau européen comme national : faciliter l’innovation et les libertés de manœuvre des acteurs économiques, voire les soutenir par des investissements et un cadre juridique et fiscal favorable, peut être nécessaire pour ne pas prendre du retard dans la compétition mondiale de l’économie de la connaissance.

Réguler ces technologies et leurs usages est aussi nécessaire pour protéger les citoyens, les consommateurs, certaines activités critiques et la souveraineté nationale, des mésusages possibles de l’IA.

Comme sur d’autres enjeux géopolitiques et dimensions de la mondialisation, l’enjeu est donc de trouver le juste équilibre entre innovation et protection, entre libre-échange et souveraineté, entre coopération et compétition.

Related Post

Dans ce contexte, les Etats-Unis et la Chine semblent, comme sur d’autres critères, émerger comme des leaders et rivaux en matière d’IA, non seulement sur le plan industriel et scientifique, mais aussi dans la façon d’appréhender l’IA elle-même et ses usages.

De leur côté, les Européens ont d’abord réagi avec prudence et en ordre dispersé face aux avancées de l’IA, avant d’entamer les démarches normatives et juridiques susmentionnées.

Enfin, les acteurs multilatéraux comme l’ONU, le G7, les BRICS tâtonnent dans ce qui pourrait devenir une future gouvernance de l’IA. Une véritable géopolitique de l’IA émerge donc, avec ses rapports de force et lignes de clivage économiques et idéologiques.

L’IA au service de la guerre

Au-delà de ces enjeux, l’attention se porte aussi désormais plus directement sur l’impact de l’IA sur la conduite de la guerre et des opérations militaires.

Qu’il s’agisse de traiter des images et données provenant de satellites, de drones ou disponibles en open source (photos et informations disponibles sur les réseaux sociaux par exemple), l’IA aide déjà des armées comme les armées américaine, chinoise ou française à optimiser leur recueil et traitement d’information.

Dans le contexte notamment de conflits récents et en cours comme en Ukraine et au Proche- Orient, des acteurs internationaux tel le Comité international de la croix rouge se sont alertés du fait que si l’IA pouvait aider à la décision et à l’efficacité des opérations (identification des cibles, sélection et analyse par l’image d’objectifs militaires, etc.), son usage présentait aussi des risques, au motif notamment « qu’une dépendance excessive vis-à-vis des résultats produits par une intelligence artificielle fait naitre des préoccupations quant à la protection des populations civiles et au respect du droit international humanitaire ».

Des instances internationales comme l’organisation des Nations-Unies, ont aussi exprimé les « vives inquiétudes que soulève également, sur les plans humanitaire, juridique, sécuritaire, technologique et éthique, l’utilisation de nouvelles applications technologiques dans le domaine militaire, y compris celles liées à l’intelligence artificielle et à l’autonomie des systèmes d’armes » (Résolution 78-241).

L’enjeu est de taille : mettre en place un ordre juridique et une gouvernance pour encadrer l’usage de ces nouvelles technologies dans les conflits armés, afin d’éviter des drames humains et des violations du droit de la guerre et des atteintes aux droits humains et humanitaires.

À cette fin, un Groupe d’experts gouvernementaux sur les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes a été créé, et les initiatives et contributions se multiplient aussi en provenance des États, d’acteurs du monde scientifique et universitaire, de la société civile et de professionnels du secteur.

Mais, comme souvent, dans la course entre le développement et l’usage d’innovations d’une part, et la mise en place de garde-fous pour les encadrer d’autre part, la seconde dimension est plus lente et laborieuse que la première.

Au final, l’IA crée comme toute innovation des opportunités multiples : c’est une nouvelle étape de la société de la connaissance, avec des possibilités accrues de recueil, génération, exploitation et traitement de données et savoirs.

Ses développements rappellent aussi la place de la connaissance et des technologies dans la géopolitique mondiale, et notamment les rivalités de puissance, conflits et besoins de gouvernance qui la caractérisent.

Pour en savoir plus sur Bachelor Affaires et relations internationales de l’EMLV

Categories: L'école
Related Post