L’intelligence artificielle : derrière les promesses, quels risques pour l’humanité ?

Altruisme Efficace France
22/8/2023

L’accélération des avancées en intelligence artificielle (IA) provoque simultanément un gain d’intérêt massif et une intensification de l’inquiétude concernant le potentiel de cette technologie. Deux lettres [1] récemment signées par de nombreux·es expert·es du domaine, des dirigeant·es, des chercheur·ses académiques, et des acteur·ices politiques de tous horizons, appellent à des efforts considérables de régulation face aux risques posés par l’IA. Ces récentes avancées sont si spectaculaires que le débat s’est intégré aux discussions du grand public, touché très directement par ces outils de plus en plus puissants, permettant désormais de créer des contenus (textes, images, vidéos) si réalistes qu’ils sont indistinguables de ceux produits par des êtres humains.

Des dangers très actuels

L’usage d’algorithmes (recommandations de contenu, ciblage publicitaire, évaluation de risques de récidive) n’est ni neutre ni inoffensif par défaut. Les exemples de conséquences néfastes liées à ces derniers ne manquent pas et sont largement documentés. Les possibilités sont immenses. Mais les risques également [2] : désinformation, systématisation de biais et de discriminations, cybercriminalité, pertes massives d’emplois…

Par exemple, l’IA est déjà utilisée pour influencer massivement les humains : les algorithmes de recommandation des plateformes numériques désinforment et polarisent les utilisateur·ices, et du contenu extrêmement convaincant peut être généré avec GPT-4 pour déstabiliser des personnalités politiques. De même, l’infrastructure de la cybersécurité mondiale est sérieusement ébranlée par des attaques informatiques utilisant des IA avancées, inquiétant toute l’industrie et même la NSA (National Security Agency américaine). L’emploi de l’IA dans le secteur militaire alimente des systèmes stratégiques et des armes autonomes, soulevant d’importantes questions d’éthique et de sécurité. En témoignent les systèmes déjà commercialement disponibles développés par des entreprises comme Anduril et Palantir.

De nouveaux risques avec l’autonomie croissante des systèmes d’IA et leur non-alignement

Par ailleurs, une autre classe de scénarios, très négligée jusqu’à récemment, provient des risques d’accidents à grande échelle que présenteraient des systèmes d’IA autonomes. Ces risques inquiètent un nombre croissant d’expert·es du monde académique (parmi lesquels Geoffrey Hinton ou Yoshua Bengio) et de chefs d’entreprises ayant justement contribué à développer ces technologies (notamment Sam Altman et Elon Musk).

Capture d’écran d’un paragraphe : “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”
Diminuer les risques d’extinction liés à l’intelligence artificielle devrait être une priorité mondiale, comme pour d’autres risques de niveau sociétal comme les pandémies et la guerre nucléaire. — appel du Center for AI Safety.

En effet, décrire les objectifs de ces systèmes, auxquels on confie chaque semaine davantage de pouvoir, ne garantit en rien la bonne interprétation de ces objectifs, ni le caractère inoffensif des méthodes qui seront utilisées pour les atteindre. Les systèmes d’IA mal conçus pourraient ainsi prendre des décisions inattendues portant de graves préjudices à la société. De nombreux utilisateur·ices ont par exemple vu le robot Bing de Microsoft les insulter ou même les menacer.

Les grands modèles de langage (Large Language Models) pourraient générer des informations dangereuses, telles que les instructions, étape par étape, pour créer des agents pathogènes pouvant générer des pandémies. [3] [4]

À terme, l’humanité pourrait se retrouver face à des systèmes intelligents suffisamment avancés pour développer et atteindre leurs propres objectifs, incompréhensibles pour nous et mal alignés avec ceux de l’humanité (on parle alors du problème de l’alignement de l’IA).

Une problématique urgente qui nécessite un traitement politique et médiatique à sa mesure

Malgré les initiatives lancées par de nombreux pays pour encadrer le développement de l’IA selon des principes éthiques, les efforts se poursuivent pour accélérer les capacités technologiques nationales, encourageant ainsi une fuite en avant.

Tout comme le développement des armes nucléaires a nécessité une réflexion profonde, il est vital de reconnaître les risques encourus lors de la conception et du déploiement de ces technologies, et d’investir dans leur prévention. L’avenir de notre société dépend de notre capacité à naviguer prudemment dans ces eaux encore inconnues. [5]

À l’inverse de grands journaux à l’international [6] qui acceptent de prendre cette discussion au sérieux, la presse française s’est trop souvent cantonnée à une méfiance de principe envers certaines des personnes impliquées (notamment Elon Musk), ignorant l’inquiétude d’acteurs reconnus du domaine comme les pionniers de l’IA Geoffrey Hinton et Yoshua Bengio. En parallèle, les idées discutées ont — paradoxalement — été qualifiées de techno-optimisme, de prométhéisme, de pessimisme stratégique, et même de messianisme ! [7] [8] Au vu des enjeux considérables pour notre futur collectif, il est pourtant nécessaire d’aller plus loin et d’étudier attentivement les idées et arguments avancés par les expert·es qui tirent la sonnette d’alarme. Alors que le GIEC a rendu ses premiers rapports au tout début des années 1990, il a fallu des décennies avant que l’urgence du changement climatique ne soit reflétée fidèlement dans la sphère médiatique. Tâchons de réagir plus rapidement sur ce nouveau défi.

La position d’Altruisme Efficace France

L’altruisme efficace s’attache à identifier et à mettre en avant les causes les plus urgentes et les plus négligées. Si les avis au sein des expert·es divergent sur la probabilité ou les modalités de l’émergence d’intelligences artificielles dangereuses (date de création, rapidité de croissance, capacité à mentir et manipuler…), beaucoup estiment vraisemblable [9] que de telles technologies voient le jour d’ici quelques années. À l’instar des signataires de la note du Center for AI Safety, l’association Altruisme Efficace France considère que les risques de catastrophes liés aux nouvelles technologies et en particulier à l’émergence d’IA avancées constituent un des grands périls de notre civilisation, et méritent davantage d’attention et de moyens. Altruisme Efficace France soutient donc les initiatives visant un renforcement du cadre législatif et de la coopération internationale sur ces sujets, et la mise à disposition de financements adéquats pour soutenir la recherche sur la prévention des risques de non-alignement.

Notes de bas de page

[1] Voir les appels du Future of Life Institute et du Center for AI Safety
[2] https://www.safe.ai/ai-risk
[3] AI Safety Newsletter #10, Dan Hendrycks: https://newsletter.safe.ai/p/ai-safety-newsletter-10
[4] Dario Amodei (Anthropic CEO) — $10 Billion Models, OpenAI, Scaling, & AGI in 2 years, Youtube
[5] M. Phi — Are we doomed to apocalypse because of scientific progress ? | Bostrom’s Vulnerable World Hypothesis
[6] Voir par exemple No 10 acknowledges ‘existential’ risk of AI for first time (The Guardian) ou encore la couverture du Time Magazine du 31 mai
[7] Voir par exemple : Derrière l’intelligence artificielle, le retour d’utopies technologiques, Alexandre Piquard — Le Monde, 13 juin 2023
[8] Relevons par exemple dans AI and the threat of “human extinction”: What are the tech-bros worried about? It’s not you and me l’usage d’étiquettes comme “TESCREAL” et “tech-bros”. Notons au passage le recours singulièrement régulier aux témoignages d’Emil Torres, dont les propos devraient être compris en connaissance des relations conflictuelles qu’iel entretient avec plusieurs acteurs proches d’idées long-termistes.
[9] Voir par exemple When Will AI Exceed Human Performance? Evidence from AI Experts, (2018, Grace et al.) ou When will the first weakly general AI system be devised, tested, and publicly announced?

Notes et références
Retour à la liste des articles ↩