
Craignant que l’IA avancée échappe au contrôle humain et bouleverse l’économie mondiale, plus de 850 experts en appellent à l’arrêt du développement de cette technologie.
Un an et demi après avoir réclamé une pause sur les systèmes plus puissants que GPT-4, le Future of Life Institute revient à la charge. L’organisation publie un autre appel, signé par plus de 850 personnalités, pour interdire le développement d’une IA avancée. En cause : le risque que ces systèmes « compromettent le système d’exploitation de la civilisation humaine ».
Le texte, diffusé la semaine dernière, définit l’IA avancée ou superintelligence comme « surpassant significativement tous les humains dans l’ensemble des tâches cognitives » bien au-delà des chatbots et outils d’automatisation actuels. Ces systèmes pourraient, selon les signataires, prendre des décisions stratégiques, réécrire leur code et échapper au contrôle humain.
Une coalition large mais sans les fournisseurs d’IA
Parmi les signataires figurent les pionniers de l’IA Geoffrey Hinton et Yoshua Bengio, des lauréats du prix Nobel, Steve Wozniak (co-fondateur d’Apple) et Susan Rice, ancienne conseillère à la sécurité nationale de Barack Obama. L’historien Yuval Noah Harari, également signataire, estime que cette technologie « risquerait de briser le système d’exploitation même de la civilisation humaine », tout en plaidant pour des outils d’IA « contrôlables et utiles dès aujourd’hui ».
En revanche, les dirigeants des grandes entreprises du secteur comme OpenAI, Anthropic, Google, Meta et Microsoft n’ont pas rejoint cette initiative. Leurs travaux se poursuivent : Meta a créé un laboratoire dédié en juin après avoir investi 14,3 Md$ dans Scale AI (il a depuis supprimé 600 postes dans cette division) , tandis que Sam Altman, CEO d’OpenAI, a annoncé en janvier un recentrage de ses activités autour de cette thématique.
Pas une préoccupation immédiate pour les entreprises
Selon les analystes, l’IA avancée reste un risque théorique à long terme, loin d’être une préoccupation opérationnelle pour la planification IT. Elle « constitue un risque théorique à horizon lointain, non un enjeu opérationnel dans la fenêtre de planification 2025-2028 », explique Sanchit Vir Gogia, CEO de Greyhound Research. « Les DSI doivent distinguer l’ambition des fournisseurs de l’utilité réelle pour l’entreprise. » Pour lui, la priorité stratégique est de stabiliser et de déployer l’IA actuelle via la gouvernance des données, l’explicabilité des modèles et les pratiques de validation. L’appel met en garde contre des risques dépassant la simple transformation des emplois par l’IA : « Nous appelons à interdire le développement de l’IA avancée tant qu’il n’existe pas de consensus scientifique sur sa sécurité et son contrôle, et qu’un soutien public solide n’est pas établi », précise le texte.
L’enjeu central est le problème d’alignement, soit la capacité à faire en sorte que des systèmes plus intelligents que les humains poursuivent des objectifs compatibles avec les valeurs humaines. Les techniques actuelles suffisent pour l’IA contemporaine mais pourraient se révéler insuffisantes face à des systèmes surpassant l’intelligence humaine, selon des recherches d’IBM.
L’IA bouleverse déjà l’emploi et les investissements
Indépendamment de ces perspectives, l’IA actuelle continue de transformer les marchés du travail et l’économie mondiale. Selon un rapport d’Indeed, 26 % des offres d’emploi publiées en un an pourraient être affectées par l’IA générative, notamment dans les secteurs IT et financier. Goldman Sachs Research estime qu’en cas de généralisation des usages actuels de l’IA, 2,5 % des emplois américains pourraient être supprimés. Chez Salesforce, les équipes de support client ont été réduites de 9 000 à 5 000 postes grâce à l’automatisation.
Les investissements se maintiennent à un niveau élevé : Gartner prévoit 1,5 billion de dollars de dépenses mondiales en IA en 2025, puis plus de 2 billions en 2026. Le FMI anticipe pour sa part une hausse du PIB mondial de 0,5 % par an entre 2025 et 2030 liée à l’adoption de ces technologies.
Vers une redistribution du marché
Une interdiction du développement d’une IA avancée bouleverserait l’écosystème. « Un ralentissement réglementaire profiterait aux architectures spécialisées, contrôlables et vérifiables », souligne Sanchit Vir Gogia de Greyhound Research. Les entreprises privilégient déjà des modèles “suffisants mais traçables”, adaptés aux environnements réglementés. À l’inverse, une interdiction unilatérale pourrait accélérer la course chinoise : malgré les restrictions américaines, des acteurs comme DeepSeek ou Alibaba publient déjà des modèles open source compétitifs.
Si l’appel à l’interdiction échoue comme en 2023, les entreprises devront considérer la gouvernance de l’IA comme une responsabilité de haut niveau. « En l’absence de règles mondiales contraignantes, la responsabilité se décentralise au niveau de l’entreprise », avertit Sanchit Vir Gogia. « Les DSI doivent mettre en place des garde-fous basés sur l’éthique opérationnelle, la sécurité juridique et la confiance des parties prenantes. » Cela passe par la formalisation de conseils IA, l’intégration de protocoles de réponse aux incidents, et la signature de contrats fournisseurs incluant obligations spécifiques à l’IA, comme la transparence des jeux de données et le droit à l’audit.
