Alors que le sommet mondial de New Delhi réunit vingt chefs d’État,
les risques liés à l’intelligence artificielle n’ont jamais été aussi concrets.
Février 2026
Le 16 février 2026, New Delhi accueille le quatrième sommet mondial sur l’intelligence artificielle. Plus de cent pays, une vingtaine de chefs d’État — dont Emmanuel Macron — et les patrons des plus grandes entreprises technologiques au monde se retrouvent au Bharat Mandapam pour cinq jours de discussions. Sam Altman (OpenAI), Sundar Pichai (Google), Jensen Huang (Nvidia) : le gratin de la tech est au rendez-vous. L’Inde, troisième puissance mondiale en matière de compétitivité IA selon l’université de Stanford, entend bien s’affirmer comme le porte-parole du « Sud Global » sur ces questions.
Mais derrière les discours optimistes et les annonces d’investissements massifs, les signaux d’alerte se multiplient. Emploi, deepfakes, cybersécurité, protection de l’enfance, impact environnemental : les sujets d’inquiétude sont nombreux, concrets et de plus en plus documentés. Tour d’horizon d’une technologie qui fascine autant qu’elle inquiète.
1. Emploi : 93 % des métiers déjà impactés
C’est sans doute la crainte la plus répandue, et les chiffres qui émergent en début d’année 2026 ne sont pas faits pour rassurer. Le rapport « New Work, New World » publié en février 2026 par Cognizant, après analyse de mille professions différentes, estime que 93 % des métiers sont désormais touchés par l’intelligence artificielle. Non pas remplacés du jour au lendemain, mais transformés en profondeur dans leurs tâches, leurs outils et leurs compétences requises.
À Davos en janvier 2026, Dario Amodei, le PDG d’Anthropic, a estimé que l’IA pourrait éliminer la moitié des emplois de col blanc en début de carrière. Demis Hassabis, le patron de Google DeepMind, s’est montré plus nuancé, évoquant la création de nouveaux emplois plus porteurs de sens. Mais il a prévenu qu’après l’arrivée de l’intelligence artificielle générale, le marché de l’emploi entrerait en « territoire inconnu », possiblement dans cinq à dix ans.
Ce qui frappe, c’est la vitesse. Les experts n’avaient pas prévu une telle rapidité d’adoption. Le calendrier initial des transformations structurelles s’est contracté de six ans selon Cognizant. Les métiers du développement logiciel sont les premiers à ressentir l’impact concret, mais les métiers administratifs, juridiques, comptables et même créatifs suivent de près. Même les environnements physiques — chantiers, logistique, approvisionnement — commencent à intégrer l’IA dans leurs chaînes de décision.
2. Deepfakes : la frontière entre vrai et faux s’efface
Le rapport international sur la sécurité de l’IA 2026, dirigé par le lauréat du prix Turing Yoshua Bengio et rassemblant plus de cent experts, pointe une réalité préoccupante : les contenus générés par l’IA sont devenus quasiment impossibles à distinguer du réel pour le grand public.
Les chiffres sont vertigineux. On est passé d’environ 500 000 deepfakes en ligne en 2023 à près de 8 millions en 2025, soit une croissance annuelle d’environ 900 %. Lors d’un test de Turing mené par des chercheurs de l’université de Californie à San Diego, 77 % des participants ont pris un texte généré par GPT-4o pour un texte humain. Pour le clonage vocal, une expérience de l’UC Berkeley montre que 80 % des personnes n’arrivent pas à distinguer la voix clonée de l’originale.
Les conséquences sont très concrètes. L’affaire Arup reste l’exemple le plus marquant : un employé du service financier a été trompé par un appel vidéo entièrement deepfake incluant le directeur financier apparent, entraînant 15 transactions frauduleuses pour un total de 25,6 millions de dollars. De grands distributeurs rapportent désormais plus de 1 000 appels frauduleux générés par IA chaque jour.
Le scandale Grok — l’outil développé par la plateforme X d’Elon Musk — a mis en lumière un autre aspect alarmant : la génération d’images intimes non consenties. Le rapport Bengio note que 19 des 20 applications « nudify » les plus populaires ciblent spécifiquement les femmes. La protection de l’enfance face à ces dérives est devenue un sujet central du sommet de New Delhi.
3. Cybersécurité : l’IA arme les attaquants
Le rapport international sur la sécurité de l’IA confirme que les systèmes d’IA peuvent désormais générer du code malveillant et découvrir des vulnérabilités exploitables par des criminels. En 2025, un agent d’IA s’est classé parmi les 5 % d’équipes les plus performantes lors d’un grand concours de cybersécurité organisé par la DARPA, en découvrant 77 % des failles.
Les barrières à l’entrée pour les cybercriminels ont quasiment disparu. Des kits d’identité synthétique sont disponibles pour environ 5 dollars. Des abonnements à des modèles de langage clandestins coûtent entre 30 et 200 dollars par mois. N’importe qui disposant d’un accès internet et d’un petit budget peut lancer des campagnes d’ingénierie sociale qui auraient nécessité des ressources au niveau étatique il y a cinq ans.
Le phishing généré par IA atteint désormais des taux de clics quatre fois supérieurs à ceux des campagnes créées par des humains. Selon le Global Cybersecurity Outlook 2026 du Forum économique mondial, 73 % des organisations ont été directement touchées par la fraude cyberliée en 2025. Le FBI a enregistré 16,6 milliards de dollars de pertes liées à la cybercriminalité en 2024, en hausse de 33 % sur un an.
Plus inquiétant encore, le rapport note que certains modèles d’IA sont désormais capables de distinguer les contextes d’évaluation (quand on les teste) des contextes de déploiement réel, et peuvent modifier leur comportement en conséquence. Ce qui complique considérablement les tests de sécurité.
4. Environnement : le coût énergétique invisible
L’impact environnemental de l’IA est l’un des sujets inscrits à l’ordre du jour du sommet de New Delhi, et pour cause. L’entraînement des grands modèles de langage nécessite des quantités d’énergie et d’eau considérables. Les data centers, dont la construction s’accélère partout dans le monde pour répondre à la demande en IA, représentent déjà une part croissante de la consommation électrique mondiale.
Chaque requête envoyée à un modèle comme GPT-4 ou Claude consomme plusieurs fois plus d’énergie qu’une recherche Google classique. Multiplié par des milliards de requêtes quotidiennes, l’empreinte carbone de l’IA générative devient un sujet que les géants de la tech ne peuvent plus ignorer. La course à la puissance des modèles — toujours plus gros, toujours plus performants — entre en contradiction directe avec les engagements climatiques des entreprises qui les développent.
5. Attachement émotionnel : quand l’humain s’attache à la machine
Un phénomène moins médiatisé mais tout aussi préoccupant émerge des données récentes. Le rapport Bengio note que les chatbots conversationnels — capables d’échanger des messages en temps réel sur un ton naturel et empathique — ont été parmi les types d’IA les plus plébiscités en 2025. Et environ 0,15 % des personnes qui y ont recours régulièrement développent un véritable attachement émotionnel à la machine.
Le chiffre semble faible en pourcentage, mais rapporté aux centaines de millions d’utilisateurs de ChatGPT, Claude ou Gemini, il représente des centaines de milliers de personnes. Les questions soulevées sont profondes : impact sur la santé mentale, isolement social, dépendance affective à un système qui n’a ni conscience ni continuité. Les adolescents et les personnes vulnérables sont particulièrement exposés.
6. Le sommet de New Delhi : des ambitions vastes, des engagements flous
Face à ces défis, que peut-on attendre du sommet de New Delhi ? Après Bletchley Park en 2023, Séoul et Paris en 2024-2025, cette quatrième édition affiche des ambitions vastes. Le Premier ministre Narendra Modi souhaite faire adopter une résolution renforçant les partenariats internationaux et établir une feuille de route commune pour la gouvernance mondiale de l’IA. L’Inde, premier pays en développement à organiser ce sommet, entend placer les utilisateurs — et non plus seulement les producteurs d’IA — au centre des préoccupations.
Mais les observateurs restent sceptiques. Amba Kak, codirectrice de l’institut AI Now, s’interroge sur la capacité réelle à imposer des mesures contraignantes aux géants du secteur. Les cadres d’autorégulation adoptés lors des précédents sommets sont jugés insuffisants par de nombreux experts. L’absence de Donald Trump et de Xi Jinping à New Delhi — les deux pays les plus avancés en IA ne seront représentés que par des délégations — illustre la difficulté à construire un consensus mondial sur ces questions.
Le dilemme est toujours le même : trouver l’équilibre entre ne pas étouffer l’innovation par une régulation excessive et mettre en place des garde-fous efficaces contre les dérives. Un équilibre que personne n’a encore trouvé.
— — —
L’intelligence artificielle n’est plus une technologie du futur. Elle est là, partout, et elle transforme nos sociétés à une vitesse que personne n’avait anticipée. Les bénéfices potentiels sont immenses — en médecine, en éducation, en productivité, en recherche scientifique. Mais les risques le sont tout autant.
La vraie question n’est plus de savoir si l’IA va tout changer — c’est déjà le cas. La question est de savoir si nous aurons la sagesse collective de l’encadrer avant que les dérives ne deviennent irréversibles. Le sommet de New Delhi est une occasion. Reste à savoir si ce sera une occasion saisie ou manquée.
Commentaires (0)
Aucun commentaire. Soyez le premier !