Par Ali Bouzerda
— Ce n’est pas de la paranoïa. C’est la réalité qui bascule.
« Le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. » — Stephen Hawking
« Le danger n’est plus théorique, il est immédiat et exponentiel. » — Geoffrey Hinton
Ils s’appellent Stephen Hawking, Geoffrey Hinton ou Stuart Russell. Depuis des années, ces sommités britanniques alertent sur un scénario que l’on croyait réservé à la science-fiction : le basculement de l’humanité sous la domination d’une intelligence artificielle devenue incontrôlable.
Hawking fut l’un des premiers à lancer l’alerte : « Le développement d’une IA complète pourrait mettre fin à l’humanité. » Son compatriote Geoffrey Hinton, surnommé le “parrain du deep learning”, a quitté Google en 2023 pour alerter : « Il est tout à fait plausible que l’IA échappe à notre contrôle. »
Aujourd’hui, leurs craintes théoriques trouvent un écho glaçant dans la réalité des champs de bataille. L’IA n’est plus une menace lointaine : elle est déjà là, omniprésente dans la guerre russo-ukrainienne, dans l’agression israélienne contre Gaza, et plus récemment dans la guerre Israël-Iran.
Selon de nombreux experts militaires, la guerre Israël-Iran déclenchée le 13 juin 2025 restera dans l’histoire comme : la première guerre inter-étatique pleinement technologique, où l’IA a été centrale dans toutes les phases : détection, interception, ciblage, brouillage, guerre électronique, cyberattaques et frappes synchronisées.
En Israël, des systèmes dopés à l’IA ont intercepté en temps réel plus de 300 drones et missiles balistiques. Des algorithmes ont décidé, sans délai, quelles menaces abattre en priorité pour éviter la saturation du Dôme de Fer et de ses équivalents.
Côté iranien, des essaims de drones semi-autonomes ont parcouru 1600 kilomètres pour chercher des cibles sans assistance humaine continue, utilisant l’IA pour ajuster leur trajectoire et contourner les défenses.
Les cyber-opérations, elles aussi dopées par l’IA, ont désactivé, le temps de quelques heures, des systèmes critiques de défense aérienne, en exploitant des failles à une vitesse inaccessible aux humains.
La guerre à Gaza a, elle aussi, révélé l’usage massif d’outils d’IA, notamment le système israélien “The Gospel”, qui identifie en quelques secondes des cibles humaines sur la base de mégadonnées collectées sans contrôle judiciaire.
Résultat : une logique industrielle de la mort, où les algorithmes décident qui vit et qui meurt.
Sommes-nous encore maîtres de notre destin ?
La question n’est plus : “Peut-on confier des décisions de vie et de mort à des algorithmes ?” Mais : “Comment arrêter cette mécanique infernale qui s’emballe ?”
Si l’IA contrôle aujourd’hui des drones, des radars, des systèmes de brouillage, combien de temps avant qu’elle contrôle aussi le déclenchement d’une guerre nucléaire par accident d’interprétation ou par bug algorithmique ?
Et demain, dans les métropoles saturées par la criminalité, qui empêchera une IA sécuritaire de décider seule de neutraliser un “suspect” avant qu’un policier n’ait eu le temps de poser la main sur son arme ?
Si l’humanité ne met pas de frein, l’IA pourrait demain décider, en toute autonomie, d’abattre un individu détecté comme “dangereux” sur la base d’un pattern statistique, sans vérification humaine.
Et si l’IA militaire interprétait une simulation ou un brouillage comme une attaque réelle ? Qui garantirait que la guerre totale ne soit pas déclenchée… par erreur ?
Sam Altman, PDG d’OpenAI, résume cyniquement la situation : « Cette technologie mènera probablement à la fin du monde… mais en attendant, il faut qu’on en tire profit. »
Peut-on accepter que le futur de l’intelligence humaine — et de la vie tout court — soit laissé aux mains d’une poignée d’entrepreneurs de la Silicon Valley, soutenus par les géants de la tech et des États aveuglés par la quête de puissance ?
Le monde avance les yeux grands ouverts vers un précipice algorithmique. Les avertissements de Hawking, Hinton, Russell ne sont plus des hypothèses scientifiques : ils sont devenus des bulletins météorologiques d’une tempête planétaire imminente.
Il est encore temps d’agir. Mais pour combien de temps ?
L’IA n’est pas seulement un outil. Elle devient un pouvoir. Un pouvoir qui, s’il échappe au contrôle des sociétés humaines, ne fera pas de distinction entre amis et ennemis, entre civils et militaires, entre erreur de calcul et jugement définitif.
Sans gouvernance mondiale, sans frein éthique, sans garde-fous techniques, l’humanité court à sa perte. Le choix est simple : ou bien nous contrôlons l’IA, ou bien l’IA nous contrôlera — jusqu’à l’effacement final.
Mutatis Mutandis – En février 2025, lors d’un hackathon à Londres organisé par ElevenLabs et Andreessen Horowitz, des ingénieurs ont mis au point Gibberlink — un protocole acoustique permettant à deux IA de détecter qu’elles communiquent entre elles et de passer d’une conversation en anglais à un langage de type “beeps & boops” incompréhensible. Ce langage n’étant pas conçu pour être compris par les humains, il suscite depuis des inquiétudes autour du contrôle et de la traçabilité des échanges IA.
Article19.ma