Tout ce que nous aimons de la civilisation est un produit de l’intelligence, donc amplifier notre intelligence humaine avec l’intelligence artificielle est une initiative qui pourra indéniablement aider la civilisation à se développer comme jamais auparavant – tant que nous parvenons à maintenir l’aspect bénéfique de la technologie.
Qu’est-ce-que l’IA ?
De SIRI aux voitures autonomes, l’intelligence artificielle (IA) évolue rapidement. Alors que la science-fiction représente souvent l’IA comme des robots ayant des caractéristiques humaines, l’IA peut concerner tout ce qui est algorithmes, recherche sur Google, au Watson d’IBM en passant par les armes autonomes.
L’intelligence artificielle aujourd’hui est convenablement connue comme IA limitée (ou IA faible), en ce sens qu’elle est conçue pour effectuer une tâche limitée (par exemple seulement une reconnaissance faciale ou seulement des recherches sur Internet ou conduire une voiture). Cependant, l’objectif de nombreux chercheurs est de créer une IA générale (IAG ou IA forte) à long terme. Alors que l’IA limitée peut surpasser les humains quelle que soit sa tâche spécifique, comme jouer aux échecs ou résoudre des équations, l’IAG surpasserait les humains à presque toutes les tâches cognitives, sans exception.
Pourquoi rechercher la sécurité IA?
À terme, l’objectif du maintient d’impact d’IA sur la société motive la recherche dans de nombreux domaines de l’économie et du droit aux sujets techniques tels que la vérification, la validité, le contrôle et la sécurité. Alors qu’il ne s’agit peut-être que d’une nuisance mineure si votre ordinateur portable tombe en panne ou est piraté, il devient d’autant plus important qu’un système d’IA fasse ce que vous voulez que ce soit le contrôle de votre voiture, votre avion, votre appareil régulateur, votre système de vente automatisé ou votre réseau électrique. Un autre défi à court terme consiste à empêcher une course à l’armement dévastateur faisant usage d’armes autonomes mortelles.
À long terme, une question importante est de savoir ce qui se passera si la quête d’une intelligence artificielle forte réussit et qu’un système d’IA devient meilleur dans toutes les tâches cognitives de l’homme, sachant que la conception de systèmes intelligents d’IA est elle-même une tâche cognitive. Un tel système pourrait potentiellement subir une auto-amélioration récursive, provoquant une explosion d’intelligence laissant l’intellect humain loin derrière. En inventant de nouvelles technologies révolutionnaires, une telle super intelligence pourrait nous aider à éliminer la guerre, la maladie et la pauvreté, et ainsi la création d’une IA forte pourrait être le plus grand événement de l’histoire de l’humanité. Certains experts ont cependant exprimé leur inquiétude sur le fait que cela pourrait aussi être le dernier act d’intelligence humaine, à moins que nous apprenions à aligner les objectifs de l’IA sur les nôtres avant qu’ils ne deviennent supers intelligents.
Il y en a qui se demandent si une IA forte sera jamais atteinte, et d’autres qui insistent sur le fait que la création de l’intelligence artificielle super intelligente est garantie. Il y a ces deux possibilités, mais également le potentiel d’un système d’intelligence artificielle de causer intentionnellement ou involontairement de grands dommages. La recherche d’aujourd’hui aidera l’humanité à mieux préparer et prévenir de telles conséquences potentiellement négatives et néfastes à l’avenir, profitant ainsi des avantages de l’IA tout en évitant les dangers potentiels.
La chronologie en question
Le premier mythe en ce qui concerne la chronologie : combien de temps cela prendra-t-il jusqu’à ce que les machines remplacent largement l’intelligence humaine ? L’idée fausse et commune est que nous connaissons la réponse avec une grande certitude. Un mythe populaire est que nous savons que les machines deviendrons surhumaines ce siècle même. En fait, l’histoire est pleine d’exagération concernant la technologie. Ou sont ces centrales électriques a fusion et ces voitures volantes qu’on nous avait promis d’avoir il y a un temps de cela ? L’intelligence artificielle a également était exagérée a plusieurs reprises dans le passé par des fondateurs de ce domaine, prenant l’exemple de John McCarthy (celui qui a dérivé le terme intelligence artificielle), Marvin Minsky, Nathaniel Rochester et Claude Shannon.
D’un autre côté, un mythe populaire nous apprend que nous nous aurons pas une IA surhumaine ce siècle-là. Les chercheurs ont fait un large éventail d’estimations pour savoir jusqu’ou nous sommes loin de l’intelligence artificielle surhumaine, mais nous ne pouvons pas dire avec une grande confiance et certitude que la probabilité de ceci est zéro pour ce siècle, compte tenu du lugubre bilan de telles prédictions techno-sceptiques dans le passé. En effet, Earnest Rutherford, le plus grand physicien nucléaire de son temps, a dit en 1993, 24 heures avant la découverte de la chaine nucléaire par Szilard-que l’énergie nucléaire était une baliverne, et en 1956 l’astronome Royal Richard Woolly a déclaré que le voyage interplanétaire est une absurdité totale. La forme la plus extrême de ce mythe est que l’IA surhumaine ne se réalisera jamais par ce que c’est physiquement Impossible. Cependant, les physiciens savent qu’un cerveau se compose de quarks et d’électrons disposés pour agir comme un ordinateur puissant, et qu’il n y a aucune loi de la physique qui nous empêche de construire des blobs encore plus intelligents et plus puissants.
Il y a eu un certain nombre d’enquêtes demandant aux chercheurs en intelligence artificielle combien d’années à partir de maintenant ils pensent que nous aurons une intelligence artificielle au niveau humain avec au moins 50 pour cent de probabilité. Toutes les enquêtes ont eu la même conclusion : que les principaux experts du monde ne sont pas d’accords, donc nous ne savons tout simplement pas.
Il y a aussi un mythe apparenté selon lequel les gens qui s’inquiètent de l’intelligence artificielle pensent que celle-ci n’est que quelques années loin. En fait, la plupart des gens qui s’inquiètent de l’intelligence artificielle surhumaine supposent qu’elle est encore au moins une décennie loin. Par contre ils soutiennent que tant que nous ne sommes pas 100% sûr, cela n’arrivera pas ce siècle, mais il est intelligent de commencer la recherche sur la sécurité maintenant pour se préparer à l’éventualité. Beaucoup des problèmes de sécurité associés à l’intelligence artificielle au niveau humain sont si difficiles qu’ils peuvent prendre des décennies à résoudre. Il est donc prudent de commencer à faire des recherches maintenant plutôt que la nuit avant.
Mythes sur les risques de l’Intelligence artificielle surhumaine
Plusieurs chercheurs en Intelligence artificielle roulent des yeux quand ils voient ce titre : « Stephen Hawking signale que la montée en puissance des robots peut être désastreuse pour l’humanité». Et comme beaucoup ont perdu le compte des articles similaires qu’ils ont vu ou lu. Typiquement, ces articles sont accompagnés d’un robot à l’allure diabolique et portant une arme, et ils suggèrent que nous devrions nous inquiéter de l’éventualité que les robots se soulèvent et nous tuent car ils sont devenus conscients et/ou maléfiques. Sur une note plus légère, ce genre d’articles est en fait plutôt impressionnant, car il résume succinctement le scénario dont les chercheurs en IA ne s’inquiètent pas. Ce scénario réunit 3 idées fausses séparées : l’inquiétude au sujet de la conscience, du Mal et des Robots.
En roulant sur la route, vous avez une perception subjective des couleurs, sons, etc. Mais est-ce qu’une voiture sans chauffeur a une perception subjective ? Même si ce mystère de conscience est intéressant en soi, il est sans rapport avec le risque de l’Intelligence artificielle. Si vous êtes heurté par une voiture sans chauffeur, cela ne fait pas de différence pour vous si elle se considère comme étant consciente. De la même façon, ce qui aura un effet sur nous les humains est ce que fait l’IA super intelligente, non pas ce qu’elle ressent subjectivement.
La peur que les machines ne deviennent maléfiques est une autre idée fausse. Le souci réel n’est pas la malveillance, mais la compétence. Une IA super intelligente est par définition très bonne à atteindre les objectifs quels qu’ils peuvent être, nous devons donc nous assurer que ses objectifs sont en adéquation avec les nôtres. Les êtres humains ne détestent pas les fourmis en général, mais nous sommes plus intelligents qu’elles – si nous voulons donc construire un barrage hydroélectrique, et qu’il y ait une fourmilière là-bas, dommage pour les fourmis. Le mouvement IA bénéfique veut éviter de placer l’humanité dans la position de ces fourmis.
L’idée fausse de conscience est liée au mythe selon lequel les machines ne peuvent pas avoir d’objectifs. Les machines peuvent certainement avoir des objectifs dans le sens où leur activité est axée sur des objectifs. L’activité d’un missile à guidage thermique est économiquement expliquée comme étant une activité dont le but est d’atteindre la cible. Si vous vous sentez menacé par une machine dont les objectifs ne sont pas alignés sur les vôtres, ce sont donc ses objectifs dans ce sens strict qui vous inquiètent, non pas le fait que la machine soit consciente ou déterminée. Si ce missile à guidage thermique vous poursuivait, vous ne vous exclameriez pas « je ne suis pas inquiet, car ces machines ne peuvent avoir des objectifs!»
Je sympathise avec Rodney Brooks et d’autres pionniers de la robotique qui se sentent injustement diabolisés par des journaux alarmistes, parce que quelques journalistes semblent obstinément obnubilés par les robots et ornent plusieurs de leurs articles de monstres en métal et à l’air diabolique aux yeux rouges et brillants. En fait, la principale préoccupation du mouvement de l’IA bénéfique n’est pas les robots mais l’intelligence elle-même : spécialement l’intelligence dont les objectifs ne sont pas alignés sur les nôtres. Pour nous causer des problèmes, pareille intelligence super humaine mal alignée n’a pas besoin de robots, elle a seulement besoin d’une connexion internet – cela peut permettre de surpasser les marchés financiers, de faire plus d’inventions que les chercheurs, de dépasser les dirigeants politiques dans la manipulation, et développer des armes que nous ne pouvons même pas comprendre. Même si construire des robots était physiquement impossible, une IA super intelligente et super riche peut facilement payer ou manipuler des êtres humains pour executer involontairement leurs volontés.
Un dernier mot
L’idée fausse au sujet du robot est liée au mythe selon lequel les machines ne peuvent pas contrôler les êtres humains. L’intelligence permet le contrôle : les humains contrôlent les tigres non pas parce qu’il est plus fort qu’eux, mais parce que nous sommes plus intelligents. Cela veut dire que si nous cédions notre place comme étant les êtres les plus intelligents de la planète, il est possible que nous cédions aussi le contrôle.
Article19.ma