Avis | Quel est le pire scénario d’IA ? Extinction humaine.

Avis |  Quel est le pire scénario d'IA ?  Extinction humaine.


(Illustration du Washington Post/Images par Getty Images/iStockphoto)

Commentaire

Émile P. Torres est philosophe et historien du risque catastrophique mondial.

Les gens sont mauvais pour prédire l’avenir. Où sont nos voitures volantes ? Pourquoi n’y a-t-il pas de robots majordomes ? Et pourquoi est-ce que je ne peux pas prendre de vacances sur Mars ?

Mais nous ne nous sommes pas seulement trompés sur des choses que nous pensions aurait se passer; l’humanité a également une longue histoire de nous assurer à tort que certaines réalités désormais incontournables ne serait pas. La veille de la conception par Leo Szilard de la réaction nucléaire en chaîne en 1933, le grand physicien Ernest Rutherford a proclamé que quiconque proposait l’énergie atomique “parlait de l’alcool de contrebande”. Même le pionnier de l’industrie informatique, Ken Olsen, en 1977, aurait déclaré qu’il ne prévoyait pas que les individus aient besoin d’un ordinateur chez eux.

De toute évidence, nous vivons dans un monde nucléaire, et vous avez probablement un ordinateur ou deux à portée de main en ce moment. En fait, ce sont ces ordinateurs – et les progrès exponentiels de l’informatique en général – qui font désormais l’objet de certaines des prévisions les plus importantes de la société. L’attente conventionnelle est que la puissance de calcul sans cesse croissante sera une aubaine pour l’humanité. Et si nous nous trompions encore ? La superintelligence artificielle pourrait-elle plutôt nous causer un grand tort ? Notre extinction ?

Comme l’histoire l’enseigne, ne dites jamais jamais.

Cela semble n’être qu’une question de temps avant que les ordinateurs ne deviennent plus intelligents que les humains. C’est une prédiction sur laquelle nous pouvons être assez confiants, car nous la voyons déjà. De nombreux systèmes ont atteint des capacités surhumaines pour des tâches particulières, telles que jouer au Scrabble, aux échecs et au poker, où les gens perdent désormais régulièrement contre le bot à tous les niveaux.

Mais les progrès de l’informatique conduiront à des systèmes de plus en plus général niveaux d’intelligence : algorithmes capables de résoudre des problèmes complexes dans de multiples domaines. Imaginez un algorithme unique qui pourrait battre un grand maître d’échecs mais aussi écrire un roman, composer une mélodie accrocheuse et conduire une voiture dans la circulation urbaine.

Selon une enquête menée en 2014 auprès d’experts, il y a 50 % de chances que « l’intelligence artificielle au niveau humain » soit atteinte d’ici 2050 et 90 % de chances d’ici 2075. Une autre étude du Global Catastrophic Risk Institute a trouvé au moins 72 projets dans le monde avec l’objectif explicite de créer une intelligence générale artificielle – le tremplin vers la superintelligence artificielle (ASI), qui non seulement fonctionnerait aussi bien que les humains dans tous les domaines d’intérêt, mais aussi loin dépasser nos meilleures capacités.

Le succès de l’un de ces projets serait l’événement le plus important de l’histoire de l’humanité. Soudain, notre espèce serait rejointe sur la planète par quelque chose plus intelligent que nous. Les avantages sont faciles à imaginer : un ASI pourrait aider à guérir des maladies telles que le cancer et la maladie d’Alzheimer, ou à assainir l’environnement.

Mais les arguments pour lesquels une ASI pourrait nous détruire sont également solides.

Aucune organisation de recherche ne concevrait sûrement un ASI malveillant de style Terminator déterminé à détruire l’humanité, n’est-ce pas? Malheureusement, ce n’est pas le souci. Si nous sommes tous anéantis par un ASI, ce sera presque certainement par accident.

Parce que les architectures cognitives des ASI peuvent être fondamentalement différentes des nôtres, elles sont peut-être les plus chose imprévisible dans notre avenir. Considérez ces IA qui battent déjà les humains dans les jeux : en 2018, un algorithme jouant au jeu Atari Q*bert a gagné en exploitant une faille “qu’aucun joueur humain… n’aurait jamais découvert”. Un autre programme est devenu un expert du cache-cache numérique grâce à une stratégie « que les chercheurs n’ont jamais vue… venir ».

Si nous ne pouvons pas anticiper ce que feront les algorithmes jouant aux jeux pour enfants, comment pouvons-nous être sûrs des actions d’une machine dotée de compétences en résolution de problèmes bien supérieures à celles de l’humanité ? Et si nous programmons un ASI pour établir la paix dans le monde et qu’il pirate les systèmes gouvernementaux pour lancer toutes les armes nucléaires sur la planète – en pensant que si aucun humain n’existe, il ne peut plus y avoir de guerre ? Oui, nous pourrions le programmer explicitement pour ne pas le faire ce. Mais qu’en est-il de son plan B ?

Vraiment, il y a un interminable nombre de façons dont une ASI pourrait « résoudre » des problèmes mondiaux qui ont des conséquences catastrophiques. Pour tout ensemble donné de restrictions sur le comportement de l’ASI, aussi exhaustif soit-il, des théoriciens intelligents utilisant leur intelligence simplement « au niveau humain » peuvent souvent trouver des façons de faire très mal les choses ; vous pouvez parier qu’un ASI pourrait penser à plus.

Et en ce qui concerne l’arrêt d’un ASI destructeur, un système suffisamment intelligent devrait rapidement reconnaître qu’un moyen de ne jamais atteindre les objectifs qui lui ont été assignés est de cesser d’exister. La logique veut qu’il essaie tout ce qu’il peut pour nous empêcher de le débrancher.

Il n’est pas clair que l’humanité sera un jour préparée à la superintelligence, mais nous ne sommes certainement pas prêts maintenant. Avec toute notre instabilité mondiale et notre compréhension encore naissante de la technologie, l’ajout d’ASI reviendrait à allumer une allumette à côté d’une usine de feux d’artifice. La recherche sur l’intelligence artificielle doit ralentir, voire s’arrêter. Et si les chercheurs ne prennent pas cette décision, les gouvernements devraient la prendre à leur place.

Certains de ces chercheurs ont explicitement rejeté les inquiétudes selon lesquelles l’intelligence artificielle avancée pourrait être dangereuse. Et ils ont peut-être raison. Il pourrait s’avérer que toute mise en garde n’est qu’un « clair de lune » et que l’ASI est totalement bénigne, voire totalement impossible. Après tout, je ne peux pas prédire l’avenir.

Le problème est : ils ne le peuvent pas non plus.

Leave a Comment