Les pionniers de l’IA alertent sur les dangers potentiels liés au développement d’une superintelligence

0
iT-News (Les pionniers de l’IA) – Geoffrey Hinton, Yoshua Bengio, Stuart Russell… Les pères de l’IA appellent aujourd’hui à freiner net. Une machine dépassant l’humain en tout serait, selon eux, un danger existentiel. Pourtant, l’argent afflue et les data centers se multiplient.
Et si les plus grands inventeurs de l’IA d’aujourd’hui se mettaient à crier : « Arrêtez tout, on va trop loin » ? C’est précisément ce qui se passe. Plus de 700 scientifiques, entrepreneurs, politiques et personnalités ont signé un appel lancé par le Future of Life Institute : il faut interdire le développement d’une superintelligence artificielle c’est-à-dire une IA capable de dépasser l’humain dans presque toutes les tâches intellectuelles, et ceux, tant qu’il n’existe aucun consensus scientifique sur sa sécurité, ni vrai soutien du grand public.
« La superintelligence artificielle doit être interdite, mondialement et pour toujours »

Geoffrey Hinton, Prix Nobel de physique 2024 et ancien chef de file de l’IA chez Google, Yoshua Bengio, Stuart Russell (l’auteur du manuel de référence en IA) ou encore Steve Wozniak, cofondateur d’Apple, sont parmi les signataires. « Construire une telle chose est inacceptable », tranche Max Tegmark, président du Future of Life Institute, dans un entretien à l’AFP. Le risque selon eux ? Une perte de contrôle, une déresponsabilisation humaine, des menaces pour la sécurité nationale… et, dans le pire des scénarios, l’extinction de l’espèce humaine.

Sauf que… la course ne s’arrête pas

Pendant que ces voix s’élèvent, Sam Altman, patron d’OpenAI, répète que la superintelligence pourrait arriver d’ici à cinq ans. Microsoft, Google, Meta, Anthropic : tous les géants continuent d’investir des dizaines de milliards de dollars dans des projets titanesques. D’immenses centres de données sortent de terre aux États-Unis, en Chine et en Europe. Le projet Stargate (OpenAI + Nvidia + SoftBank) promet déjà l’équivalent de sept réacteurs nucléaires d’ici à 2030. En Chine, le plan Dong Shu Xi Suan vise 50 gigawatts de puissance de calcul dans les prochaines années. Personne ne semble prêt à lâcher la pédale.

Des alarmes qui sonnent dans le vide ?

Le décalage est saisissant. D’un côté, les pionniers qui ont créé les réseaux de neurones profonds disent : « Stop, on ne sait pas ce qu’on fabrique. » De l’autre, les entreprises qui ont transformé leurs découvertes en empires disent : « Plus vite, plus fort, plus gros. »

Max Tegmark lui-même reconnaît dans l’entretien qu’on peut être pour des outils d’IA qui sauvent des vies ou luttent contre le réchauffement climatique, mais contre la superintelligence. La frontière entre les deux est devenue floue. Et personne ne semble capable de la tracer.

La liste des signataires est éclectique : Richard Branson, le prince Harry et Meghan Markle, le chanteur will.i.am, l’acteur Joseph Gordon-Levitt, l’ancienne présidente irlandaise Mary Robinson, le conseiller du pape sur l’éthique de l’IA… Le message dépasse les cercles tech. Mais dans les salles de marché et les conseils d’administration, il reste presque inaudible.