iT-News (Contact avec des civilisations extraterrestres) – Certains imaginent que l’intelligence artificielle pourra nous aider à mettre enfin la main sur une civilisation extraterrestre qui se cacherait quelque part dans notre Univers. Mais un chercheur anglais nous met aujourd’hui en garde. Cette intelligence artificielle pourrait, au contraire, être celle qui fait que nous ne trouvions aucune trace d’une vie technologique ailleurs que sur notre Terre.
Depuis quelques années maintenant, on parle beaucoup d’intelligence artificielle (IA). De tout ce qu’elle peut nous apporter. Dans la vie de tous les jours. Mais aussi au-delà. Il est même question désormais d’une superintelligence artificielle (ASI) qui ne serait plus limitée par nos capacités humaines.
Face à cet enthousiasme qui ne semble pas vouloir non plus avoir de limites, un chercheur de l’université de Manchester (Royaume-Uni) s’interroge. Et la question qu’il pose dans la revue Acta Astronautica a de quoi surprendre : l’intelligence artificielle pourrait-elle constituer un seuil si difficile à franchir qu’il empêche la plupart des êtres vivants dans notre Univers d’évoluer vers des civilisations spatiales ?
-
Le saviez-vous ?
- Des experts du monde de l’intelligence artificielle appellent aujourd’hui à un moratoire sur le développement de l’IA, jusqu’à ce qu’une forme responsable de contrôle et de réglementation puisse être introduite.
Si oui, cela expliquerait d’un seul coup pourquoi aucun programme de recherche d’intelligence extraterrestre n’a encore abouti. Pourquoi, dans un Univers suffisamment vaste et ancien pour abriter des milliards de planètes potentiellement habitables, nous n’avons détecté aucun signe de civilisation extraterrestre.
Intelligence artificielle ou exploration de l’espace, il faut choisir
L’idée défendue par Michaël Garrett, c’est que l’émergence d’une superintelligence artificielle coïncide, dans l’histoire d’une civilisation, avec une phase critique de son développement. Avec sa transition d’une espèce monoplanétaire à une espèce multiplanétaire. Or dans l’esprit, une ASI possède le potentiel d’améliorer ses capacités propres à une vitesse qui dépasse nos propres délais d’évolution sans IA. Résultat, la probabilité que quelque chose tourne mal devient énorme. Avec le risque d’entraîner la chute de la civilisation biologique avant qu’elle arrive à devenir multiplanétaire.
Le chercheur estime ainsi que la longévité typique d’une civilisation technologique pourrait être inférieure à 100 ans. Un rien à l’échelle du temps cosmique qui s’écoule sur des milliards d’années. Nous-mêmes, d’ailleurs, avons commencé à être en mesure d’envoyer des signaux vers les étoiles dans les années 1960 et l’émergence d’une superintelligence artificielle est envisagée d’ici 2040.
Il pourrait donc finalement n’exister, à un moment donné, qu’une poignée de civilisations extraterrestres intelligentes dans notre Univers tout entier. Des civilisations peu ou prou au même stade d’avancement technologique que la nôtre. Avec des activités qui les rendraient infiniment difficiles à détecter depuis notre Terre.
Encadrer le développement de l’intelligence artificielle
Les travaux de Michaël Garrett sont aussi destinés à attirer notre attention sur les risques que nous courons à développer des intelligences artificielles… toujours plus intelligentes. Un appel à mettre en place des cadres réglementaires solides qui garantiraient que l’évolution de l’IA reste compatible avec la survie de notre espèce. Et peut-être, à consacrer plus de ressources à l’exploration spatiale qui nous aiderait à passer dans la catégorie potentiellement extrêmement fermée des espèces multiplanétaires.
Le chercheur s’inquiète notamment de l’intégration de l’IA dans les systèmes de défense militaire. Car les gouvernements, conscients des avantages stratégiques qu’offre l’intelligence artificielle en la matière, se montrent réticents à réglementer le domaine.
À Gaza, déjà, l’IA aurait servi à repérer des cibles humaines. Et pour Michaël Garrett, c’est le signe que « nous nous rapprochons déjà dangereusement d’un précipice où les armes autonomes opèrent au-delà des frontières éthiques et contournent le droit international. Dans un tel monde, céder le pouvoir aux systèmes d’IA afin d’obtenir un avantage tactique pourrait déclencher par inadvertance une chaîne d’événements hautement destructeurs qui s’intensifient rapidement ».