Intelligence artificielle : vers la mise au point d’une architecture neuronale plus efficace

0

iT-News (Intelligence artificielle) – Des chercheurs ont créé une nouvelle architecture pour l’intelligence artificielle générative, bien moins gourmande en puissance de calcul que celle utilisée actuellement. Le secret ? Imbriquer des réseaux neuronaux les uns dans les autres.

Interview : comment est née l’intelligence artificielle ? L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique…

Les intelligences artificielles génératives, telles que Dall-E et Sora d’OpenAI, ou encore Gemini de  ou Claude d’Anthropic, sont très gourmandes en puissance de calcul, et donc en  avait prédit il y a quelques mois qu’il ne restait qu’un an avant que le monde ne connaisse une pénurie d’électricité.

Pour tenter de résoudre ce problème, un groupe de chercheurs de plusieurs universités de Californie (Stanford, San Diego et Berkeley), ainsi que de Meta, proposent une nouvelle architecture baptisée Test-Time Training (TTT), qui utilise des réseaux neuronaux récurrents (RNN). Les IA génératives actuelles s’appuient sur une architecture appelée Transformer, dont un des principaux défauts est la complexité quadratique, autrement dit la puissance de calcul nécessaire est proportionnelle au carré de la quantité de données en entrée.