Des puces d’IA conçues par l’IA
TPU pod racks. © Google.
Dans un article publié dans la revue Nature, on apprend que Google utilise l’intelligence artificielle pour l’aider à concevoir sa prochaine génération de puces dédiées à l’apprentissage automatique (des puces TPU, tensor processing unit). En d’autres termes, c’est l’IA qui contribue à accélérer le développement de l’IA… Les algorithmes de Google portent sur l’étape de “floorplanning” qui est la recherche de la disposition optimale des sous-systèmes d’une puce. Un processus délicat, car le choix de l’emplacement de chaque composant sur une puce influe sur la vitesse et l’efficacité globale. Les designs de puces ainsi produits sont “comparables ou supérieurs” à ceux créés par les humains, affirment les ingénieurs de Google, et ils peuvent être générés de façon extrêmement rapide. Ce qui prend des mois à une équipe d’humains peut être achevé en moins de six heures. Un éditorial de Nature qualifie cette recherche de “résultat important” et note que ces travaux pourraient contribuer à compenser en partie la fin annoncée de la loi de Moore, qui veut que le nombre de transistors sur une puce double tous les deux ans, mais qui est en train d’atteindre des limites physiques avec l’extrême miniaturisation que l’on peut atteindre aujourd’hui.
⇨ The Verge, James Vincent, “Google is using AI to design its next generation of AI chips more quickly than humans can.”
2021-06-10