Tapez un mot pour ouvrir la recherche

Loading

Conception et fabrication d'un processeur IA économe en énergie pour le Edge computing

L'intelligence artificielle (A.I.) est une technologie émergente qui fait lentement son chemin dans la vie de tous les jours. Actuellement, A.I. se situe principalement dans l'espace du cloud computing où des milliers de circuits informatiques spécialisés sont utilisés dans un boîtier localisé pour calculer les tâches liées à l'IA aussi rapidement que possible et connectés sur Internet. À l'avenir, A.I. va être présent dans tous les petits appareils électroniques possibles. Ce qui pose un défi de taille dans la réduction de l'empreinte carbone de l'énergie consommée dans le calcul d'une quantité aussi énorme de A.I. tâches, que ce soit sur le cloud, l'Internet des objets (IoT) ou des calculs sur un périphérique informatique de pointe. Pour une estimation approximative de la puissance, chaque recherche Google que nous effectuons prend environ la puissance d'une lumière de 60 W allumée pendant 17 secondes [1] - [4]. Certaines estimations ont souligné qu'une seule recherche sur Google équivaut à émettre sept g de CO2 [1] - [4]. Multipliez maintenant le nombre de recherches sur Google que nous effectuons par jour et la population totale utilisant Internet sur Terre par jour par le nombre de jours dans une année. C'est juste une recherche basique. Essayez maintenant d'imaginer les autres opérations que nous tenons pour acquises sur Internet. Nous pouvons estimer la quantité d'énergie nécessaire pour répondre à ce besoin humain croissant et, plus pertinent par rapport à l'empreinte carbone générée. A.I. va être un autre élément important qui ajoutera à ce mécanisme massif de puissance. Aarish a innové une solution informatique matérielle dont l'approche est fondamentalement différente du reste du paradigme de traitement parallèle qui utilise généralement les solutions d'architecture de jeu d'instructions de stockage de charge disponibles. Nous permettant de fournir la densité de calcul / puissance la plus élevée de la planète pour les applications d'apprentissage automatique. L'approche d'Aarish pour optimiser A.I. le calcul a un processus à deux volets optimisant à la fois l'algorithme logiciel et le calcul matériel. Chaque petit appareil électronique mettant en œuvre A.I. peut éviter de communiquer avec le cloud et peut calculer localement de manière très économe en énergie. L'efficacité énergétique réduira le trafic Internet et la demande pour les serveurs cloud de calcul, ce qui entraînera une réduction massive de l'empreinte carbone que A.I. seul peut y contribuer. A partir d'une stratégie d'entrée sur le marché, nous considérerons deux applications spécifiques où nous déploierons notre solution AI-Processor. Il existe plusieurs applications où le processeur AI peut potentiellement donner d'excellents résultats, cependant, dans la phase initiale, nous considérerons ce qui suit. Pour la première application, nous considérerons les GPU utilisés dans les centres de données. Ces GPU exécutent de nombreuses applications d'inférence IA qui sont suffisamment grandes pour ne pas être déployées sur les appareils périphériques. Les GPU ont été conçus pour des moteurs de calcul lourds à usage général et consomment beaucoup d'énergie et sont très coûteux. Avec notre solution AI-Processor offrant une puissance 1000X pour un avantage de performances par rapport aux GPU et sans parler des avantages en termes de coûts, nous avons l'intention de transférer la charge GPU sur nos processeurs AI. Cela se traduira par une réduction totale de l'empreinte carbone et une réduction du coût des centres de données existants. Nos AI-Processors seront disponibles sur des cartes PCIe avec plusieurs CI AI-Processor sur une seule carte pour les centres de données à utiliser. En tant que deuxième application, nous envisagerons d'appliquer notre processeur AI aux périphériques périphériques. Cela permettra de décharger les tâches d'inférence IA des serveurs cloud vers notre processeur AI. À l'heure actuelle, de nombreux algorithmes d'IA destinés aux IoT et aux appareils de périphérie sont en cours de calcul sur le cloud. Il n'est pas seulement coûteux d'exploiter de tels systèmes, nécessite une connectivité Internet robuste en permanence, sujet à des problèmes de confidentialité car ils sont sujets aux attaques de pirates informatiques et, plus important encore, ces systèmes ont une très grande empreinte carbone qui n'est pas facilement visible pour la société humaine à grand. Nous montrons que nos estimations d'économies d'énergie peuvent entraîner des économies nettes de plus de 83 000 tonnes d'émissions équivalentes de CO2 et de plus de 133 millions de dollars en valeur totale sur une période de 10 ans.

Zeljko Zilic

Professeur
Université McGill

Contribution du CRIBIQ

135 381 $


Partenaires

Industriels participants :

Aarish Technologies

IRPQ :

Université McGill