Qu'Est-Ce Que L'Informatique Accélérée?

le 01/09/2021 09:52

Qu'Est-Ce Que L'Informatique Accélérée?

L'informatique accélérée bourdonne en arrière-plan, rendant la vie meilleure même par une nuit tranquille à la maison. Il empêche la fraude par carte de crédit lorsque vous achetez un film à diffuser. Il recommande un dîner que vous pourriez aimer et organise une livraison rapide. Peut-être que cela a même aidé le réalisateur du film à remporter un Oscar pour des visuels époustouflants.

Alors, Qu'Est-Ce Que Le Calcul Accéléré? L'informatique accélérée est l'utilisation de matériel spécialisé pour accélérer considérablement le travail, souvent avec un traitement parallèle qui regroupe des tâches fréquentes. Il décharge le travail exigeant qui peut encombrer les processeurs, des processeurs qui exécutent généralement des tâches en série. Né dans le PC, l'informatique accélérée est arrivée à l'âge adulte dans les supercalculateurs. Il vit aujourd'hui dans votre smartphone et dans tous les services cloud. Et maintenant, les entreprises de tous horizons l'adoptent pour transformer leurs activités avec des données. Les ordinateurs accélérés mélangent des processeurs et d'autres types de processeurs comme des égaux dans une architecture parfois appelée informatique hétérogène.

Ordinateurs accélérés: Un coup d'œil sous le capot

Les GPU sont les accélérateurs les plus utilisés. Les unités de traitement de données (UDP) sont une classe émergente qui permet une mise en réseau améliorée et accélérée. Chacun a un rôle à jouer avec le processeur hôte pour créer un système unifié et équilibré.

Un ordinateur accéléré offre des coûts globaux inférieurs et des performances et une efficacité énergétique supérieures à celles d'un système basé uniquement sur le processeur.
Aujourd'hui, les systèmes commerciaux et techniques adoptent l'informatique accélérée pour gérer des tâches telles que l'apprentissage automatique, l'analyse de données, les simulations et les visualisations. C'est un style informatique moderne qui offre des performances et une efficacité énergétique élevées.

Comment les PC ont rendu le Calcul accéléré populaire

Du matériel spécialisé appelé coprocesseurs est apparu depuis longtemps dans les ordinateurs pour accélérer le travail d'un processeur hôte. Ils ont d'abord pris de l'importance vers 1980 avec des processeurs à virgule flottante qui ont ajouté des capacités mathématiques avancées au PC.

Au cours de la décennie suivante, l'essor des jeux vidéo et des interfaces utilisateur graphiques a créé une demande d'accélérateurs graphiques. En 1993, près de 50 entreprises fabriquaient des puces ou des cartes graphiques.

En 1999, NVIDIA a lancé la GeForce 256, la première puce à décharger des tâches clés du processeur pour le rendu d'images 3D. Il a également été le premier à utiliser quatre pipelines graphiques pour un traitement parallèle. NVIDIA l'a appelé une unité de traitement graphique (GPU), mettant un enjeu dans le sol pour une nouvelle catégorie d'accélérateurs informatiques.

Comment les chercheurs ont exploité le Traitement parallèle En 2006, NVIDIA avait livré 500 millions de GPU. Il a dirigé un champ de seulement trois fournisseurs de graphiques et a vu la prochaine grande chose à l'horizon. Certains chercheurs développaient déjà leur propre code pour appliquer la puissance des GPU à des tâches hors de portée des processeurs. Par exemple, une équipe de Stanford dirigée par Ian Buck a dévoilé Brook, le premier modèle de programmation largement adopté pour étendre le langage C populaire pour le traitement parallèle. Buck a débuté chez NVIDIA en tant que stagiaire et occupe maintenant le poste de vice-président de l'informatique accélérée. En 2006, il a dirigé le lancement de CUDA, un modèle de programmation permettant d'exploiter les moteurs de traitement parallèle à l'intérieur du GPU pour toutes les tâches. Associé à un processeur G80 en 2007, CUDA a alimenté une nouvelle gamme de GPU NVIDIA qui a apporté l'informatique accélérée à un éventail croissant d'applications industrielles et scientifiques.

HPC + GPU = Accelerated Science Cette famille de GPU destinés au centre de données s'est étendue à une cadence régulière avec une succession de nouvelles architectures nommées d'après des innovateurs — Tesla, Fermi, Kepler, Maxwell, Pascal, Volta, Turing, Ampère. Comme les accélérateurs graphiques des années 1990, ces nouveaux GPU ont fait face à de nombreux rivaux, y compris de nouveaux processeurs parallèles tels que le transputer d'Inmos. “Mais seul le GPU a survécu car les autres n'avaient pas d'écosystème logiciel et c'était leur glas”, a déclaré Kevin Krewell, analyste chez Tirias Research. Des experts du calcul haute performance du monde entier ont construit des systèmes HPC accélérés avec des GPU pour pionner la science. Leurs travaux couvrent aujourd'hui des domaines allant de l'astrophysique des trous noirs au séquençage du génome et au-delà.

InfiniBand Revs Accelerated Networks

Beaucoup de ces superordinateurs utilisent InfiniBand, une liaison rapide à faible latence idéale pour créer de grands réseaux distribués de GPU. Voyant l'importance de la mise en réseau accélérée, NVIDIA a acquis Mellanox, un pionnier d'InfiniBand, en avril 2020. Six mois plus tard, NVIDIA a annoncé son premier DPU, un processeur de données qui définit un nouveau niveau de sécurité, de stockage et d'accélération du réseau. Une feuille de route des DPU BlueField gagne déjà du terrain dans les supercalculateurs, les services cloud, les systèmes OEM et les logiciels tiers. En juin 2021, 342 des 500 superordinateurs les plus rapides au monde utilisaient les technologies NVIDIA, dont 70% de tous les nouveaux systèmes et huit des 10 premiers.

Le Selene de NVIDIA est un ordinateur accéléré qui se classe numéro 6 sur la liste TOP500 de juin 2021. À ce jour, l'écosystème CUDA a engendré plus de 700 applications accélérées, relevant de grands défis tels que la découverte de médicaments, la réponse aux catastrophes et même les plans de missions vers Mars. Pendant ce temps, l'informatique accélérée a également permis le prochain grand saut dans les graphiques. En 2018, l'architecture Turing de NVIDIA a alimenté les GPU GeForce RTX, les premiers à proposer le ray tracing, un saint graal de la technologie visuelle, offrant aux jeux et aux simulations un réalisme réaliste.

AI, une application de tueur pour l'informatique accélérée En 2012, le monde de la technologie a entendu un Big Bang, signalant l'arrivée d'une nouvelle et puissante forme de calcul, l'IA. Sous les couvertures, c'est un travail de traitement parallèle. Ainsi, dès les premiers jours de l'apprentissage en profondeur, les chercheurs et les fournisseurs de services cloud ont commencé à utiliser des ordinateurs accélérés par GPU pour former et exécuter leurs réseaux de neurones.

Les entreprises leaders sur tous les marchés verticaux ont rapidement compris l'importance de l'IA sur les ordinateurs accélérés. American Express l'utilise pour prévenir la fraude par carte de crédit. Les services cloud l'utilisent dans les systèmes de recommandation qui stimulent les ventes. De nombreuses entreprises utilisent l'IA conversationnelle pour améliorer le service client. Les opérateurs télécoms explorent l'IA pour fournir des services 5G intelligents. Les cinéastes l'ont utilisé pour rajeunir Robert DeNiro et Al Pacino dans The Irishman. Et vous pouvez le regarder en mangeant un dîner suggéré et livré grâce à l'intelligence artificielle de DoorDash ou de Domino's.

Un jour, chaque entreprise sera une entreprise de données et chaque serveur sera un ordinateur accéléré.

C'est une vision partagée par les dirigeants des grands éditeurs de logiciels informatiques comme VMware et Red Hat, qui adaptent leurs produits à l'informatique accélérée. Les fabricants de systèmes fournissent déjà des dizaines de systèmes certifiés NVIDIA, des ordinateurs accélérés prêts à fonctionner pour chaque entreprise. Ce sont des véhicules pour le voyage vers l'informatique accélérée dans l'entreprise. Pour aider à lancer onramp, NVIDIA propose une solution complète avec des produits tels que NVIDIA AI Enterprise, Base Command, Fleet Command et des applications accélérées prêtes à l'emploi dans le catalogue NGC.

Un avenir économe en énergie

L'informatique accélérée “est la seule voie à suivre", selon des vétérans de l'informatique comme John Hennessey et David Patterson. Ils ont décrit cette tendance comme une évolution vers des "architectures spécifiques à un domaine" dans une conférence commémorant leur prix Turing 2017, l'équivalent d'un Nobel en informatique.

L'efficacité énergétique de l'approche est une raison importante pour laquelle elle représente l'avenir. Par exemple, les GPU offrent une efficacité énergétique 42 fois supérieure à celle des processeurs en inférence IA. En effet, si vous commenciez tous les serveurs utilisant uniquement l'IA dans le monde entier à utiliser des systèmes accélérés par GPU, vous pourriez économiser 10 billions de watt-heures d'énergie par an. C'est comme économiser l'énergie que 1,4 million de foyers consomment en un an. Les experts en informatique accélérée récoltent déjà ces avantages. Trente-cinq des 40 premiers systèmes de la liste Green500 des supercalculateurs les plus économes en énergie au monde fonctionnent avec les technologies NVIDIA, dont neuf des 10 premiers. Les supercalculateurs de la liste qui utilisent des GPU NVIDIA sont 3,5 fois plus économes en énergie que ceux qui n'en utilisent pas, une tendance constante et croissante. Pour plus d'informations, regardez un échantillon de conférences sur l'informatique accélérée de GTC et la vidéo sur l'informatique accélérée d'entreprise ci-dessous.

High tech