A l'intérieur du DPU : L'exposé décrit un moteur qui alimente les réseaux des centres de données

le 20/08/2021 08:51

A l'intérieur du DPU : L'exposé décrit un moteur qui alimente les réseaux des centres de données

Le monde de la technologie obtient cette semaine son premier aperçu sous le capot de l'unité de traitement de données NVIDIA BlueField. La puce a inventé la catégorie des DPU l'année dernière, et elle est déjà adoptée par les services cloud, les supercalculateurs et de nombreux OEM et partenaires logiciels.

Idan Burstein, architecte principal à la tête de notre équipe de conception BlueField basée en Israël, décrira l'architecture du DPU à Hot Chips, une conférence annuelle qui attire de nombreux concepteurs de microprocesseurs parmi les meilleurs au monde.

La conférence dévoilera un moteur au silicium pour accélérer les centres de données modernes. Il s'agit d'un ensemble d'accélérateurs matériels et de cœurs Arm à usage général qui accélèrent les tâches de mise en réseau, de sécurité et de stockage.

Ces tâches incluent la virtualisation du matériel du centre de données tout en sécurisant et en lissant le flux du trafic réseau. C'est un travail qui consiste à accélérer dans le matériel une soupe alphabétique croissante de tâches fondamentales pour l'exploitation d'un centre de données, telles que :

  • IPsec, TLS, AES-GCM, RegEx et accélération des clés publiques pour la sécurité
  • Stockage NVMe-oF, RAID et GPUDirect pour le stockage
  • RDMA, RoCE, SR-IOV, VXLAN, VirtIO et GPUDirect RDMA pour la mise en réseau, et
  • Déchargements pour le streaming vidéo et les communications urgentes

Ces charges de travail croissent plus vite que la loi de Moore et consomment déjà un tiers des cycles CPU des serveurs. Les DPU contiennent du matériel spécialement conçu pour exécuter ces tâches plus efficacement, ce qui rend plus de cœurs de processeur disponibles pour les applications de centre de données.

Les DPU offrent une virtualisation et une sécurité avancée sans compromettre les performances sans système d'exploitation. Leurs utilisations couvrent toute la gamme du cloud computing et du streaming multimédia au stockage, au traitement de pointe et au calcul haute performance.

Le PDG de NVIDIA, Jensen Huang, décrit les DPU comme « l'un des trois principaux piliers de l'informatique à l'avenir… Le processeur est destiné à l'informatique à usage général, le GPU est destiné à l'informatique accélérée et le DPU, qui déplace les données dans le centre de données, effectue le traitement des données. "

Une pile plug-and-play complète

La bonne nouvelle pour les utilisateurs est qu'ils n'ont pas à maîtriser les détails du silicium qui peuvent fasciner les architectes de processeurs chez Hot Chips. Ils peuvent simplement brancher leur logiciel existant sur des interfaces logicielles de haut niveau familières pour exploiter la puissance du DPU.

Ces API sont regroupées dans la pile logicielle du DPU appelée NVIDIA DOCA. Il comprend des pilotes, des bibliothèques, des outils, de la documentation, des exemples d'applications et un environnement d'exécution pour le provisionnement, le déploiement et l'orchestration des services sur des milliers de DPU à travers le centre de données.

Nous avons déjà reçu des demandes d'accès anticipé à DOCA de centaines d'organisations, dont plusieurs des leaders mondiaux de l'industrie.

DOCA fournit une plate-forme logicielle pour le développement rapide d'applications de mise en réseau, de stockage et de sécurité sur le DPU.

Les DPU fournissent pour les centres de données, les clouds

L'architecture décrite à Hot Chips s'installe dans plusieurs des plus grands clouds du monde ainsi qu'un supercalculateur TOP500 et intégrée aux pare-feu de nouvelle génération. Il sera bientôt disponible dans les systèmes de plusieurs grands constructeurs OEM pris en charge avec des logiciels de plus d'une douzaine d'autres partenaires.

Aujourd'hui, plusieurs fournisseurs de services cloud dans le monde utilisent ou se préparent à déployer des DPU BlueField pour provisionner des instances de calcul en toute sécurité.

BlueField alimente les supercalculateurs et les pare-feu

L'Université de Cambridge a exploité l'efficacité du DPU pour lancer en juin le système universitaire le plus rapide du Royaume-Uni, un superordinateur qui a atteint la troisième place sur la liste Green500 des systèmes les plus économes en énergie au monde.

Il s'agit du premier superordinateur natif du cloud au monde, permettant aux chercheurs de partager des ressources virtuelles avec confidentialité et sécurité sans compromettre les performances.

Avec le pare-feu de nouvelle génération VM-Series de Palo Alto Networks, chaque centre de données peut désormais accéder aux capacités de sécurité du DPU. Le NGFW de la série VM peut être accéléré avec BlueField-2 pour inspecter les flux de réseau qui étaient auparavant impossibles ou peu pratiques à suivre.

Le DPU sera bientôt disponible dans les systèmes d'ASUS, Atos, Dell Technologies, Fujitsu, GIGABYTE, H3C, Inspur, Quanta/QCT et Supermicro, dont plusieurs ont annoncé des plans au Computex en mai.

Plus d'une douzaine de partenaires logiciels prendront en charge les DPU NVIDIA BlueField, notamment :

  • VMware, avec Project Monterey, qui présente les DPU aux plus de 300 000 organisations qui comptent sur VMware pour sa vitesse, sa résilience et sa sécurité.
  • Red Hat, avec un kit de développement à venir pour Red Hat Enterprise Linux et Red Hat OpenShift, utilisé par 95 % des entreprises Fortune 500.
  • Canonical, dans Ubuntu Linux, le système d'exploitation le plus populaire parmi les clouds publics.
  • Check Point Software Technologies, dans des produits utilisés par plus de 100 000 organisations dans le monde pour prévenir les cyberattaques.

Les autres partenaires incluent Cloudflare, DDN, Excelero, F5, Fortinet, Guardicore, Juniper Networks, NetApp, Vast Data et WekaIO.

Le soutien est large car l'opportunité est grande.

« Chaque puce réseau dans le monde sera une puce réseau intelligente… Et c'est ce qu'est le DPU. C'est un centre de données sur puce », a déclaré Collette Kress, directrice financière de NVIDIA, lors d'un appel aux résultats en mai, prédisant que chaque serveur arborera un jour un DPU.

Réseaux alimentés par DPU à l'horizon

Les observateurs du marché du groupe Dell'Oro prévoient que le nombre de ports réseau intelligents expédiés va presque doubler, passant de 4,4 millions en 2020 à 7,4 millions d'ici 2025.

Se préparant à cette croissance, NVIDIA a annoncé au GTC sa feuille de route pour les deux prochaines générations de DPU.

Le BlueField-3, échantillonné l'année prochaine, pilotera des réseaux jusqu'à 400 Gbit/seconde et emballera la masse de 300 cœurs x86. Le BlueField-4 offrira un ordre de grandeur en plus de performances avec l'ajout des technologies de calcul NVIDIA AI.

Ce qui ressort clairement de la dynamique du marché et de la conférence Hot Chips de cette semaine, c'est comme pour l'IA, NVIDIA donne maintenant le ton en matière de mise en réseau accélérée.

High tech