DPU et IPU pour rendre les datacenters plus performants

Dans le cadre de son projet Open Programmable Infrastructure Project, la Fondation Linux compte s’appuyer sur les unités de traitement de données et d’infrastructure pour soulager le traitement des tâches des CPU.

L’annonce, cette semaine, par la Fondation Linux, d’un projet visant à intégrer les unités de traitement de données (DPU) et les unités de traitement d’infrastructure (IPU) aux futures infrastructures des datacenters et des clouds devraient ravir les entreprises qui s’intéressent à l’usage de ces unités de traitement. En effet, ces dispositifs de mise en réseau programmables – DPU, IPU et smartNIC – peuvent libérer les CPU et améliorer ainsi les performances des services cloud, de traitement, de mise en réseau, de stockage et de sécurité définis par logiciel. Dénommé Open Programmable Infrastructure (OPI) Projects, le nouveau projet prévoit de confier à une communauté le développement de normes pour construire des architectures basées sur les DPU/IPU. « OPI développera des techniques pour simplifier les API de réseau, de stockage et de sécurité dans les applications et accroître la portabilité et l’efficacité des applications dans le cloud et le datacenter en s’appuyant sur des approches DevOps, SecOps et NetOps », a déclaré la Fondation Linux. 

Dell Technologies, F5, Intel, Keysight Technologies, Marvell, Nvidia et Red Hat font partie des membres fondateurs de l’OPI. D’autres entreprises comme AWS et AMD qui développent des smartNIC et des DPU destinés à être déployés dans les réseaux edge, de colocation ou de fournisseurs de services, rejoindront aussi le projet. « Les DPU et IPU sont un parfait exemple de technologie émergente parmi les plus prometteuses du moment pour le cloud et les datacenters, et l’OPI est prête à accélérer l’adoption et les opportunités en soutenant un écosystème pour les technologies DPU et IPU », a déclaré Mike Dolan, vice-président senior de ces projets à la Fondation Linux. 

Des DPU et des IPU de plus en plus sollicités

Les objectifs de l’OPI sont les suivants : définir des frameworks et des architectures indépendantes des fournisseurs pour les piles logicielles basées sur les DPU et IPU, de sorte qu’elles soient applicables à toutes les solutions matérielles ; permettre la création d’un écosystème d’applications open source riche ; intégrer les projets open-source existants qui ont le même objectif, comme le noyau Linux ; créer de nouvelles API pour interagir avec et entre les éléments de l’écosystème DPU et IPU, y compris le matériel, les applications hébergées, le nœud hôte, ainsi que le provisionnement et l’orchestration à distance des logiciels. Selon M. Dolan, des applications comme la 5G, l’IA/ML, le Web3, la cryptographie, etc., utilisent le plus en plus les DPU et les IPU pour prendre en charge les capacités de réseau à haut débit et le traitement des paquets. Au lieu de faire des serveurs l’unité d’infrastructure pour le cloud, l’edge et le datacenter, les opérateurs pourraient créer des pools de ressources désagrégées de mise en réseau, de calcul et de stockage alimentés par des DPU, IPU, GPU et CPU pour répondre aux charges de travail applicatives et aux exigences de mise à l’échelle de leurs clients. 

En plus de cette annonce, la Fondation Linux a précisé que Nvidia avait contribué au projet Open Programmable Infrastructure en proposant ses API logicielles de mise en réseau DOCA. « DOCA comprend des pilotes, des bibliothèques, des services, de la documentation, des exemples d’applications et des outils de gestion pour accélérer et simplifier le développement et les performances des applications », a déclaré Nvidia. DOCA permet la flexibilité et la portabilité des applications BlueField – le paquet d’accélérateurs de services pour datacenters de NVIDIA – écrites à l’aide de pilotes accélérés ou de bibliothèques de bas niveau, comme DPDK, SPDK, Open vSwitch ou Open SSL. 

chevron_left
chevron_right