banner
Nachrichtenzentrum
Unsere Waren werden sowohl im Inland als auch im Ausland geschätzt.

DPU-Lebenszyklusmanagement erfordert kreative Serverlösungen

Jul 16, 2023

In einer Zeit, die von datengesteuerten Anwendungen dominiert wird, erlebt die traditionelle Computerlandschaft, die lange Zeit von CPUs und GPUs bestimmt wurde, einen Paradigmenwechsel. Da Unternehmen und Institutionen in komplexere Computerumgebungen vordringen, insbesondere mit den aufstrebenden Bereichen künstliche Intelligenz (KI), Big-Data-Analyse und Cloud-native-Anwendungen, haben sich die Anforderungen an die Verarbeitungskapazitäten verändert. Die Data Processing Unit (DPU) bringt noch ein weiteres Element mit sich, doch das DPU-Lebenszyklusmanagement im Unternehmen ist etwas komplizierter, als es sich anhört.

In einer Zeit, die von datengesteuerten Anwendungen dominiert wird, erlebt die traditionelle Computerlandschaft, die lange Zeit von CPUs und GPUs bestimmt wurde, einen Paradigmenwechsel. Da Unternehmen und Institutionen in komplexere Computerumgebungen vordringen, insbesondere mit den aufstrebenden Bereichen künstliche Intelligenz (KI), Big-Data-Analyse und Cloud-native-Anwendungen, haben sich die Anforderungen an die Verarbeitungskapazitäten verändert. Die Data Processing Unit (DPU) bringt noch ein weiteres Element mit sich, doch das DPU-Lebenszyklusmanagement im Unternehmen ist etwas komplizierter, als es sich anhört.

NVIDIA BlueField DPU

DPUs, oft auch als SmartNICs oder Infrastructure Processing Units (IPUs) bezeichnet, spielen eine zentrale Rolle, indem sie zum Bindeglied zwischen Rechen- (CPUs), Grafik- (GPUs) und Speichernetzwerkinfrastruktur werden. DPUs werden seit Jahren in öffentlichen Clouds und Hyperscale-Rechenzentren eingesetzt und isolieren residente Arbeitslasten von Netzwerk-, Sicherheits-, Speicher- und anderen Infrastrukturvorgängen, die typischerweise mit Rechenzentrumsfunktionen verbunden sind. Diese erweiterte Funktion entlastet CPUs und GPUs von diesen Aufgaben und ermöglicht ihnen, sich auf ihre Hauptfunktion des Rechnens und Renderns zu konzentrieren.

Die Einführung von DPUs bringt eine Reihe neuer Herausforderungen mit sich: Wie können diese Einheiten verwaltet, optimiert und der reibungslose Betrieb im Zusammenspiel mit der vorhandenen Infrastruktur sichergestellt werden? Das DPU-Management ist von entscheidender Bedeutung, da es eine neue Ebene der Komplexität einführt. Eine ordnungsgemäße Verwaltung stellt sicher, dass DPUs ihr volles Potenzial nutzen und bietet Vorteile wie geringere Latenz, erhöhten Durchsatz und eine bessere Gesamtsystemeffizienz.

Durch die Integration von DPUs in das breitere Rechenökosystem und die Gewährleistung einer effektiven DPU-Verwaltung können Unternehmen und Institutionen neue Leistungs-, Agilitäts- und Skalierbarkeitsbereiche erschließen. Während die Welt ihren unaufhörlichen Marsch in Richtung datenzentrierterer Abläufe fortsetzt, wird die Einführung und Verwaltung von DPUs von entscheidender Bedeutung für die Aufrechterhaltung eines Wettbewerbsvorteils in der digitalen Landschaft sein.

DPUs haben sich zu einer transformativen Technologie in der Computerlandschaft entwickelt und erregen heute große Aufmerksamkeit und Anziehungskraft auf dem Markt. Da Unternehmen mit dem explosionsartigen Datenwachstum, der zunehmenden Komplexität von Arbeitslasten und der Nachfrage nach höherer Leistung und Effizienz zu kämpfen haben, haben sich DPUs als leistungsstarke Lösung herausgestellt.

VMware hatte daran gearbeitet, seinen Software-Stack auf DPUs zu bringen. Allerdings machte die mit der DPU-Hardware verbundene proprietäre, herstellerspezifische Software die Integrationsaufgabe noch schwieriger. Die Türen wurden geöffnet, als VMware die Unterstützung für vSphere auf die DPU ausdehnte und es Kunden ermöglichte, mithilfe ihres bevorzugten Virtualisierungs-Stacks Effizienzsteigerungen zu erzielen, die normalerweise mit der Cloud in ihren Rechenzentren verbunden sind. DPUs sind auch ein grundlegender Bestandteil von vSAN 8 und entlasten Sicherheits- und Netzwerkaufgaben.

NVIDIA BlueField DPU in Riser 1

VMware beabsichtigt eindeutig, DPUs im Laufe der Zeit noch stärker zu nutzen; Es ist nicht einmal völlig unrealistisch, davon auszugehen, dass bestimmte vSphere-Knoten in Zukunft vollständig DPU-betrieben sind und überhaupt kein x86 haben. Allerdings wirbt VMware bereits mit Leistungsverbesserungen dank DPUs.

VMware, das einen REDIS-Schlüsselwertspeicher auf vSphere 8 ausführte, stellte fest, dass ein DPU-fähiger Host eine ähnliche Leistung wie ein nicht DPU-fähiger Host mit 20 Prozent weniger CPU-Kernen erzielte. In einem anderen Test erzielte der DPU-fähige Host einen um 36 Prozent besseren Durchsatz und eine Reduzierung der Transaktionslatenz um 27 Prozent.

Da das Interesse an DPUs dank VMware zunimmt, mussten Anbieter wie Dell Möglichkeiten finden, die DPU in die Designs einzubeziehen, ohne das DPU-Lebenszyklusmanagement zu vergessen. Die Sache ist, dass DPUs im Wesentlichen eigene Computer sind, deren Verwaltung lokal über das Ethernet oder einen anderen Admin-Port erfolgt. Dies steht jedoch nicht im Einklang mit der Art und Weise, wie Unternehmen den Hardware-Lebenszyklus verwalten möchten. Als Dell DPUs einführte, mussten sie daher etwas kreativ werden.

Wenn Sie sich die Anschlussseite einer NVIDIA BlueField DPU ansehen, sieht sie aus wie eine Standard-NVIDIA ConnectX-Netzwerkkarte, mit einem zusätzlichen Ethernet-Anschluss für die Verwaltung. Wie bereits erwähnt, möchten Unternehmen jedoch in der Lage sein, alle Serverkomponenten über eine gemeinsame Lifecycle-Management-Konsole zu verwalten. Im Fall von Dell bedeutet das iDRAC. Daher musste Dell etwas kreativ werden, um die Hardware-Verbindungen herstellen zu können, die erforderlich sind, damit iDRAC die DPU erkennt.

NVIDIA BlueField DPU-Ports

Die DPU selbst wird wie jede PCIe-Karte einfach in die Riser gesteckt (Riser 1A Steckplatz 2, um genau zu sein). Dadurch wird die DPU mit Strom versorgt und auf den System-BUS übertragen. Aber die Verwaltung der Karte kann nicht über PCIe erfolgen, wie bei einer GPU, zumindest derzeit nicht. Was erforderlich ist, ist ein zusätzliches Hardwareelement, um diese Punkte zu verbinden. Auf dem Foto unten eines R750-Motherboards wird dem scharfsinnigen Betrachter eine andere Karte in dem Steckplatz auffallen, in dem sich normalerweise das LOM (NIC) befindet.

Dell PowerEdge-Motherboard mit Verwaltungsschnittstellenkarte (MIC)

Wenn wir uns die Management Interface Card (MIC) etwas genauer ansehen, können wir sehen, dass sie sich an der Stelle befindet, an der sich normalerweise das integrierte LOM befindet. Der MIC ermöglicht eine Network Controller Sideband Interface (NC-SI) zwischen der DPU und dem Server-BMC.

Dell PowerEdge-Verwaltungsschnittstellenkarte (MIC)

Es gibt einige Tools, mit denen Sie die DPU-Technologie optimal nutzen können. Der integrierte Dell Remote Access Controller (iDRAC) von Dell ist ein umfassendes Verwaltungstool, das für Dell PowerEdge-Server entwickelt wurde. Es bietet erweiterte Funktionen für die Fernüberwachung, -verwaltung und -steuerung von Servern.

iDRAC bietet Echtzeitüberwachung der Serverzustandsparameter und ermöglicht Administratoren die Überwachung kritischer Komponenten wie CPU, Arbeitsspeicher, Massenspeicher, Strom und Temperatur. iDRAC vereinfacht die Aktualisierung der Firmware, einschließlich BIOS, RAID-Controller und Netzwerkadapter. Über diese zentralisierte Schnittstelle können Administratoren Firmware-Updates auf mehreren Servern verwalten und bereitstellen, um Konsistenz zu gewährleisten und den manuellen Aufwand zu reduzieren.

Aufgrund des LOM-zu-MIC-Austauschs und einer zusätzlichen Verkabelungshärte kann Dell die DPU über iDRAC verwalten und so die DPU-Lebenszyklusverwaltung mit allen anderen Schlüsselkomponenten im PowerEdge-Server in Einklang bringen. Während dies für den iDRAC-Administrator recht einfach erscheint, ist die Arbeit hinter den Kulissen, die diese einfache Verwaltung für die DPU ermöglicht, beeindruckend.

DPU-Lebenszyklusmanagement mit iDRAC

Es ist etwas verfrüht zu sagen, dass jeder VMware vSphere- oder vSAN-Knoten mit DPUs konfiguriert werden sollte, um die Vorteile der vSphere Distributed Services Engine nutzen zu können, aber die Vorteile sind kaum zu übersehen. Mit der zunehmenden Menge und Komplexität moderner Workloads und der Nachfrage nach neuen softwaredefinierten Diensten werden Server-CPUs überlastet, sodass weniger Rechenzyklen für die Workload-Verarbeitung übrig bleiben. DPUs werden bereits in großem Umfang in Hyperscalern eingesetzt, um mehr Infrastrukturfunktionen zu bewältigen und CPU-Zyklen für umsatzgenerierende Arbeitslasten freizugeben.

NVIDIA BlueField DPU-Verwaltungsanschluss verkabelt

Während die Vorteile von DPUs für vSphere offensichtlich sind, bringt die Einführung neuer Beschleuniger in Server neue Herausforderungen mit sich, die gelöst werden müssen. In diesem Fall ist das DPU Lifecycle Management. Dank der kreativen Entwicklung von Dell können DPUs mit dem nativen BMC verbunden und über herkömmliche Lebenszyklus-Tools wie iDRAC verwaltet werden. Dies macht einen großen Unterschied bei der Einführung neuer Technologien im Rechenzentrum und dürfte die DPU-Einführung für Dell-Kunden erleichtern.

Übersicht über die neuen vSphere 8-Funktionen

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS-Feed

Ich bin in der Technologiebranche tätig, seit IBM Selectric gegründet hat. Mein Hintergrund ist jedoch das Schreiben. Also beschloss ich, aus dem Pre-Sales-Geschäft auszusteigen und zu meinen Wurzeln zurückzukehren, ein bisschen zu schreiben, mich aber immer noch mit Technologie zu beschäftigen.

Abschließende GedankenBeteiligen Sie sich an StorageReview