Premier Partner

LIQID

Disaggregieren und komponieren Sie Ihr Rechenzentrum

Die flexieble und revolutionäre HPC Management Lösung von Liqid


Sie benötigen dynamisch konfigurierbare Bare-Metal-Server mit einer perfekter Größe oder Leistung um genau die physischen Ressourcen bereitzustellen, die darauf laufende Anwendungen gerade erfordern?

Nutzen Sie ihre vorhanden brachenübliche Rechenzentrumskomponenten, um eine flexible, skalierbare Architektur bereitzustellen, die aus Pools disaggregierter Ressourcen aufgebaut sind und mit nur wenigen einfachen Mausklicks um-konfiguriert werden kann.

Durch die Automatisierung der Prozesse kann weitere Effizienz realisiert werden, um den Datenbedarf im Zusammenhang mit Anwendungen der nächsten Generation in den Bereichen DevOps, KI, Cloud- und Edge-Computing, IoT-Bereitstellung, NVMe- und GPU-over-Fabric (NVMe-oF, GPU-oF) Unterstützung besser zu erfüllen.

  • Eliminieren Sie kostspielige Überversorgung → stellen Sie über die Benutzeroberfläche, API oder CLI von Liqid nur das bereit, was gerade benötigt wird.
  • Werden mehr Ressourcen benötigt → skalieren Sie diese nach Bedarf in Sekunden.
  • Sollen Workloads stillgelegt werden → verschieben Sie Ressourcen schnell auf neue oder vorhandene Server.

Die Lösung - Liqid Matrix

Verwandeln Sie Ihr Rechenzentrum mit Liqid Matrix von statisch in dynamisch


Die Lösungen und Services von Liqid ermöglichen es, die Infrastruktur so flexibel anzupassen, dass die Resourcen möglichst effizient und vollständig ausgeschöpft werden können. Durch die Verbindung von Rechen-, Netzwerk-, Storage-, GPU-, FPGA- und Intel® Optane-Speicher Einheiten über intelligente Hochgeschwindigkeits-Fabrics miteinander, können die Ressourcen mit Hilfe der Liqid Matrix-Software beliebig disaggregiert werden, um daraus Echtzeit-IT-Lösungen zusammenzusetzen.


Orchestrierung mit Liqid Matrix

Das Management wird über das Liqid Command Center geregelt, das im Zusammenspiel mit einem PCIe Management Fabric Switch (Liqid Grid) eine Verbindung von Kernsystemressourcen mit physischen Servern über eine PCI-Express (PCIe)-Fabric ermöglicht und bei Bedarf dynamisch neu konfiguriert werden kann. Die physische Verbindung vom Fabric zu den Chassis wird durch die Ports realisiert an denen je ein 4-fach Breakout Kabeln zu den jeweiligen Chassi führt. Über einen Switch, beispielsweise 24- oder 48-Ports, wird der Datenaustausch zwischen den Erweiterungs-Chassis ermöglicht, die beliebig nach Anzahl, Typ und Größe angepasst werden können und gemeinsam einen Ressourcen Pool bilden. Die Hardware-Chassis aus dem Verbund (Hosts, GPUs, NIC, Storage) sind hierbei Hersteller unabhängig, deren Kompatibilität aber vorher geprüft werden sollte. Für einen reibungslosen Betrieb empfiehlt Liqid jedoch, die hauseigene Hardware dafür zu verwenden. Die technische Spezifikationen und weiterführenden Informationen zu der Hardware kann aus den Datenblätern entnomen werden.

Deploy Large-Scale CDI Environments with Liqid Matrix


Vorteile gegenüber klassischen Datenzentren

Das Ressourcen Pool kann durch einfaches Hinzufügen von verschiedenen Chassis beliebig skaliert werden. Durch die einfache Benutzeroberfläche der Management Software lässt sich aus diesen vorhandenen Pool, in nur wenigen Sekunden Workloads zusammenstellen, die exakt auf die gerade nötigen Arbeitsbedürfnisse zugeschnitten sind. Der Verbrauch der dafür nötigen Arbeits-Ressourcen, beschränkt sich hierbei genau auf die dafür konfigurierten Workload-Set. Wird mehr Rechenleistung oder Speicher benötigt, kann mit wenigen Klicks weitere GPUs/Storage-Einheiten dafür allokiert werden. Die nicht zugewiesenen und freien Ressourcen, des zu Verfügung stehenden Hardware-Pools, bleiben dabei inaktiv und reduzieren so unnötigen Verbrauch an Strom und Hardware-Verschleiß erheblich. Die manuelle Um-Verkabelung oder Re-Konfiguration der Hardware, entfällt dabei praktisch.

Ein weiterer Vorteil durch die Software Unterstützung, ist die Möglichkeit die Steuerung des Datenzentrums, jederzeit aus der Ferne verwalten zu können, ein API Schnittstelle ermöglicht zusätzlich einen schnellen Zugriff via Ansible, VMWare oder Slurm. Mit wenigen Klicks lassen sich auch fertige Images mit verschiedenen Betriebssystemen auf die einzelnen Workloads aufspielen.

Performance - ioDirect

Liqid verwendet die ioDirect Technologie um das Flaschenhals Problem bei dem Datenaustausch zwischen verschiedenen GPUs zu umgehen. Dabei können GPU Einheiten direkt mit einander Verbunden werden, statt klassisch über den Umweg einer Host CPU. Die daraus resultierende Bandbreite ist um etwa 474% höher als bei der normalen Methode ohne ioDirect. Auch eine direkte Verbindung zwischen GPUs und SSDs (GDS) ist möglich.

  • Klassisch: GPU-to-HostCPU-to-GPU → Bandbreite: 9 GB/s, Latenz: 25µs/li>
  • Mit ioDirect: GPU-to-GPU → Bandbreite: 49 GB/s (+474%), Latenz: 3µs (89% niedrigere Latenz)

  • Klassisch: GPU-to-HostCPU-to-SSD → IOPS: 179k, Latenz: 712µs
  • Mit ioDirect: GPU-to-SSD → IOPS: 2900k (+1520%), Latenz: 112µs (86% niedrigere Latenz)

Energie und Kosteneinsparung

Im Vergleich zu der konvenzionellen Lösung bietet die Liqid Matrix eine Gesammteinsparung von bis zu 90% und eliminiert kostspielige Überversorgung.

Liqid Matrix Lösung für die Infrastrukturverschwendung

Weitere Vorteile auf einen Blick

  • Dynamisch konfigurierbare Server
  • Unabhängige Skalierung der Ressourcen
  • Entkopplung von Kaufentscheidungen
  • Verlängertes Produktlebenszyklus
  • Verbesserte Software Lizenz Effizienz
  • Pay As You Grow - Prinzip
  • Verbesserte Resourcen Utilization

Liqid Composable Dynamic Infrastructure (CDI) Demo

Die folgende Demo zeigt, wie einfach IT-Administratoren Ressourcenpools innerhalb des Liqid Command Center dynamisch orchestrieren können.