Sardina FishOS

Hocheffiziente Clouds fĂŒr Unternehmen mit OpenStack


FishOS

Sardina FishOS ist eine revolutionĂ€re, Ă€ußerst zuverlĂ€ssige Enterprise-Cloud-Plattform, die eine schlĂŒsselfertige Infrastruktur fĂŒr traditionelle Workload- und Next-Gen-Anwendungen bietet. Es ermöglicht einen vollstĂ€ndigen LebenszyklusĂŒberblick ĂŒber die OpenStack-Cloud und Kubernetes Orchestration, um Unternehmen eine sichere und vorhersehbare Bereitstellung, einen zuverlĂ€ssigen Betrieb und ein Upgrade ohne Ausfallzeiten zu ermöglichen. OpenStack bietet das Beste aus dem Bereich der Cloud-Technologie und dient dabei als Rahmen fĂŒr die Erstellung hoch skalierbarer Clouds fĂŒr anspruchsvollste Workloads. In Kombination mit FishOS ist dies die effizienteste verfĂŒgbare Cloud-Plattform.


FishOS HCI - Hyperkonvergente Cloud-Plattform

Mit FishOS HCI können Unternehmen schnell und einfach eine Ă€ußerst zuverlĂ€ssige Cloud-Plattform fĂŒr traditionelle Enterprise-Workload- und Next-Gen-Anwendungen implementieren. Dazu gehören Datensicherheit, Datenschutz, Zero-Click-Operationen und durch Automatisierung einfach zu bedienende KI-Funktionen.

Die preisgekrönten KI-basierten Entscheidungs-Engines von FishOS ermöglichen eine unĂŒbertroffene 10-fache Senkung der Gesamtbetriebskosten (TCO), eine elastische Wirtschaftlichkeit nach 'pay‐as‐you‐grow' Prinzip, Eliminierung von einer Überversorgung und Vorhersagerisiko sowie eine intelligente, extrem hohe ZuverlĂ€ssigkeit von 24x7x365.

Vorteile von FishOS:

Reich an FunktionenFishOS ist standardmĂ€ĂŸig mit nutzlichen Funktionen ausgestattet, die Unternehmen benötigen, darunter automatisches Failover, Notfallwiederherstellung, reibungslose Upgrade-Pfade, Überwachung, Integration und Koexistenz mit der vorhandenen Infrastruktur.
Hoch skalierbarFishOS wĂ€chst mit Ihrer Cloud - es ist darauf ausgelegt ĂŒber 100.000 physische Server zu skalieren.
Maximiert die AuslastungMit den einzigartigen Technologien zum Tracken und Optimieren der Ressourcennutzung von Rechenzentren verdoppelt FishOS Ihre Server-Nutzungsrate und kann diese sogar verdreifachen.
Reduziert TCODurch die Möglichkeit, einen Einblick in die Funktionsweise Ihres Rechenzentrums zu erhalten, einen automatisierten Betrieb zu gewÀhrleisten und Workloads schnell aufzustellen und neu zu verteilen, erlaubt FishOS Server-ZustÀnde so verwalten, dass die Gesamtbetriebskosten um das 10-Fache reduziert werden.
Steigert den ROIMit FishOS können Sie die Auslastung Ihres Servers deutlich verbessern und so Ihre Hardware-Investitionen optimal nutzen.
Optimiert die CapExDa fĂŒr die Verarbeitung der Workloads weniger Server erforderlich sind, sinken die Anschaffungskosten fĂŒr Hardware und Einrichtungen.
Reibungslose IntegrationFishOS lĂ€sst sich gut in Ihre bestehende Infrastruktur neben Ihrer traditionellen Umgebung integrieren. Kein Ersetzen und keine lange Integrationszeit sind dafĂŒr erforderlich.

FishOS in HPC

Die private Cloud von OpenStack ermöglicht HPC-Einrichtungen, schnell und flexibel auf unterschiedliche Benutzeranforderungen zu reagieren. Die strengen Grenzen und Anforderungen von HPC stellen jedoch große Herausforderungen beim Betrieb einer privaten Cloud dar.

FishOS ĂŒberwindet diese Herausforderungen und bietet als Resultat niedrigere Betriebskosten und eine höhere Effizienz.

Herausforderungen:

  • Traditionelle HPC-Umgebungen schrĂ€nken die Betriebsumgebung der Benutzer ein und stellen eine hohe Akzeptanzschwelle fĂŒr neue Benutzer dar
  • Hardwarefehler wirken sich auf lang laufende Jobs aus und zwingen Benutzer, die Berechnungen neu zu starten oder einen mĂŒhsamen und fehleranfĂ€lligen Checkpointing-Prozess zu implementieren
  • Lange laufende Jobs mĂŒssen unterbrochen werden, damit dringende Jobs ausgefĂŒhrt werden können oder ein komplexer, fehleranfĂ€lliger Prozess zur Jobvorauszahlung erforderlich ist
  • Da die Ressourcen statisch auf der Grundlage der Reservierung verwaltet werden, stehen den Betreibern von HPC-Anlagen ungenutzte Ressourcen zur VerfĂŒgung, und die Benutzer haben eine lĂ€ngere Verzögerung bei den Berechnungsergebnissen
  • Betreiber von HPC-Anlagen können nur durch lange Konsultationsverfahren auf (Reservierungs-) Missbrauch reagieren
Lösungen:

  • Mit FishOS können HPC-Anlagen eine breite Palette von BenutzerbedĂŒrfnissen erfĂŒllen, ohne dass andere Nutzer davon betroffen sind - Benutzer haben ihre private Umgebung
  • FishOS ermöglicht eine dynamische Fehlerbehandlung, wodurch ZustĂ€nde langlaufender BerechnungsauftrĂ€ge erhalten bleiben, ohne dass langwierige und fehleranfĂ€llige Checkpointing-Prozesse erforderlich sind
  • FishOS ermöglicht eine flexible und zuverlĂ€ssige Arbeitsanweisung durch dynamisches Management von Rechenressourcen
  • FishOS ermöglicht einen höheren Durchsatz, indem die Anforderungen an dynamische Rechenressourcen optimal an die verfĂŒgbaren Ressourcen angepasst werden
  • FishOS eliminiert Missbrauch indem Ressourcen basierend auf der Live-Nutzung verwaltet werden

Unterschiede zu standard OpenStack

Es ist eine Sache OpenStack zum laufen zu bringen, eine völlig andere, es skalierbar, zuverlÀssig, effizient und kostenoptimiert zu betreiben. Die wichtigsten Werte von FishOS liegen in diesen entscheidenden Aspekten des Cloud-Betriebs.

Beim Verwalten von Ressourcen in einem Rechenzentrum geht es im Wesentlichen darum, das Problem der Live-Nachfrage im VerhĂ€ltnis zur RessourcenverfĂŒgbarkeit optimal zu lösen, RessourcenzustĂ€nde stĂ€ndig zu ĂŒbewachen und vorbeugende und korrigierende Maßnahmen rasch umzusetzen. FishOS kontrolliert die Resourcen und macht Entscheidungen anhand zahlreicher detaillierter Daten zur Ressourcennutzung, die sich auf die gesamte Cloud-Infrastruktur beziehen um so sicher zu stellen, dass Ihr OpenStack-Rechenzentrum hoch funktional und zu optimalen Kosten hoch verfĂŒgbar ist.



  • Höchste VerfĂŒgbarkeit: Jede Komponente von FishOS wurde so konzipiert, dass sie im HochverfĂŒgbarkeitsmodus betrieben werden kann, Redundanz bietet und die Betriebszeit des Dienstes voll gewĂ€hrleistet.
  • Das IntegritĂ€tsdiagnose-Framework verfolgt den Zustand der Host-Server und kann die Arbeitslast automatisch auf einen anderen Host migrieren.
  • Beste Bedienung: FishOS kann skalierbar mit verschiedenen Arten der Betriebsautomatisierung umgehen, fĂŒr die ansonsten ein Eingreifen des Admins erforderlich ist. Durch dieses Design kann ein einziger Betreiber ein Rechenzentrum mit Tausenden von Host-Servern verwalten.
  • Platziert VMs schnell und optimal in einem großen, sich dynamisch Ă€ndernden Rechenzentrum. VMs werden sofort auf dem richtigen Host platziert - zum ersten Mal und zu jeder Zeit. Das Warten auf den Start einer VM etfĂ€llt.
  • Automatische Neuverteilung der Arbeitslast der VMs in der gesamten Anlage, wĂ€hrend gleichzeitig die Anforderungen an die Arbeitslast erfĂŒllt werden, um eine optimale VM-Leistung sicherzustellen und die RechenzentrumskapazitĂ€t bei konstanten TCO zu maximieren.
  • Anzahl der Server wird an die GrĂ¶ĂŸe angepasst, um die Workload-Anforderungen zu erfĂŒllen, wodurch die Betriebskosten erheblich gesenkt und die CapEx fĂŒr Server und Anlagen optimiert werden.
  • Die Kenntnis der Struktur der Rechenzentren ermöglicht die BerĂŒcksichtigung des physischen Standorts eines Host-Servers beim Platzieren und Ausgleichen der Arbeitslast.
  • Reibungsloses Upgrade: Mit FishOS brauchen Sie sich keine Sorgen bei einem Versions-Upgrade von OpenStack zu machen. Ein sichere und reibungslose Upgrade-Pfad ist garantiert.

Voraussetzungen fĂŒr die Installation von Fish OS

Die hyperkonvergente Cloud-Plattform Fish OS kann schon ab einen Minimum von acht Systemen (Storagesysteme ausgenommen) eigesetzt werden.

Containervirtualisierung

Neben den klassischen virtuellen Maschinen lassen sich auf OpenStack auch die sogenanten Docker-Container und die Container-Orchestrierung ĂŒber Kubernetes betreiben. Beide Technologien haben inzwischen die moderne IT revolutioniert und finden immer mehr bei den Betreibern und Entwicklern an Beachtung.

Docker - Isolierung durch Anwendungs-Container

Mit der freien Software Docker lassen sich Anwendungen paketiert in Containern ablegen, die wiederum Prozesse darstellen und vom Rest des Systems isoliert sind. Die Anwendung wird hierbei aus kleinen Blöcke zusammenzusetzen und vertritt damit die moderne Architektur-AnsĂ€tze wie: unverĂ€nderliche Infrastrukturen, Microservices und verteilte Software. Der grĂ¶ĂŸte Wert von Docker liegt allerdings im Image-Format und in den Mechanismen diese zu verteilen. UnabhĂ€ngig vom Betriebsystem lassen sich somit Anwendungen nahtlos auf verschiedenen Umgebungen ausgfĂŒhren.

Docker

Kubernetes - Orchestrierung und Automatisierung von Container-Anwendungen

Auch wenn Kubernetes nicht als traditionelles all-inclusive PaaS (Platform as a Service) gilt, da es nicht direkt auf dem Hardware-Level operiert, ist es als eine einfache und erweiterbare Open-Source-Platform zu Verwaltung von Container-Workloads und -Dinsten, eine optimale Orchestrierungs-Lösung. Die Software bietet eine Container zentrierte Verwaltungsumgebung, welches von der Infrastruktur und vom Host-Dateisystem entkoppelt ist und ermöglicht leichtere und effizientere Erstellung von Container-Images z.B. im Vergleich zu den VM-Images. Mit Kubernetes sind die Betreiber in der Lage das Deployment, den Betrieb, Wartung und Skalierung von Container-basierten Anwendungen zu vereinfachen und zu automatisieren. Dabei werden Gruppen von Hosts, auf denen die Container laufen, in Clustern von physischen oder virtuellen Maschinen zusammengefasst und als Einheit verwaltet.

Kubernetes