Hauptmenü ausklappen

Die Web Service Factory setzt auf Docker

Die generelle Architektur der Web Service Factory (WSF) wurde überarbeitet und sowohl Plattform als auch Skalierung auf aktuelle Docker-Technik gebracht. Unsere Servicekomponenten und Lösungen, wie IoT-Plattform, Marktplätze, Audit/Logging, Storage, Payment und UserAdmin/IAM stehen damit nun auch als Docker-Container zur Verfügung und wurden auf die Bedürfnisse der Skalierbarkeit angepasst.

WSF setzt auf Docker

Container stellen bereits seit einiger Zeit die IT-Architekturen auf neue Beine. Viele sehen die Containerisation als einen der bedeutendsten Umbrüche in der IT-Welt seit Einführung der Hardware-Virtualisierung mit virtuellen Maschinen (VMs). Diese neue Variante der Virtualisierung profitiert vom Trend hin zu Microservices und weg von monolithischen Applikationen. StoneOne hat auf diesen Trend reagiert und die WSF-Architektur auf Docker und Docker Tools bspw. zur Skalierung und Lastverteilung umgestellt. Mit Beginn des neuen Jahres setzt die Web Service Factory nun in vollem Umfang auf Docker. Dies betrifft sowohl unsere digitalen Plattformen und Marktplätze, als auch  Tools und Module wie Audit/Logging, Storage, Payment und UserAdmin/IAM. 

Damit ist es nun auch möglich, etwa mehrere Instanzen der IoT-Komponente hochzufahren, um auch hohe Lastanforderungen abdecken zu können. Anfragen sowie Businesslogik werden hierbei automatisch zwischen allen verfügbaren Instanzen verteilt, um durchgehend Stabilität und die schnellstmögliche Antwortzeit zu gewährleisten.

Durch die Dockerisierung der Komponenten wird auch eine schnellere Einrichtung der Web Service Factory ermöglicht. Abhängigkeiten werden direkt im Image definiert und dem Container automatisch zur Verfügung gestellt. Werden zwei separate Instanzen eines Services auf der gleichen Maschine benötigt, kann man diese allein durch die Konfiguration des Docker-Kommandos mehrfach und isoliert voneinander starten. Definiert man einen Docker Stack, können über ein Kommando (ggf. auch automatisiert, zum Beispiel für Continuous Delivery) ein ganzer Service-Komplex auf einem Maschinen-Cluster deployed werden, ohne die einzelnen Services zeitaufwendig konfigurieren und manuell starten zu müssen. Alternativ kann an dieser Stelle unter Nutzung der gleichen Docker-Images auch Kubernetes für das Deployment verwendet werden.

Mit unserem Standard-Docker-Stack ist es durch Nutzung verschiedener vorkonfigurierter Third-Party-Tools (z.B. cAdvisor, Prometheus, Grafana) möglich, das Verhalten der Applikation zu überwachen und über hohe Lasten oder Ausfälle informiert zu werden, bzw. anhand von Regeln die betroffenen Services automatisch hoch- oder runter zu skalieren.

Auch Frontend-seitig können wir von Neuerungen berichten – nach dem Umstieg auf das Open Source Framework Vue am Anfang letzten Jahres wächst unsere Komponentenbibliothek weiter und kann sich immer mehr in unseren Projekten etablieren. Unser Fokus liegt hierbei vor allem auf Wiederverwendbarkeit, Rapid Prototyping und Individualisierbarkeit – sowohl in Hinsicht auf das Theming als auch die Datenmodelle und hinterlegte Logik.

In ersten Projekten hat sich die neue Architektur bereits bewährt, das Aufsetzen eines Systems und die Anpassung von Komponenten oder Lösungen ging wesentlich schneller. Die UI-Gestaltung mit Vue ist gegenüber früher 50% rascher bei zugleich kompakterem und besserem Code.

 

Weitere Kategorien:
  • Allgemein
  • News
  • Software as a Service
Tags:
ContainerisationDockerFramework VueKomponentenbibliothekPrototypingServicekomponentenWSF
X