Hauptmenü ausklappen

Mehr Überblick durch übergreifendes (Cloud) Monitoring

Im IT-Monitoring besteht die Herausforderung, verschiedene, komplexe IT-Services mit heterogenen System-Landschaften zu konsolidieren. Das übergreifende IT-Monitoring von verschiedenen Servern, Großrechnern, Datenbanken, Netzen und Applikationen kann dabei durchaus komplex ausfallen – in der Regel stellt jedes Rechenzentrum und jeder Service seine eigenen Daten für das Monitoring bereit, sodass ein Operator gerne mal an die 50 bis 100 unterschiedliche Monitore überwachen muss.

Diese werden in der Regel als kleine Apps dargestellt, welche den Status zu den jeweils gewünschten Informationen anzeigen. Dabei gilt: je höher die Anzahl der Monitore und je komplexer deren Informationsspektrum ausfällt, desto schwieriger wird es für einen Operator, zeitnah wesentliche oder gar kritische Werte zu erkennen und entsprechend auf diese zu reagieren.

Mit einer intelligenten Verteilungstechnik können die Daten einerseits an beliebig vielen Rechenzentren und Orte ermittelt und an andere Monitoring-Systeme übertragen werden. Die Informationen werden in einer einheitlichen Darstellung zusammengeführt und je nach Status zur aktuellen Laufzeit geordnet. Besonders interessante Ereignisse werden dabei automatisch nach oben sortiert und können je nach Art des Ereignisses in unterschiedlicher Weise – beispielsweise als Ampel – dargestellt werden. Das Monitoring kann so wesentlich transparenter abgebildet und eine schnellere Fehlersortierung und -behebung umgesetzt werden.

Selbstverständlich gibt es viele Tools mit Aggregationsfunktion aus dem Open Source- oder Standard-Bereich, die in definierten Szenarien eine geeignete Lösung darstellen. Gerade wenn man seine Applikationen bei nur einem Rechenzentrum hostet, passt eine solche Lösung sehr gut. Was aber passiert, wenn beispielsweise ein Anbieter einen anderen Anbieter mit ganz anderen Monitoring-Standards aufkauft? Die Umstellung auf ein einheitliches Monitoring ist in der Regel sehr aufwändig, so dass auf absehbare Zeit parallele Strukturen bestehen bleiben, die eine Vergleichbarkeit der gewonnenen Daten erschweren.

Neben den Open Source- und Standard-Tools gibt auch sehr weitreichende und komplexe Monitoring-Anwendungen. Mit deren steigender Komplexität erhöht sich jedoch auch der Schwierigkeitsgrad in der Schnittstellenentwicklung und der Erstellung geeigneter Agents für jede einzelne Überwachungsfunktionen. Ebenso fällt der Kostenaspekt solcher Services recht hoch aus. Für einige Anwendungsszenarien ist eine solche Komplexität jedoch durchaus nötig, sodass diese Lösungen für einige Unternehmen unverzichtbar sind.

Doch für alle Unternehmen, die auf komplexe Monitoring-Lösungen lediglich deswegen angewiesen sind, weil nur diese die für eine Auswertung benötigten Teilbereiche abbilden können (weil gewünschte Werte beispielsweise nicht bei den Open Source- oder Standard-Tools abgefragt werden), stellt sich die Frage, ob ein individuell entwickeltes, integrierendes Monitoring-System nicht doch effektiver und auch kostengünstiger ist.

Die Web Service Factory (WSF) von StoneOne bietet hierzu beispielsweise eine geeignete Plattform- und Komponenten-Technologie an, bei der das Monitoring nicht nur auf die wesentlichen Fragestellungen optimiert werden kann. Auch die Aggregation vergleichbarer Werte wird durch intelligente Regelwerke realisiert. Dadurch kann eine neue Betrachtungsweise konsolidierter Werte („Kennzahlen“) abgeleitet werden.

Für jede Fragestellung können so Monitor-Gruppen gebildet werden, deren Kennzahlen durch eine übersichtliche und einheitliche Darstellung schnell mit einander vergleichbar sind. In der Regel ist das ursprüngliche Rechenwerk zur Ermittlung vergleichbarer Kennzahlen dabei für jedes Rechenzentrum ein anderes, da jeweils auf unterschiedlicher technischer Grundlage aufgesetzt wird.

Diese Technik spielt beispielsweise bei dem Projekt Government GreenCloud Laboratory (kurz: GGC-Lab) eine wesentliche Rolle. Um den Aspekt des Monitorings an dieser Stelle besser verdeutlichen zu können, zuvor einige Sätze zum Projekt selbst:

Das GGC-Lab untersuchte erfolgreich Möglichkeiten zur Steigerung der Energieeffizienz und der Senkung von Energiekosten in Rechenzentren. Die IT-Ressourcen einzelner Rechenzentren wurden dort übergreifend gebündelt und können nun dynamisch bezogen werden. Dadurch wurde ein Abbau von Kapazitäten im Einzelfall realisierbar und eine Senkung des Energiebedarfs möglich. Ein dynamisches Lastenmanagement gewährleistete zudem, dass die Auslastung innerhalb eines Rechenzentrums von 30% auf 60% oder mehr erhöht wird. So ist es möglich, Dienstausführungen beeinflusst durch die Auslastung, den Strompreis oder der Energieeffizienz innerhalb eines Rechenzentrumverbundes zu verteilen.

Bildschirmfoto_2014-10-08_um_14.38.32

Um dieses Unterfangen zu realisieren, wurde unter anderem mit einem sehr spezifisch ausgeprägten Monitoring-System gearbeitet, welches verschiedene, anerkannte Energieeffizienz-Maßstäbe der einzelnen Rechenzentren berücksichtigt. So liefert Rechenzentrum A beispielsweise den reinen Energieverbrauch  und Rechenzentrum B das gemessene Delta zwischen Zu- und Abluft. Bei Rechenzentrum B müssen also weitere Rückschlüsse auf den tatsächlichen Energieverbrauch gezogen werden, die im Regelfall auf Erfahrungen oder auf weitere zugeführte Werte basieren. Der Rechenweg für die Ermittlung eines einheitlichen und vergleichbaren Kennwerts bei Rechenzentren fällt also jeweils unterschiedlich aus. Je mehr Einzelmesswerte ein Rechenzentrum misst, desto genauer kann der Kennwert ermittelt werden. Je weniger, desto unschärfer wird natürlich das errechnete Ergebnis, da dieses zunehmend mit Erfahrungswerten gespeist wird.

Die abgeleiteten Kennwerte waren in diesem konkreten Fall auf Energieverbrauch und -Effizienz abgestimmt, sind jedoch nicht darauf beschränkt.

Das Monitoring des GGC-Lab visualisiert unterschiedliche Kennzahlen so, dass eine Übersicht und Vergleichbarkeit der einzelnen Standorte möglich wird, obwohl sie sehr unterschiedliche konkrete Messwerte liefern. Das erleichtert sowohl die Reaktion auf dynamische Lastspitzen als auch die langfristige Planung z.B. für Wartungsintervalle oder Konsolidierungsmaßnahmen.

An diesem Beispiel sieht man, dass ein individuelles Monitoring durchaus seine Vorteile haben kann. Die Auswahl des passenden Tools sollte jedoch immer nach den individuellen Unternehmensanforderungen getroffen werden. Gerade die Unternehmen, die lediglich mit einem der umfangreicheren Monitoring-Systeme arbeiten, um einzelne Teilbereiche zu überprüfen, sollten sich Gedanken über die Integration eines individuell entwickelten Tools machen. Die Übersichtlichkeit und der Charme, sich keine Sorgen um die komplizierte Integration von Agents, Konnektoren und Schnittstellen machen zu müssen, spricht dabei aber für sich.

Weitere Kategorien:
  • Anwenderbericht
  • IT
  • Software as a Service
  • Unternehmenssteuerung
Tags:
AnwenderberichtGGC-LabKosten reduzierenMonitoringPaaSSaaS

Kommentare 0

Kommentieren Sie als erstes!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *