12. Juni 2019

Säulen der effektiven Überwachung in einer Cloud Native Welt (Teil 2)

Säulen der effektiven Überwachung in einer Cloud Native Welt (Teil 2) (Titima Ongkantong / shutterstock.com)

Der erste Artikel zum Thema Monitoring in einer auf Microservices basierenden Umgebung hat bereits zwei der vier Überwachungsansätze, die in solchen Umgebungen verwendet werden, vorgestellt – das Black Box Monitoring und das White Box Monitoring. Bleiben noch die Säulen Zentralisierte Protokollierung und Request Tracing, die im Folgenden näher erläutert werden.

Die zentralisierte Protokollierung: Wertvolle Debugging Daten frei Haus

Das Thema der zentralisierten Protokollierung/ Logging ist kein neues. Schon vor über 20 Jahren gehörten Logmechanismen wie sysLog zum Standard. Warum also näher auf diesen alten Hut eingehen?

Cloud Native Anwendungen (Microservices/PODS) sind stateless und idempotent. Das bedeutet: keine Persistierung (State) von Daten – also auch keine Log Daten – innerhalb eines Microservices, und: „Container sterben“, wenn der Kubernetes® Controller dies benötigt. Danach entstehen sie, wie ein Phönix aus der Asche, vollkommen neu und haben eine neue Identität. Da Container und Server mit nativer Cloud Infrastruktur kurzlebig sind, kommt dem zentralen Logging eine hohe Bedeutung zu. Ob splunk, ELK oder der CANCOM Log Service auf Basis von GrayLog – es wird ein zentrales Logging mit Skalierfähigkeit benötigt. Der typische Cloud Ansatz: Starte klein und skaliere bei Bedarf.

Der Benefit einer zentralen Auswertung ist, dass sich alle System- und Anwendungsprotokolle an einem Ort befinden und so einfach und beliebig in Relation gesetzt werden können. Dies kann eine sehr leistungsstarke Lösung sein. Darüber hinaus können kritische Logmeldungen gefiltert, dem zentralen Alarmierungsstream zugeführt und so ein Event im zentralen Vorfallmanagement ausgelöst werden.

Ganzen Beitrag lesen

21. Mai 2019

Die Säulen der effektiven Überwachung in einer Cloud Native Welt (Teil 1)

Die Säulen der effektiven Überwachung in einer Cloud Native Welt (Teil 1) (sergeymansurov / shutterstock.com)

Der Designansatz in der Anwendungsentwicklung hin zu Microservices hat den Betrieb von Anwendungen grundlegend revolutioniert – im Bereich der Softwareerstellung ebenso wie im Bereich der Service Delivery. Und auch der Wechsel von monolithischen Anwendungen, die immer nur en bloc in Betrieb genommen oder aktualisiert werden konnten, hin zu dynamischen Architekturen basierend auf Microservices (Cloud Native Ansatz) ist Teil dieser Revolution. Dass von einem quartalsweisen Update-Zyklus zu mehrfach täglich durchgeführten Updates gewechselt wurde, ist nur eine der Folgen dieses Wandels. Die Aufteilung in x Micro-Anwendungen brachte dabei zusätzlich ganz neue Anforderungen für den Betrieb, insbesondere für das Monitoring und Logging mit sich.

CANCOM unterstützt seine Kunden beim Betrieb von hochverfügbaren Applikationen in Microservice Umgebungen auf Basis von Kubernetes® und übernimmt in diesem Rahmen die vollumfängliche Wartung der Container Plattform.

Keine traditionelle Überwachung in der Kubernetes® Welt

Durch den Einsatz von Kubernetes® und die damit verbundenen Autohealing- und Autoscaling-Eigenschaften sind Anwendungen im Allgemeinen stabiler und hochverfügbarer geworden. Im Gegenzug werden diese Architekturen mit zunehmender Komplexität unüberschaubarer, was auch für mögliche Fehlermodi gilt. Vor diesem Hintergrund ist es wichtiger denn je, eine effektive Überwachungsstrategie zu haben. In einer Kubernetes® Welt kann die traditionelle Überwachung, an die wir uns gewöhnt haben, nämlich einfach nicht mehr funktionieren. Eine umfängliche Überwachung setzt daher mindestens auf die folgenden Säulen:

  • Black Box Monitoring
  • White Box Monitoring (Metrikerfassung)
  • Zentralisierte Protokollierung
  • Request Tracing (Anfrageverfolgung)
Ganzen Beitrag lesen

06. Dezember 2018

Monitoring powered by CANCOM synaix

Monitoring powered by CANCOM synaix (Dean Drobot / shutterstock.com)

Der Ausfall einer Komponente eines IT-Systems oder gar des gesamten IT-Betriebs ist für Unternehmen ein Albtraumszenario – im schlimmsten Fall droht der Ausfall wichtiger Geschäftsprozesse – und das möchte wirklich niemand. In einer solchen Situation informiert gewöhnliches Monitoring den Kunden über einen Vorfall erst dann, wenn es bereits zu spät ist, nämlich nach einem (System-) Ausfall. Viel besser wäre es aber doch, wenn die Warnung bereits im Vorfeld rausgeht und darauf reagiert werden kann, oder?

Proaktiv und vollumfänglich

Hier kommt das proaktive Monitoring System von CANCOM synaix ins Spiel: Durch die Erhebung aller relevanten Daten und durch die aktive Abfrage dieser können Probleme im Vorhinein erkannt und angegangen werden. Dabei gehört Real-Time Monitoring genauso dazu wie Langzeit- oder Capacity, KPI und Performance Monitoring. Es werden also sowohl Daten in Echtzeit als auch über einen definierten Zeitraum sowie Leistungen und Ressourcen überwacht und ausgewertet.

Die durch das Monitoring Tool gewonnene Datensammlung enthält immer einen Datensatz mit vier Feldern. Diese zeigen an, wer (Host) und was (Item, Datenpunkt) überwacht wurde, welcher Wert für das Item gemessen wurde (Item Value, Messwert) und wann der letzte Wert gemessen wurde (Lastclock, Datum & Uhrzeit).

Sobald für ein Item neue Messdaten bestehen, werden die Ist-Werte mit definierten Soll-Werten verglichen und das Tool führt die sogenannten Trigger aus. Gleichen sich Ist- und Soll-Wert NICHT, erhält der Trigger eine von vier Problemstatusstufen. Andernfalls bleibt der Zustand „OK“ bestehen. Wenn der Trigger eine Statusänderung erfährt, d.h. wenn vorab definierte Schwellenwerte erreicht wurden, führt das Monitoring Tool konfigurierte Aktionen bzw. Eskalationsstufen aus, z.B. verschickt es Benachrichtigungen an die verantwortlichen Personen, so dass diese noch vor dem eigentlichen Problem reagieren oder dieses gegebenenfalls eskalieren können. Ganzen Beitrag lesen