Um Spitzentechnologie zu liefern haben wir uns darauf spezialisiert, unsere Architektur mit Deep Learning Algorithmen aufzubauen. Durch das Sammeln unzähliger Daten können wir Anomalien frühzeitig erkennen und Fehler vermeiden, die anderenfalls aufgekommen wären.
Erfahre mehr hierzu von unserem CEO Henrik.
„Wir übersetzen die hohe Komplexität eines Rechenzentrums (resultierend aus der Lage, Stromversorgung, Kühlung, Speichersysteme, Rechnerkapazitäten, Netzwerkanbindung, usw.) in eine benutzerfreundliche Oberfläche, auf deren Basis der Anwender jede Cloud-Infrastruktur komfortabel und intuitiv konfigurieren und starten kann. In unserer Architektur betreiben wir nicht nur verteilte und hochsichere Data Storages, sondern kümmern uns auch um den äußerst komplexen Softwarebetrieb von Datenbanken, Load Balancern, Key-Value-Stores und Container-Virtualisierung. All dies geschieht im vollautomatisierten Betrieb mit einem kompromisslosen Versprechen: 100 Prozent Verfügbarkeit.
Dieses Versprechen lässt sich mit herkömmlichen Methoden eines reaktiv agierenden IT-Betriebs nicht einhalten. Reaktiver Betrieb bedeutet, dass zuerst ein Fehler auftreten muss, bevor dieser dann so schnell wie möglich behoben wird. Um unser Versprechen zu halten, müssen wir deshalb präventiv handeln können.
Wir haben uns darauf spezialisiert, bestimmte Signale in der IT-Landschaft zu interpretieren und bei drohenden Störungen präventiv einzugreifen. Wir werten eine Vielzahl von Hard- und Softwaresensoren mittels zentraler Algorithmen in Echtzeit aus.
In den letzten Jahren haben wir uns darauf spezialisiert, bestimmte Signale in der IT-Landschaft zu interpretieren und bei drohenden Störungen präventiv einzugreifen. Dabei werten wir eine Vielzahl von Hard- und Softwaresensoren mittels zentraler Algorithmen in Echtzeit aus. Wir verwenden hauptsächlich Daten, die bereits während des Betriebs erzeugt werden (Umgebungstemperaturen, Spannungspegel, Latenzzeiten, Stromverbrauch und sogar das Verhalten von Softwarekomponenten) und die es uns ermöglichen, Anomalien frühzeitig zu erkennen.
Durch die konsequente Fokussierung unserer Technologie auf datenbasierte Entscheidungen und die kontinuierliche Verbesserung unserer selbstlernenden Algorithmen, können wir heute mehr als neun von zehn Ereignissen in einer überdurchschnittlich komplexen Cloud-Infrastruktur richtig interpretieren.
Neben der höheren Verfügbarkeit unserer Services ergeben sich für uns als Betreiber weitere Vorteile. So konnten wir beispielsweise ein so genanntes dynamisches Kapazitätsmanagement einrichten, das uns hilft, unsere Ressourcen wesentlich effizienter zu nutzen. CPU-Knoten werden heruntergefahren, wenn keine Last erwartet wird, und rechtzeitig wieder gestartet, wenn eine dynamische Systemlast von einem oder mehreren Kunden erwartet wird. Software-Updates werden so weitgehend autonom installiert. Ein eventuell notwendiger Neustart einzelner Komponenten wird dabei algorithmisch geplant und durchgeführt. Durch die Möglichkeit, die von unseren Kunden genutzte Infrastruktur im laufenden Betrieb auf andere CPU-Knoten zu übertragen, ist ein solches Update für den Kunden nicht einmal mehr spürbar und wird somit zur Routineaktivität.“
Registriere dich und erstelle deinen ersten Cloud Server in wenigen Sekunden