Cloud Computing: Bitte keine Hysterie!

Thorsten Meudt, Chief Marketing Officer, Compart AG

Thorsten Meudt, Chief Marketing Officer, Compart AG

Manch einer fragt sich: Cloud Computing im Output Management – geht das überhaupt? Die Antwort darauf erinnert an die beliebten Witze der Radio-Eriwan-Reihe: Im Prinzip ja, aber….

Doch Ironie beiseite: Die Frage, ob sich die Bereitstellung von Diensten der Dokumentenverarbeitung durch externe Dienstleister bzw. separate Server lohnt, lässt sich nicht eindeutig beantworten. Es kommt auf das Anwendungsszenario an, denn nicht alle Prozesse eignen sich dafür.

Denkbar wäre beispielsweise, Dienste für eine ad-hoc-Konvertierung kleinerer Dokumentenmengen über eine Cloud zu beziehen; ob nun im eigenen Rechenzentrum oder bei einem darauf spezialisierten Service Provider, sei erst einmal dahin gestellt. Der Unterschied zwischen beiden besteht im Wesentlichen erst einmal nur im Standort. Mittlerweile gibt es Mischformen (Hybride Clouds), bei denen beispielsweise Grundlasten im eigenen Rechenzentrum abgedeckt und nur sogenannte Spitzenlasten von Externen übernommen werden.

Typisches Beispiel hierfür sind die Rechnungsläufe, die in einer bestimmten Frist durchgeführt werden müssen und Unternehmen zeitlich unter Druck setzen. Solche „Jobs“ könnten in einer elastischen Cloud womöglich besser erledigt werden, als durch die Vorhaltung von dedizierter Hardware im eigenen Unternehmen:

Man „bucht“ einfach die zusätzlich benötigten Ressourcen zu und gibt sie wieder ab, wenn die „Lastspitze“ vorbei ist. Dieser Prozess läuft voll automatisiert: Das Cloud-System erkennt automatisch, wann die Lastspitzen vorbei sind und reagiert entsprechend.

Das funktioniert übrigens auch in einer privaten Cloud - vorausgesetzt, sie hat eine kritische Masse an zu verarbeitenden Dokumenten und ist nicht dauerhaft durch eine mehr oder weniger konstante Grundlast „belegt“.

Auch sogenannte Upload- und Onboarding-Portale von Druckdienstleistern sind prädestiniert für die Public Cloud - zumal die Endkunden ihre Dokumente in einem solchen Szenario ja ohnehin über das Internet in verschlüsselter Form übertragen. Das eigene Rechenzentrum hätten diese Dokumente also ganz bewusst verlassen. Die Nachfrage nach solchen Portalen wächst jedenfalls.

Andererseits: Prozesse wie beispielsweise die Verarbeitung hochvolumiger Spool-Files über das Internet eignen sich weniger für die Public Cloud. Zu groß wäre in diesem Fall die Latenz des Webs, um eine zügige Verarbeitung zu garantieren.

Den Anschluss nicht verpassen…

Cloud Computing hat im Output-Management seine Berechtigung. Deshalb ist es sinnvoll, bei der Konzeption und Auswahl einer neuen Dokumentenlösung diese auch gleich auf ihre Cloud-Fähigkeit hin abzuklopfen – auch wenn man sie zunächst in einer konventionellen Umgebung betreiben will. Sich alle Optionen offenzuhalten ist allemal besser als später technologisch in einer Sackgasse zu landen.

Wie könnte also Cloud Computing konkret funktionieren? Hier einige Anregungen:

  • Plattformunabhängigkeit („Run Anywhere“): eine wichtige Voraussetzung, um sich von Hardware und Betriebssystemen unabhängiger zu machen.
  • Unterstützung des API-First-Prinzips (Application Programming Interface): Bereitstellung von dokumentierten, stabilen und einfach zu handhabenden Schnittstellen (z. B. REST)

Der Vorteil hier: Drittsysteme (z. B. für Datenquellen, Zielplattformen, moderne elektronische Versandkanäle, Monitoring und Auditing) lassen sich problemlos anbinden. Relevant könnte das zum Beispiel sein für die nahtlose Integration von bestandsführenden Systemen zur Abrechnung. Besonders spannend wird es, wenn eine Applikation ohnehin über die Cloud bereitgestellt wird, beispielsweise als Upload-Portal eines Dienstleisters.

  • Deployment-Methoden: Virtuelle Server und Container wie beispielsweise Docker gewinnen zunehmend an Bedeutung, da sie die Bereitstellung und Wartung von Applikationen wesentlich erleichtern. Gerade Container haben die Hype-Phase überzogener Erwartungen hinter sich gelassen und gehören inzwischen zum Betriebsalltag vieler Unternehmen.
  • Querverbindungen: Container beispielsweise vereinfachen das Bereitstellen von Diensten/Applikationen über die Cloud erheblich.
  • Betrachtung möglicher Plattformen: Amazon Web Services ist sicher in aller Munde. Aber es gibt interessante Alternativen, die den leichten Übergang zwischen privater und öffentlicher Cloud ermöglichen bzw. die mit allgemein bekannten Benutzerschnittstellen arbeiten. Man denke nur an Azure Stack von Microsoft, mit dessen sich Azure-Cloud-Dienste im eigenen Rechenzentrum betreiben lassen. Aber auch die quelloffene Lösung OpenStack trifft man sowohl im privaten als auch im öffentlichen Cloud Computing.

….aber auch keine Schnellschüsse!

Tatsache ist: Vor allem im Bereich Konvertierung und Validierung von Dokumenten steigt die Nachfrage nach entsprechenden Webservices. Cloud ist also sehr konkret, wenn auch mit regionalen Unterschieden, beispielsweise zwischen Europa und Nordamerika.

Und was ist mit dem Datenschutz, dem Hauptargument der „Contra-Cloud-Fraktion“? Nun – er ist zunächst kein unüberwindbares Hindernis mehr. Hier haben die großen Service Provider aus den Fehlern der Vergangenheit gelernt und die rechtlichen Rahmenbedingungen immer besser im Griff. Das ist auch der Grund, warum selbst geschäftskritische Lösungen wie ein CRM- oder ein ERP-System zunehmend über die Cloud bezogen werden. Mehr als 150.000 Unternehmen nutzen mittlerweile salesforce.com, und auch MS Office 365 erfreut sich zunehmender Beliebtheit.

Bei privaten Clouds spielt der Datenschutz ohnehin keine besondere Rolle. Jedenfalls nicht mehr als bei klassischen hardwarezentrierten Architekturen. Im Gegenteil: Mit Techniken wie Mikrosegmentierung von virtuellen Netzwerken lassen sich zusätzliche Sicherheitsmechanismen installieren.

Klar ist aber auch: Es gibt kein Grund zur Hektik, schon gar nicht bei stabil gewachsenen Bestandsumgebungen. Migrationen nur um der Cloud willen jedenfalls haben keinen Sinn. Anders die Situation bei Neuprojekten. Hier könnte es durchaus sinnvoll sein, aus Zeit- und Ressourcengründen (schnellere Einführung eines neuen Systems) von vornherein auf die Cloud zu setzen – ob nun in Eigenregie oder ausgelagert. Vor allem dann, wenn im Unternehmen bereits eine Private-Cloud-Infrastruktur vorhanden ist oder zumindest das notwendige Know-how dafür.

Wie auch immer: In jedem Fall sollte man auf einen Cloud-erfahrenen Partner setzen, für den Webtechnologien, Modularität und API-First-Ansatz keine böhmischen Dörfer sind.

Compart beispielsweise hat mit DocBridge Impress für das universelle Dokumentendesign und DocBridge AuditTrack zur Überwachung und Auditierung kompletter Ökosysteme zwei Cloud-fähige Applikationen entwickelt, die als Referenzimplementierungen erfolgreich bei Unternehmen unterschiedlicher Branchen laufen. Der Nutzen: Durch das Verwenden von standardisierten Schnittstellen (z. B. REST, Webservices) lassen sich nicht nur Lösungen von Compart, sondern auch eine Vielzahl von Drittprodukten (Hard- und Software) über ein einheitliches Benutzerinterface überwachen und auswerten.

Hintergrund


Cloud Computing
(deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstellung von IT-Infrastruktur wie beispielsweise Speicher-platz, Rechenleistung oder Anwendungssoftware als Dienstleistung über das Internet oder über einen separaten (nicht zwingend webbasiert) Server.
Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT-Infrastrukturen über ein Rechnernetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.
Angebot und Nutzung dieser Dienstleistungen erfolgen dabei aus-schließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spannweite der im Rahmen des Cloud Computing angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Platt-formen und Software. (Wikipedia)

Was sind die charakteristischen Merkmale einer Cloud-Lösung?

  • „on demand“: Die Applikation/der Dienst wird bei Bedarf automatisiert bereitgestellt.
  • Geräteunabhängigkeit: Die Applikation/der Dienst sollte idealer-weise in einem Browser bzw. über ein Netzwerk verfügbar sein.
  • Bildung von Ressourcenpools: CPU-Leistung, Speicherplatz und Bandbreite werden bedarfsgerecht aus einem virtuellen Pool bezogen statt spezielle Hardware dafür vorzuhalten.
  • Elastizität: Bei schwankendem Leistungsbedarf („Lastspitzen“) werden zusätzliche Ressourcen aus dem Pool und anschließend an diesen zurückgegeben.
  • Exakte Messung und typischerweise auch Abrechnung des Ressourcenkonsums
Mit der Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir Cookies verwenden. Weiter