Freitag, 15. Juli 2011

Cloud Computing - der finanzielle Aspekt

Es ist leicht gesagt: Cloud Computing spare Kosten. Die Aussage gilt für bestimmte Einsatzbereiche. Der Teufel liegt im Detail. Es gibt viele Unternehmen, die derzeit prüfen, ob sie Cloud Computing nutzen sollen. Erstaunlicherweise kommt es nicht zum scharenweisen überlaufen. Viele Ergreifen auch die Flucht. Das ist verständlich. Glaubt man. Schließlich gibt es doch diese fürchterlichen Sicherheitsprobleme in der Cloud! Bullshit!! Die Sicherheit in der Cloud ist generell höher als bei der individuellen IT. Es ist hier nicht das Thema aber es gibt genügend andere Beiträge, die das belegen. Nun gut. es ist also nicht ein Mangel an Sicherheit. Trotzdem werden die Cloud-Anbieter nicht überrannt. Es läuft, aber dem Medienhype folgt nicht im gleichen Maße ein Infrastruktur Hype. Glücklicherweise haben die Betreiber solcher Clouds aus früheren Hypes gelernt und bauen nicht heute schon die Kapazitäten auf, die erst in drei Jahren gebraucht werden - wenn man mal nicht die Voraussagen einzelner Marktforschungsinstitute nimmt. Also ist es die Kontrolle über die eigenen Daten und die Anwendungen. Auch das ist Bullshit. Es wäre schon rechtlich gar nicht zu zulässig, die durchaus nicht von allen als unangenehm empfundene Abgabe der Haftung für die eigenen Contents abzugeben. Dann kommt das Totschlag Argument, dass man doch immer auf eine Netzwerkverbindung angewiesen sei. Das zeigt die erstaunlichste Argumentation. Denn das ist vor allem bei geschäftskritischen Anwendungen bedenklich. Doch Datev und andere Anbieter bieten von jeher Anwendungen remote an. Der Erfolg kann als durchschlagend angesehen werden. Dann bleibt noch das Kostenargument. Jaja, jetzt haben Sie mich. Die Kosten können doch gar nicht günstiger sein, wenn ich selber die Server und die Drucker etc. virtualisiere. Denn das ist das, was ein Cloud Anbieter auch machen muß. Aber auch das stimmt nicht. Mit cloud Computing wird Outsourcing zwar endgültig zum Commodity - zur standardisierten Auslagerung von selbstgenutzten Anwendungen. Aber es gibt dennoch ein paar Unterschiede zu Waschmitteln - und ein paar weitere ebenso relevante Parallelen.

Der technische Kick des Cloud Computing ist die Trennung der Anwendungsschicht von der Hardwareschicht. Für die Anwendung wird also die eigene Betriebsbasis verschwommen, nebulös - cloudy. Sie nutzt gewissermassen die Rechnerleistungen aus der Steckdose. Wir wissen auch nicht, welches Kraftwerk gerade den Strom liefert, wenn wir ein Gerät anschließen. Damit das in stets gleichbleibender Qualität funktioniert, sind hochspezialisierte Experten nötig, die sich ein Unternehmen nie selber gönnen würde. Selbst mit einem Gewinnaufschlag bleibt das deutlich günstiger, als wenn man das selber macht.

Da hilft auch das Argument nicht, dass man einen derartig hohen Standard nicht braucht. Doch dann vergleiche ich Äpfel mit Birnen. Und der hohe Standard wird gebraucht. jeder von uns hat die Erwartung, dass er seine Software immer und sofort nutzen kann. Das bedeutet, dass Datensicherheit, Betriebssicherheit und Performanz auf höchsten Niveau gebraucht werden. QED!

Drücken wir uns nicht um die Erkenntnis herum: die Trennung von Applikation und Hardware heißt auch, dass die Spezialisten beide Ebenen für sich optimieren können. Und darin liegt das lohnende. die Integration der Anwendungen scheitert zumindest weder an den beteiligten Anwendungen noch an der zugrunde liegende Hardware, sondern nur an der Kompetenz der Experten. Das ist jedoch wiederum ein Argument für den Einsatz von Cloud Computing. Denn auch bei klassischem Anwendungsbetrieb im Unternehmen habe ich das die Herausforderungen, die Anwendungen und Datenbestände zu integrieren. Wir haben also nicht nur ein demographisches Integrationsproblem. Man muß sich nur einmal eine klassische SAP-Landschaft anschauen.

Donnerstag, 2. Juni 2011

Interoperabilität kommt gleich nach Sicherheit

Wer völlig offen ist kann nicht ganz dicht sein. Dieser Sinnspruch bezieht sich offensichtlich nicht nur auf den Geisteszustand von Menschen, die wahllos sich jedem Trend hingeben. Das ist so,als wenn man versucht in der Zeitung jeden Artikel zu lesen. Das ist nicht nötig und auch nicht sinnvoll. Die Zeitung selber ist nur eine Auswahl von Artikeln. Wichtig ist die Fähigkeit zu entscheiden, welche lesenswert sind. Dann muss immer noch priorisiert werden. Was man auch als Erstes lernen muss. Der Spruch beschreibt schon lange den Zwiespalt, in dem Nutzer des Internet stecken: Lassen sie alle Informationen zu werden sie überflutet und ausgelutscht zu werden.

Konzentration auf das Wesentliche

Also ist die oberste Priorität die Schließung aller Quellen, die nicht dringend gebraucht werden. Das gilt auch für Anwendungen. Hier muß sich der Benutzer vor der Anwendung schützen. Und er muß sich vor sich selber schützen. Mit der Installation werden weitere Sicherheitsstufen benötigt. Das gilt nicht nur Anwendungen, die aus dem Internet geladen werden. Das gilt auch für Browser Anwendungen. Fast alle komfortable Anwendungen werden heute teilweise auf dem Client ausgeführt. Wer weiß schon, was da passiert.

Softwareanbieter sind fein raus

Die Hersteller wissen das besser als die Anwender. Sie lassen den Zugriff von anderen Anwendungen am liebsten nicht zu. Das ist konsequent und unpraktisch: für den Anwender. Wichtig wäre eine Kontrolle der Offenheit durch den Anwender. Offenheit zwischen Anwendung und Anwender aber auch Offenheit zwischen mehreren Anwendungen des Anwenders. Kommen diese von unterschiedlichen Anbietern sind die Chancen gering. Oder es kostet große Anstrengungen, die Verbindung zwischen den Anwendungen herzustellen. Natürlich sehen die Anbieter das anders. Doch wie sehen die Schnittstellen aus. Eine ASCII-Schnittstelle gab es schon in den 70ern. Eine CSV-Schnittstelle in den 80ern. Wer sich damit auskennt hat gewonnen. XML führt ein proprietäres Schattendasein. Es ist ein Mittel, den Nutzer in Anwendungswelten zu zwingen. Nämlich die, die die XML Tags auch verstehen. Und dann kommt das anwendungsinterne Mapping.

Mapping kostet Effizienz

Interoperabilität ist also grundsätzlich möglich. Aber es ist beliebig aufwändig. Mit jeder neuen Version, weilweise schon bei einem Releasewechsel muß sich der Anwender diesem Thema neu widmen. Der Nutzen einer schnellen Anmeldung in einer Cloudapplikation ist groß. Er wird aber womöglich durch den Aufwand, Interoperablität mit den bestehenden Anwendungen herzustellen, wieder völlig zunicht gemacht.

Sicherheit ist nicht alles

Kümmern wir uns also zum Wohle des Anwenders nicht nur um die Sicherheit. Kümmern wir uns auch um die Interoperabilität. Gerade die Zielgruppen für Cloudanwendungen sind diejenigen, die am wenigsten in der Lage sind, sich selber um Interoperabilität zu kümmern.

Interoperabilität heißt nicht, den Outlook Kontakteordner zu importieren

Einige social communities bieten den Nutzern die Gelegenheit, Adressen des Anwender einfach zu importieren. Voraussetzung ist, er nutzt eines der gängigen Programme. Das ist akzeptierter Datenklau, den sich die Personen im Kontaktordner verbieten sollten. Interoperabilität bedeutet die Zusammenarbeit von verschiedenen Anwendungen bei der Durchführung einer Aufgabe. Das wer bietet das? Das ist auch nicht einfach. Bietet jedoch den größten Nutzen. Fangen wir mit einfacher Belegverarbeitung an. Vermeidung der Fehler bei der telefonischen Übermittlung. oder es lassen sich Fehler bei der Übertragung vom Papier auf Anwendungsmaske vermeiden.

Interoperabilität heisst Prozessoptimierung

Der Erfolg von Software as a Service besteht in erfolgreicher Integration dieser Anwendungen. Und genauso wichtig ist die Integration mit den unternehmensindividuellen Anwendungen. Die muss sicher sein. Damit ist Sicherheit immer noch erste Priorität und die zweite ist die Interoperabilität.

Donnerstag, 10. März 2011

Risiken des Cloud Computing

Einige Blogs früher habe ich mich darüber aufgeregt, dass wir nicht jedesmal wenn wir von Cloud Computing reden erst einmal erklären sollten, um was es sich handelt. Schließlich seien wir schon seit Jahren mit dem Thema vertraut. Die diesjährige CEBIT hat mich da allerdings eines besseren belehrt. Die Gespräche haben gezeigt: viele gehen auf die Messe, ohne das Motto der Messe zu kennen. Die, die es kennen, wissen deshalb aber auch noch nicht mehr damit anzufangen. Sicherlich war zu spüren, dass sich viele mit der Bedeutung, die Cloud Computing für sie haben kann, beschäftigten. Aber richtungsweisend war die CEBIT hier nicht. Mir kam es vor wie ein Wegweiser, der in alle Richtungen zeigt. Alle Wege führten im römischen Reich nach Rom, bei der Grand Nation nach Paris und eben in der IT in die Cloud? Und welcher Weg ist dann der beste, sicherste kürzeste.

Sorglose IT-Leiter

Ein IT-Leiter, mit dem ich sprach, wollte mir erklären, dass er doch wahrhaftig in die Cloud wollte. Das wäre das, was er auf der CEBIT erforschen wollte auch wenn er für dieses Jahr noch kein Budget geplant hat. Ah ha, Cloud Computing ist also ein Investment. Ja, ob er denn selber Cloud Anbieter werden wolle. Nein natürlich nicht, er wolle die günstigsten Angebot testen. Er war schwer erstaunt, als ich ihm sagte, dass einer der großen Vorteile con Cloud Computing ist, dass man kein Budget dafür braucht. Man braucht Zeit, OK, und man zahlt auch etwas und das sollte man auch bereit sein, bezahlen zu können, sonst hat es sich nämlich relativ schnell mit der Cloud wieder. Aber Investitionen? Nein: keine Lizenzen, keine Server, keine Gebäude. Ich hatte fast den Eindruck, dass damit Cloud Computing seinen Reiz verlor. Da hat man jahrelang sich in Budgetplanung verloren und auf einmal ist das überflüssig? Das grösste Risiko für Cloud Computing ist im Kopf. Umdenken fällt immer schwer.

Cloud Softwareprovider gefährdet

Gespräche mit Softwareherstellern zeigten dann, dass auch hier das Verständnis noch sehr begrenzt ist. Der Softwarehersteller hat erheblich grössere Risiken zu tragen, als der Endkunde. Was war das früher einfach - wenn man es mal geschafft hatte und der Kunde wollte die Software haben. Dann hat er eine Lizenz gekauft und die Software installiert. Wenn der Server nicht ausreichte wurde halt ein weiterer Server gekauft und wenn die Anwendung nicht so lief wurden die Nutzer geschult oder ein Programmierer gebeten, die Software anzupassen und zu erweitern. Der Softwarehersteller hat sich derweil darum gekümmert, aus den erhalten Lizenzgebühren die Weiterentwicklung der Software zu finanzieren.
Und genau das geht zumindest anfänglich beim Software as a Service nicht mehr. Selbst wenn die Software fertig ist und vermietet wurde flossen nur geringe Beträge zurück. Während das Risiko der Fehlinvestition beim Endkunden fast ausgeschlossen werden kann ist beim Softwarehersteller je nach Anwendung die Einstiegsbarriere für die Konkurrenz deutlich niedriger geworden.

Marktsegmentierung beachten

Viele Softwareanbieter erhoffen sich vom Cloud Computing einen Einstieg in untere Marktsegmente, die bisher nicht kaufkräftig genug waren, sich die gute Software zu kaufen. Sie vernachlässigen dabei allerdings, dass eine A-Klasse keine S-Klasse ist und kleinere Unternehmen vielleicht nicht den gleichen Funktionsumfang brauchen.

Donnerstag, 3. Februar 2011

Hochverfügbarkeit mit Cloud Computing

Zunehmend mehr sind in der Presse kritische Stimmen über Cloud Computing zu hören. Und wie so oft ist Licht und Schatten nah beieinander. Die Kritiker erheben durchaus gerechtfertigte Kritik. Doch so gerechtfertigt wie die Kritik ist: sie ist dennoch keine Grundlage für eine definitive Entscheidung gegen Cloud Computing. vielmehr liefert sie die Hinweise, wie Cloud Computing Betriebs- und nutzungskonzepte weiter entwickelt werden müssen, damit der nach wie vor unbestrittene Vorteil von Cloud Computing von jedem genutzt werden kann und der Mißbrauch und das Risiko reduziert werden.

Die Presse hat nicht immer recht

Der hier dargestellte Vorschlag ist insofern als ein konstruktiver Diskussionsbetrag zu verstehen. Er basiert nicht nur auf der journalistisch geäußerten Stammtischkritik, sondern auch auf eigenen praktischen Erfahrungen aus Projekten. Die wichtigste Aussage der Kritiker ist: vertraut nicht auf die Cloud. eigentlich muß es wie so oft im Leben heißen: vertraut nicht bling und allein auf die Cloud. Das heißt: im Sinne der eigenen Kunden und der Rechtfertigung des Vertrauens, dass die Kunden in die Zuverlässigkeit des eigenen Angebotes legen sollen sollte wahrhaftig die eigene IT zuerst im eigenen Hause lokalisiert sein.
Damit besteht zumindest eine Unabhängigkeit von einer WAN-Anbindung.

Der praktische Alltag zählt

Gleichzeitig sollte jedoch alles, was intern existiert und nicht nur die Daten auch extern verfügbar sein. Verständlicherweise kann nur empfohlen werden, einen Anbieter zu wählen, der mindestens die gleichen Betriebsstandards einhält wie man selber und sogar übertrifft. Das kostet natürlich zusätzliches Geld. Dieses müßte jedoch sonst auch investiert werden und noch vielmehr, um an einer anderen unternehmenseigenen Lokation eine Infrastruktur aufzubauen. Das ist sicher teurer, als die eines CLoud Anbieters zu nutzen.

Bloß kein Systemausfall

Im Falle des Ausfalls der unternehmensinternen IT muss spätestens nach einer als betriebskritisch definierten und vereinbarten Zeit der externe SoftwareService genutzt werden. Das geht nur, wenn die Cloudinfrastruktur mehr oder weniger ständig auf dem aktuellen Stand läuft und die Daten auf einem exakt gleichen Stand gehalten werden.

Cloud Computing erhöht die Verfügbarkeit signifikant

Cloud Computing kann seine ganzen Stärken voll ausspielen in der Erhöhung der Verfügbarkeit der Softwareservices und Sicherung der Daten. Stellt sich nur die Frage, wie man den richtigen Cloud Provider auswählt. hier hilft einerseits der Verband der Cloud Computing Industrie, der EurCloud e.V. Er bietet einen Leitfaden für Rechtssicherheit und Vertragsgestaltung an. Außerdem zertifiziert er Cloud Provider.


Cloud Computing entsprechend der eigenen Kompetenz

Cloud Computing bietet den gewaltigen Vorteile, dass es vom Nutzer entsprechend der vorhandenen IT Kompetenz gewählt werden kann: er kann die Turnkey-Lösungen wählen, aber auch Speicher selber buchen und initialisieren und eigene Datenbank-, Web- und Applikationsserver aufsetzen. Technisch ist das gelöst und nur eine realistische Selbsteinschätzung notwendig der eigenen Fähigkeiten und Bereitschaft, sich damit zu beschäftigen.

Dienstag, 1. Februar 2011

Cloud Know How

Führende deutsche Forschungsinstitute bescheinigen den Deutschen erhebliche Know How Mängel in Bezug auf Cloud Computing. Haben wir mal wieder nicht in der Schule genug aufgepaßt?

Cloud Assessment: PISA Test für Manager?

Oder haben wir einfach mal wieder nicht die Zeichen der Zeit erkannt im Gegensatz zu den ETFs, den Elfenbeinturmforschern? Schaut man genau hin, wird differenziert: neben allen hinken vor Allen die Entscheider in deutschen Unternehmen hinterher. Unsere Manager, international in den letzten Jahren erfolgreich, wie keine andere Nation ausser den ehemaligen 3.Weltländern Indien, China, Brasilien, sollen nun auf einmal sich doch auch ihrem Erfolg ausruhen und die Augen vor den Trends der Zeit den Hypes fo the day verschliessen. Eigentlich unwahrscheinlich. Gerade dann, wenn alle bestätigen, dass es sich nicht mehr um eine Pioniertat handelt, sich auf ein Thema einzulassen, weil die Technologie erprobt ist und der betriebswirtschaftliche Nutzen nachkalkulierbar ist, gerade dann hat noch jedes Thema die deutschen Entscheider hervorlocken können, denn wenn sie eines sind, dann risikoavers.

Das Risiko der Cloud

Das scheint anch deren 'Know-How-losen Einschätzung', sozusagen dem Bauchgefühl folgend nicht so risikolos zu sein, wie die Anbieter das vorgeben. Wir haben hier kein problem des mangelnden Wissens, wir haben es hier mit dem zu tun, was Entscheider immer brauchen, egal wie gut eine Entscheidung begründet ist oder auch nicht: sie brauchen einfach ein gutes Gefühl bei der Sache und der Einsatz muß sich lohnen.

Cloud Notstand

Hier haben die Anbieter von Cloud Computing Lösungen auch nicht wirklich einen Erklärungs- oder Schulungsnotstand zu beheben. Sie haben ihre Angebot anzupassen und sollten den Entscheidern genügend Bildung und Intelligenz zutrauen, dann schon zu beurteilen, ob ihre Bedürfnisse und Anforderungen erfüllt werden. Cloud Technologien sind seit Jahren bekannt, auch Virtualisierung und Skalierung sind wirklich nichts Neues. Die fehlende Integration von Cloud und unternehmens-individuellen Anwendungen auch nicht. Hier gibt auf der anderen Seite eigentlich für jede Anforderungen individuelle Serviceangebote diverser Unternehmen, die das mit XML, idocs und sonstigen Formatkonvertierungen vergleichsweise günstig bewerkstelligen können. Das wäre ja noch schöner, dass eine IT-Abteilung eines Unternehmens, das sich für den Einsatz von Cloudanwendungen entschieden hat, nicht in der Lage wäre einen technisch umsetzbaren Weg zu finden.

Mittwoch, 26. Januar 2011

Zukunft des Cloud Computing in Deutschland

Die negativen Einflüsse der Presse haben im deutschen Mittelstand Spuren hinterlassen. Cloud Computing wird immer noch mit Interesse verfolgt, die Euphorie ist allerdings ein wenig zurück gegangen. Die Vorteile des technischen Konzeptes überzeugen grundsätzlich noch immer. In vielen mittelständischen Unternehmen wird schon mit Virtualisierung von Server und Desktop experimentiert oder gar aktiv eingesetzt. Doch auch wenn Cloud Computing bedeutet, dass man nicht genau wissen muß, auf welcher Ressource die Leistung gerade zur Verfügung gestellt wird, haben diese Experimente trotzdem nichts mit Cloud Computig zu tun.

Hochverfügbarkeit

So muss mindestens eine deutliche Erhöhung der Verfügbarkeit durch Einsatz redundanter Systeme mit Betrieb an unterschiedlichen Lokationen erfolgen. Da sind gerade für kleinere Mittelständler, die nur über einen Standort verfügen, Cloudangebote eine Option. Zum gegenwärtigen Zeitpunkt, wo beobachtet werden konnte, dass Cloudangebote auch aus politischen Gründen manchmal nicht so hoch verfügbar sind, wie der eigentlich zugesicherte Servicelevel ist, ist immer anzuraten, eine Instanz im Hause zu betreiben oder betreiben zu lassen.

Rückverfolgbarkeit

Wer nicht ein durchgängiges Logging aller Transaktionen seiner Systeme durchführt sollte auch nicht versuchen, in die Cloud zu gehen. Selbst wenn die Leistungen in der Cloud flat abgerehcnet werden sollten, dann ist es immer noch so, dass diese Kosten zu hoch sein können. Das findet man nur heraus, wenn man weiß, in welchem Umfang man diese Leistungen in Anspruch genommen hat. Außerdem muß sichergestellt sein, dass nur derjenige die Leistungen in Anspruch nimmt, der sie auch gebucht hat und nicht jemand anders.

Sicherheit

Neben der Verfügbarkeit stellt die Sicherheit ein gesetzlich vorgeschriebenes Muß dar. Auch wenn Untersuchungen zeigen, dass die meisten probleme in der Sicherheit durch Mitarbeiter verursacht werden: man sollte es ihnen nicht unnötig leicht machen. Wird ein Cloud-Anbieter genutzt muß auf jeden Fall gewährleistet sein, dass er eine VPN Verbindung für Verarbeitung mit unternehmenskritischen Daten bereit stellen kann. Dazu zählen auch schon E-Mails.

Hybrid Cloud als ein Best Practice Modell

Hybrid Cloud bezeichnet die Mischung aus privater Cloud und offener Cloud. Im idealen Sinn des Begriffes kommt für die offene Cloud nur öffentlich zugängliche Informationen und Anwendungen in Frage. Das sind Werbung, Marketing und Kommunikation in social communities, Online Shops und Abwicklung von Transaktionen mit Kunden wie z.B. Reklamationen oder Services.
Im engeren Sinne sind allerdings auch die Nutzung von Infrastrukturservices und Plattformservices denkbar. Zu den Infrastrukturservices zählt die miete von Servern und Plattenspeichern. Zu den Plattformservices zählt zum Beispiel die Nutzung von generischen Businessprocesses. Bei den Anbietern ist dabei auf höchste Vertrauenswürdigkeit und Verlässilichkeit zu achten, wie sie in Deutschland zum Beispiel die Datev bietet.

Fazit

Bauen Sie z.B. mit uns zuerst die von Ihnen benötigten betriebswirtschaftlichen, sozialen Anwendungen im eigenen Hause auf, so daß Sie in der Lage sind, den täglichen Betrieb abzuwickeln. Wir entwickeln vorab ein Konzept, mit dem auch gleichzeitig Verfügbarkeiten, Sicherheit und IT-Management definiert werden und der Ablauf, nachdem nach und nach die gewünschten Standards mit vertretbarem Aufwand - also unter Nutzung moderner Cloud-IT-Konzepte - erreicht werden.

Sonntag, 23. Januar 2011

Cloud Computing Politik

Das Bundeswirtschaftministerium hat noch im letzten Jahr das Aktionsprogramm Cloud Computing auf den Weg gebracht. Eine sehr begrüssenwerte und auch sehr nötige Initiative. Damit werden die Grundlagen für sicheres Cloud Computing in Deutschland verstärkt. Die gewünschte Botschaft ist: auch wenn der Mittelstand noch zögert, mit Cloud Computing haben deutsche Unternehmen eine sichere und günstige Möglichkeit ihre Effizienz im IT-Einsatz zu erhöhen und damit auch die weltweite Wettbewerbsfähigkeit. Welches Land in Europa sonst hat noch ein durch die Politik initiertes und öffentlich gefördertes Programm in diesem Umfang spezifisch für Cloud Computing. Jedoch muss sich jeder klar sein, dass unter den aktuellen politischen Vorzeichen dieses Programm sogar die gegenteilige Botschaft austrahlen könnte als die gewünschte.

Auswirkungen des casus Wikileaks

Seit dem Desaster für Wikileaks und dem Desaster mit Wikileaks für die Cloud Anbieter hat sich jedoch die Botschaft nahezu ins Gegenteil verkehrt. Noch immer ist nicht geklärt, ob Wikileaks die Dokumente, die veröffentlicht wurden, zu unrecht in den Besitz von Wikileaks gelangt sind. Dennoch wurde genau mit dieser Begründung von den Cloud Anbietern begründet, warum Wikileaks nicht mehr ihr Kunde sein darf.

Bodenverlust im Mittelstand

Auch wenn wahrscheinlich völlig unbegründet: mittelständische Unternehmen hat dieses womöglich selbstherrliche oder womöglich politisch erzwungene Vorgehen das offen oder doch verdeckt bestehende Misstrauen in Cloud Anbieter gestärkt, dass die Daten, die man ihnen anvertraut, wohl doch nicht so sicher sind, wie die PR-Abteilungen vieler Cloud Unternehmen sowie die vielen Hype-Infizierten meinen. Offensichtlich sind die Daten sehr identifizierbar, sind nicht wirklich in der Cloud, in der anonymen Wolke, wo die Provider zwar die Geräte am Laufen halten ansonsten aber keine Ahnung haben, welche Inhalte laufen.

Erfolgsfaktor Vertrauen

Das willkürlich wirkende Abschalten eines Service ist die Grundlage eine eines schweren Dämpfer, der der Branche nachhaltig das Leben schwer macht. Diejenigen, die mit Cloud Services bisher keinen Erfolg haben begründen das jetzt schon damit, dass offensichtlich von vornherein das Vertrauen gerade in die großen Anbieter noch nie hätte gewährt werden sollen. Vertrauliche Unterlagen sollten nur vertraulich gespeichert werden im Unternehmen, im eigenen Verfügungsraum, dann könne nicht passieren. Das Bundeswirtschaftsministerium hat nicht zu Unrecht die Entwicklung einer trusted Cloud angeregt. Diese kann aber nicht durch die Entwicklung eines trusted Zertifikat hergestellt werden. Hier sind ganz andere vertrauensbildende Massnahmen zu schaffen. Jeder Kunde von Cloud Diensten muß zu jedem Zeitpunkt wissen, wer welche seiner Daten angeschaut oder geändert hat.

Erfolgsfaktor Vielfalt

Glücklicherweise sind die Konzepte im Cloud-Computing so vielfältig und wahrhaftig so nützlich, dass Cloud Computing durch Wikileaks nicht der Todesstoss versetzt wird. Jedoch werden nun womöglich die großen und bekannten Player die grössten Probleme haben. Es sollte den kleinen und mittleren Anbietern nun eine bessere Ausgangsposition bieten. Aber auch für diese war und ist es nicht einfach, weil die Überlegungen die gleichen sind.