symposia journal edition 03/2011

38
// Informativ // Qualitativ // Unabhängig Cloud Computing Mobile Computing Technologien Events

Upload: symposia-360-gbr

Post on 10-Mar-2016

233 views

Category:

Documents


1 download

DESCRIPTION

Bilingual Cloud Computing Magazine

TRANSCRIPT

Liebe Leser,

die Aufregung über die Ausfäl le bei einigen großen Cloud Anbietern in diesem Jahrhat sich nun langsam gelegt und schon steht das nächste Großereignis vor der Tür.

Ankündigungen von Apple werden zunehmend herbeigefiebert. Anfang Juni wurdemit iCloud nun auch Apples Weg ins Zeitalter des Cloud Computing für Herbst diesenJahres gemeldet. Zunächst sol l iCloud nur den bisherigen SynchronisationsdienstMobilMe ersetzen. Damit wird neben E-Mails, Kalender und Kontakte ebenfal ls dasDateisystem eines Benutzers inkl. Bi ldern, Musik, Anwendungen, Einstel lungen usw.auf Servern von Apple gespeichert und dort ebenfal ls einem Backup unterzogen.Hierüber soll dann auch der Datenaustausch zwischen den unterschiedl ichenEndgeräten wie dem iPhone oder iPad stattfinden.

Wer nun jedoch auf ein "Cloud"-Wunder von Apple gewartet hat wird sich enttäuschtzeigen. In der jüngsten Vergangenheit wurde auf unterschiedl ichen Kanälengemeldet, dass Apple für iCloud auf Ressourcen von Windows Azure sowie denAmazon Web Services zugreifen soll und damit über keine eigene Cloud Infrastrukturverfügt. Auf der einen Seite ist dieser Ansatz sehr lobenswert, verfolgt Apple damiteine Multi-Vendor-Strategie, um Ausfäl le vorzubeugen. Auf der anderen Seite habensich die meisten Experten aber wohl doch eine echte Apple Cloud gewünscht.

In dieser Ausgabe widmen wir uns wieder den unterschiedl ichsten Themen aus demBereich des Cloud Computing und lassen auch die mobile Welt dabei nicht außenvor. So erfahren Sie etwas über den Bereich Mobile Device Management, wasinsbesondere durch die aufkommende Strategie "Bring your own device" anBedeutung gewinnt.

Lernen Sie u.a. zudem, wie Cloud Computing Biowissenschaftlern das Lebeneinfacher macht und das der Einsatz des Cloud Computing immer aus der Sicht desaktuel len Use Cases betrachtet werden sollte.

Viel Spaß beim Bilden wünschen

Björn Böttcher & René Büst

Informativ | Qualitativ | Unabhängig

03/2011

SymposiaJournal4

Inhalt

03/2011

SymposiaJournal 5

Inhalt

03/2011

SymposiaJournal

SecTXL '11 | HamburgEin Rückblick auf den 11 .08.2011

Cloud Computing und die Themen Sicherheit & Datenschutz sind nicht voneinanderzu trennen. Zu hoch sind die Bedenken, Daten in der Cloud zu verlieren oderschlimmer in die Hände unbekannter Dritter zu geben. Die SecTXL '11 | Hamburg am11 .08.11 in der Bucerius Law School konzentrierte sich mit Ihrem Leitsatz“Juristische und Technische Sicherheit für die Cloud!” auf exakt diese Bereiche undThemen und betrachtete damit den Bereich der Cloud Computing Sicherheitganzheitlich.

Neben fachlichen Vorträgen von Rechtsanwälten und Experten aus den Bereichen desDatenschutzes und der Datensicherheit wurden ebenfal ls die technischen Probleme undderen Lösungen von IT-Architekten vorgestel lt. Somit wurden Möglichkeiten aufgezeigt,wie sich Unternehmen in Zeiten des Cloud Computing aus dem Blickwinkel der Sicherheitverhalten müssen.

Für eine Festigung und Vertiefung des während der Vorträge vermittelten Wissens fand imAnschluss an die Vortragsreihe nur einer von zwei vor der Veranstaltung angekündigtenWorkshops statt, da eine Referentin krankheitsbedingt leider kurzfristig absagen musste.Dennoch ging der Referent Ulf Feger während seines Workshops detai l l iert auf das vonihm vorgestel lte Thema ein und erläuterte und erarbeitete weitere Ansätze und nahm zuden Fragen aus dem Publikum Stel lung.

Die Organisatoren der SecTXL '11 (Symposia 360°) bl ieben sich wie angekündigt ihrerharten Linie treu, keine Sales Pitches (Marketing Präsentationen) zu dulden, was einReferent schmerzl ich erfahren musste, als dessen Vortrag durch den wieder sehr gutaufgelegten Moderator Mark Masterson kurzerhand beendet wurde. „Nur so können wirsicherstellen, dass die Qualität der Vorträge und der Veranstaltung nicht leidet. Schließlich

organisieren wir teilnehmerorientierte Veranstaltungen, aus denen das Publikum deutlich

mehr mitnehmen soll, als nur bunte PowerPoint Folien und Kaufargumente für ein

Produkt!“, so René Büst - Managing Director von Symposia 360°.

Veranstaltungen

6

03/2011

SymposiaJournal

Veranstaltungen

7

Im Anschluss der Veranstaltung wurden die SecTXL Awards verl iehen, mit denen dieReferenten für ihre Leistungen ausgezeichnet wurden. Dazu stimmten alle Teilnehmerwährend der Veranstaltung für ihren Favoriten aus den Bereichen Datenschutz, JuristischeSicherheit sowie Technische Sicherheit ab. Als Gewinner kristal l isierten sich letztendl ichSven Thomsen (Datenschutz) sowie Dr. Markus Wulf (Juristische Sicherheit) und MarkusMertes (Technische Sicherheit) heraus.

Stimmen zur SecTXL '11 | Hamburg

sven_thomsen: "Ha! Hier werden Sales Pitches tatsächlich abgebrochen. Sehr gut.

#nosalespitches #sectxl" - Referenz

Simone Winkler: "Das war wirklich eine hochinteressante Veranstaltung! Vielen Dank andie Redner und die Veranstalter!" - Referenz

Andreas Weiss: "Die SecTXL 11 in Hamburg war eine gelungene Veranstaltung!" -Referenz: (Über Xing)

Ulf Feger: "Thanks for the very interesting day @ SecTXL'11, Bucerius Law School,

Hamburg" - Referenz: (Über Xing)

Roland Judas: Im Gegensatz zu den meisten kommerziellen Kongressen, die

überwiegend aus Werbevorträgen der Sponsoren bestehen, wurden die Vortragenden im

Vorfeld per Code ofConduct aufdie Werbefreiheit ihre Vorträge verpflicht. Eine Bedingung

deren Einhaltung der wie immer gut gelaunte und diskussions-freudige Cloud-Experte

Mark Masterson (@mastermark) überwachte und auch tatsächlich in einen Fall per

virtueller gelber Karte aktiv durchsetzte. Dieses Konzept war der Grundstein für eine

rundum gelungene Veranstaltung, deren Agenda die wichtigsten Aspekte des Thema

Technische und Juristische Sicherheit des Cloud Computings abdeckte. Vor allem die

konstruktiven Diskussionen, die um die meist 15 bis 20 Minuten langen Vorträge

entstanden, hatten es in sich. - Referenz

03/2011 Geek and Poke

SymposiaJournal8

03/2011Cloud Computing Meinung

Node.jsEin kommender Cloud Standard?

von Björn Böttcher

Über keine der aktuellen Programmiersprachen ist in der letzten Zeit sovielgesprochen worden wie über Node.js. Aber warum ist dies der Fall? Dieser Artikelversucht eine Einordnung, einen Überblick und einen Ausblick zu geben.

Die GrundlagenPrinzipiel l ist es für Programmierer einfach eine neue Programmiersprache zu erlernen,wenn man bereits eine Sprache zur Gänze durchdrungen hat. Professoren nutzen gerneauch eine Aussage wie "Gute Programmierer können in jeder Sprache programmieren,denn wenn man einmal weiß, wie man programmieren muss, dann ist der Rest nur eineFrage der Syntax". Bei Node. js ist die Sachlage sogar noch ein wenig komfortabler, daviele Web Programmierer bereits mit Javascript vertraut sind und in den letzten Jahrenkaum andere Programmiersprachen nutzen mussten, da die Frameworks undErweiterungen der Sprache dies nicht notwendig machten. Dies ist ein Grund, warumgerade der Sprung für viele Programmierer von Javascript zu Node. js relativ leicht ist. DieHürde sich mit einer neuen Syntax beschäftigen zu müssen entfäl lt nahezu. Wir haltenfest: +1 für Node. js

Ein Blick auf Node.jsIn letzer Zeit wurden so einige Blogeinträge über Node. js verfasst. Darum soll dieserAbschnitt nur einen nitty-gritty-Überbl ick geben. Tiefergehende Artikel und Blogs finden Siein den Quellenangaben zu diesem Artikel. Node. js basiert auf der Google V8 JavascriptEngine und ermöglicht das Schreiben von Server-seitigen, Event-basierten undasynchronen Anwendungen mit Hilfe von Javascript. Die V8 Engine von Google wurde inC++, Javascript und Assembler verfasst, welches die Performance der Engine Rechnungträgt. Der in Javascript verfasste Code wird vor der Ausführung in nativen Maschinencodeübersetzt. Weitere Feinheiten, wie Inl ine Caching erhöhen noch die Performance. Mankann also sagen, dass die Geschwindigkeit des Grundgerüst von Node. js Vorfreudebereitet.

SymposiaJournal 9

03/2011

Eines der erklärten Ziele von Node. js ist es, eine Sprache zu komponieren, die daseinfache Erstel len von skalierbaren netzwerkfähigen Programmen ermöglicht. Dies sindgleich mehrere harte Herausforderungen für eine Programmiersprache. Einnetzwerkfähiges Programm zu erstel len ist per se nicht schwierig und auch in der ein oderanderen Programmiersprache recht einfach und effizient. Und eine einfach zu erlernendeSprache zum Lösen von netzwerkorientierten Problemen auf Serverseite ist sicherl ich fürjeden Web Programmierer ein Gewinn. Diesen Anspruch kann und wird Node. js sicherl icherfül len. Doch wie sieht es mit der so wichtigen Skalierung aus?

Kampf der NebenläufigkeitBetrachten wir zunächst ein einfaches Beispiel aus dem Alltag. Stel len wir uns einmal vor,wir möchten einen kleinen Imbiss in einem Fastfood Restaurant zu uns nehmen. Dazubegeben wir uns zunächst in das präferierte Restaurant und stel len uns dieWarteschlange. Wie lang diese ist, ist sicherl ich je nach Tageszeit und bedingt durchandere Einflüsse, wie etwa Urlaubszeiten unterschiedl ich.Die Thread-basierte Methode das Restaurant zu betreiben würde bedeuten, dass einKunde aus der Warteschlange (FIFO) bedient wird, sobald er an die Theke vorgerückt,also die notwendigen System-Ressourcen einmal zugewiesen bekommen hat. Je nachImplementierung des Kunden ( :-) ) kann dieser Vorgang nun wenige Sekunden dauern,oder auch Minuten. Solange jedoch der Kunde die Ressourcen besitzt, gibt er diese auchnicht mehr ab. Das würde zu einem starken Anwachsen der Warteschlange führen, wennman nicht entsprechende Maßnahmen ergreift. Dies würde bedeuten, dass ich einenweiteren Verkäufer (Thread) hinzufügen müsste, um meine Blockierung etwas zuentschlacken und die Warteschlange möglichst klein zu halten. Dies führt in unseremBeispiel jedoch zu einer starken finanziel len Aufwendung, die auch nicht an die Dynamikder Anfragen gekoppelt ist und uns somit eine prinzipiel les Problem aufwirft. Dies wirdbesonders deutl ich wenn der Ansturm an Kunden besonders gering ist. Es gibt sicherl ichviele Möglichkeiten dieses Problem mit Thread-basierten Lösungsansätzen in den Griff zubekommen und eine möglichst effiziente, Ressourcenschonende und skalierbareImplementierung zu entwickeln.In der asynchronen und ereignisbasierten Welt würde der Kunde in das Restaurant gehenund sich in die Warteschlange einreihen. Beim Zuteilen der Ressourcen bekäme derKunde jedoch eine Liste mit den zu erledigenden Dingen, wie z.B. eine Speisekarte undoptionalen Features auswählen; sich für den Verzehr vor Ort oder Auswärts entscheiden,Ketchup, Mayonnaise oder Extra Käse wählen - die üblichen zeitfressenden Fragen beieiner Bestel lung. Der Kunde würde daraufhin die Warteschlange verlassen und sich erstwieder einreihen, wenn er eine Bestel lung ohne Rückfragen des Kellners abgeben kann.Persönliche Bemerkung an dieser Stel le: Ich versuche dies seit Jahren in die Realitätumzusetzen. Es funktioniert jedoch nur, wenn die Prozesse des Unternehmens, bei demich eine Bestel lung aufgebe wohl definiert sind, die Mitarbeiter bestens geschult sind undich die Speisekarte und die Features selbst bestens kenne. Denn dann ist es in der Tatmöglich den Bestel lvorgang auf eine Guten Tag-Ihre Bestel lung bitte-Das macht dann-AufWiedersehen-Zyklus zu begrenzen, der wenige Sekunden dauert. Dies ist jedoch nichtimmer möglich. Doch zurück zu unserer asynchronen Welt.Der Kunde (Prozess) würde also wieder zurück an die Theke kommen, wenn er meint al leAnfragen an die Bedienung korrekt stel len zu können.

SymposiaJournal

Cloud Computing Meinung

10

03/2011

SymposiaJournal

Cloud Computing Meinung

11

Doch wie sieht es in diesem Fall mit der Skalierbarkeit aus? Sicherl ich kann man auch indiesem Fall eine weitere Bedienung im Falle eines zu starken Anwachsens derWarteschlange hinzufügen. Jedoch ist es nicht so komfortable, wie die Thread-basierteLösung. Vortei le dieser asynchronen und nicht blockierenden Methode gibt es viele, einerist zum Beispiel, dass die Bedienungen nicht durch einen Kunden blockiert werden.

Wir gehen in diesem vereinfachten Modell von einem sauber implementieren System aufSeiten des Restaurants aus. Wenn der Kunde die Anfrage nicht korrekt formuliert, dannmuss er sich wieder zurückziehen und es später erneut versuchen. Dies wiederholt sich,bis der Bestel lvorgang abgeschlossen ist.Doch wie sieht es in diesem Fall mit der Skalierbarkeit aus? Sicherl ich kann man auch indiesem Fall eine weitere Bedienung im Falle eines zu starken Anwachsens derWarteschlange hinzufügen. Jedoch ist es nicht so komfortable, wie die Thread-basierteLösung. Vortei le dieser asynchronen und nicht blockierenden Methode gibt es viele, einerist zum Beispiel, dass die Bedienungen nicht durch einen Kunden blockiert werden.Welcher der beiden Ansätze ist nun jedoch der Bessere? Nun darüber streiten sich dieFachlektüren rauf und runter und dies nicht erst seit gestern. Aus der Prozesstheorie fürArbeitsabläufe in Firmen könnte man zum Beispiel anführen, dass es wesentl ich effizienterist, wenn sich ein Mitarbeiter zu 1 00% auf eine Tätigkeit konzentriert und diese ohneStörung und Unterbrechung abarbeitet. In der Realität, könnte man jedochgegenargumentieren, z.B: Kommt es aber zu Unterbrechungen, wie ein Telefonanruf?Schön wäre es, doch alle Vortei le beider Welten zu kombinieren und einzusetzen. Dochgenau da sind wir an der Schwachstel le von Node. js angekommen. Momentan ist das Zielnur die asynchrone und nichtblockierende Implementierung voranzutreiben. Damit hatman keinerlei Möglichkeit mehr auf Änderungen in dem Workload, der Anwendung oderder Performance durch einen Wechsel oder eine Vermischung von beiden Modellen, wiees in anderen Sprachen wie C++ oder Java möglich ist.

Neue Software für eine neue Welt?Die Frage, welche man sich heute stel len muss, ist jedoch, ob es notwendig ist dieseModelle zu mischen. Ist es in Zeiten des Cloud Computing nicht vielmehr notwendig übergrundlegende Prinzipien nachzudenken? Was ist Skalierung? Was bedeutet Auto-Skalierung? Wie wird es heutzutage betrieben? Sind die aktuel len Anwendungenüberhaupt Cloud-fähig oder müssen nicht vielmehr viele Anwendungen überarbeitet odergar neu implementiert werden? Cloud Computing in seiner jetzigen Form unterstützt beideWelten und auf dem Weg zu neuen skalierbaren Applikationen ist es notwendig über diegrundlegenden Modell einmal in Ruhe nachzudenken. Betrachten wir doch einmal dieaktuel len Infrastrukturen als Dienst eines Anbieters. In der Regel bieten sie beginnend voneiner kleinen Maschine, welche in Ausstattung und Performanz gerade einmal einemNetbook entspricht. Um nun den vollen Nutzen aus einer solchen kleinen Maschine zuziehen, um Skalierung und Kosten im Griff zu haben, müssen wir uns fragen, wie dieSkalierung unseres Systems aussehen könnte und wie wir die beste Performanzerreichen? Im Vergleich dazu haben wir auf der Enterprise IT Seite hochperformanteSysteme mit enormen Speicher und Mehrkernsystemen. Auf den ersten Blick dürfte jedemauffal len, dass es zwischen den beiden Welten einen Unterschied gibt, der sich sehrwahrscheinl ich auch auf das Programmiermodell niederschlagen dürfte. Mit dynamischenAnsätzen kommen wir auf den Enterprise IT Maschinen sehr gut zurecht.

03/2011 Cloud Computing Meinung

SymposiaJournal12

Mal benötigt man mehr Thread-basierte Lösungen und mal kippt das Programm mehr zueiner asynchronen und nicht-blockierenden Lösung. Bei unseren kleinen Cloud ComputingMaschinen ist dies anders. Wir haben es hier mit einer kleinen Single Core CPU zu tun.

Und diese sollte möglichst gut ausgelastet werden. Wenn wir die CPU jedoch auslastenmöchten und diese für unsere Paar Cent ideal nutzen wollen, sol lten wir dann nichtversuchen die Last so hoch wie möglich zu bekommen?Und ist dies nicht der Fall , wenn die I /O Operationen nicht blockierend sind? Denn nurwenn möglichst viele Prozesse die Chance haben die Ressource zugetei lt zu bekommen,dann kann die CPU auch beschäftigt gehalten werden. Wenn wir noch tieferhineinschauen, dann stel len wir fest, dass die Architektur von Infrastruktur als ein Dienst inDatenzentren so aufgebaut ist, dass viel I /O Kommunikation stattfinden muss, umbeispielsweise Prozesse zu synchronisieren.

FazitNode. js ist ein vielversprechender Kandidat für eine Standardsprache im CloudComputing. Jedoch ist abzuwarten, wie die Skalierung der kommenden Systemefunktionieren wird. Mit C++ als Grundgerüst ist auf jeden Fall Performanz undSkalierbarkeit gegeben: Man denke nur an OpenMP. Mit mehr als 2500 Repositorien,welche bereits von der Gemeinde implementiert worden sind, ist auf jeden Fall ein weitererGrundstein gelegt. Ferner ist die Sprachsynchronität auf der Seite von Client und Serverein nicht zu unterschätzender Vortei l , auch wenn Web Dienste generische Schnittstel lenbereitstel len und damit die Sprachabhängigkeiten verschwinden lassen sollten. Jedoch istdie Implementierung der Applikationen in der Realität nicht weit genug darauf abgestimmtund auch Standards wie WSDL 2.0 haben sich noch nicht in den Anwendungendurchgesetzt. Wie immer ist technologisch vieles schöner vorhanden. Was sich jedochdurchsetzen wird ist wie immer unklar. Ich denke das die Möglichkeiten, welche Node. jsmit sich führt überwiegen dürften. Auch werden in Zukunft die Programme saubererentwickelt werden, da der Client- bzw. Web Client-Entwickler nun auch die Serverseiteimplementieren kann. Dies ist insofern entscheidend, als dass sich die Entwickler besseraustauschen und verständigen können und der Code in einer anderenProgrammiersprache immer nicht so gut ist, wie in der Haussprache eines Entwicklers.Hinzu kommt, dass sich die Art wie Programme auf Cloud Computing Infrastrukturenentwickelt werden deutl ich in Richtung von Technologien wie Node. js verlagern dürfte.Auch ist die momentan betriebene automatische Skalierbarkeit nicht wirkl ich schön gelöst.Viel leicht hat Node. js auch dafür in der Zukunft eine Lösung bereit. Wir dürfen gespanntsein.

03/2011Cloud Computing Meinung

SymposiaJournal 13

Über Björn Böttcher

Björn Böttcher war als Microsoft Student Partner an derTechnischen Universität Hamburg-Harburg tätig und hat sichschon während seines Studiums als Freelancer in vielenProjekten aktiv in der Wirtschaft uminformationstechnologische Umsetzungen gekümmert. Nachseinem Abschluss als Diplom Informatik-Ingenieuerpromoviert er bei der Paral lel Computing Group an der TUHHim Cloud und Grid Umfeld.

Quellenangaben

[1 ] Node. js (nodejs.org)[2] Google‘s V8 JavaScript Engine (en.wikipedia.org)[3] 2500+ repositories for Node. js related code (github.com)[4] Why Node. js is Important for Windows Azure (http: //bit. ly/qLUiql)[5] Understanding Event-driven Programming (http: //bit. ly/pZrzLj)[6] Why Node. js is a Great New Technology for the Cloud (http: //bit. ly/oN9Di6)[7] Node and Scaling in the Small vs Scaling in the Large (http: //bit. ly/r6TI jN)

03/2011

SymposiaJournal

Cloud Computing ist eine Frage des Use Case

von René Büst

Hat Cloud Computing wirklich seine Daseinsberechtigung? Geht es nach denPessimisten: Nein, denn es ist nur alter Wein in neuen Schläuchen! Geht es nachdem Marketing: Ja, neue Buzzwords lassen sich immer gut verkaufen! In der Regelschauen beide Seiten jedoch niemals hinter die Kulissen und betrachten nicht dentatsächlichen Mehrwert bzw. den Nutzen oder auch nicht-Nutzen.

An die Pessimisten: Cloud Computing ist kein alter Wein neuen Schläuchen. Gewiss,einige Technologien und Ideen die das Gesamtkonzept Cloud Computing ergeben,existieren bereits seit den 1 960er. Aber genau das Wort “Gesamtkonzept” ist hier derentscheidene Faktor. Erst die Kombination vieler Technologien, wie SOA, Virtual isierung,ASP, Web Services und Grid Computing plus das Multi-Tendancy Konzept ermöglichenerst das Paradigma, das wir Cloud Computing nennen. Hinzu kommt das Geschäftsmodell(on Demand, Pay per use, Building Blocks, usw.) bzw. die Geschäftsmodelle, die erst aufGrund des Cloud Computing entstehen konnten. Betrachten wir die letzten Monate undJahre, konnten neue Unternehmen und Geschäftsmodelle nur dadurch entstehen, da sieauf Grund des Cloud Computing unkompliziert, flexibel und kostengünstig auf die dafürbenötigten IT-Ressourcen zugreifen konnten. Der Unterschied zum klassischenOutsourcing oder auch den Managed Services ist ebenfal ls sehr deutl ich. BeimOutsourcing existiert kein skalierbarer, flexibler und abrechnungsgenauer Bezug vonRessourcen. Statt Cloud Computing hätte es genauso gut Dynamic Computing Servicesoder on Demand Computing Services genannt werden können. Aber Cloud Computing istauf Grund des Ressourcenbezugs über das Internet nun einmal die beste Beschreibung.

An das Marketing: Bitte bei der Wahrheit bleiben! Ca. 70% der klassischen Webhostersind bereits auf den Cloud Computing Zug aufgesprungen. Die einen mehr, die anderenweniger Cloud. Sehr beliebt ist, einfach ein bestehendes Produkt zu „vercloudifizieren“.Heißt: Gleiches Produkt mit einem neuen Namen, z.B. Cloud Server. Das es sich dann nurum einen virtuel len Server handelt, der auch noch für eine monatl iche Grundgebühr zubeziehen ist und über keine (automatisierte) Skalierbarkeit verfügt, wird außer acht

14

Cloud Computing Meinung

03/2011

SymposiaJournal

acht gelassen. Positiv überraschen die etablierten IT-Konzerne. Das Konzept CloudComputing wird, insbesondere in Deutschland und Europa, zwar tei lweise neuinterpretiert. Das ist auf Grund der Zielgruppe (etablierte Unternehmen) und demEinsatzgebiet (kritische Produktivumgebungen) aber durchaus verständl ich. So befindensich hier vermehrt (sichere) Virtual Private Clouds im Portfol io. In den USA herrschenderzeit noch die Public Clouds.

Der Glaubenskrieg

Hier beginnt auch schon der Kampf um die “beste” Cloud. Fakt ist: Es gibt keine gute oderschlechte Cloud und schon gar nicht die beste Cloud. Aber es gibt individuel le Bedürfnisseund Anforderungen. Neben den Public, Private und Hybrid Clouds, werden dieBeschreibungen immer granularer. So existieren mittlerweile unterschiedl iche Cloud Level,zu denen auch die Public und Hybrid Cloud gehören. Diese Cloud Level machen sich aberbesonders im Umfeld der Private Cloud bemerkbar. Es gibt daher nicht mehr nur diePrivate Cloud im eigenen Rechenzentrum, sondern nun auch die sogenannte DedicatedPrivate Cloud oder auch Virtual Private Cloud. Führen die Public Clouds auf Grund ihresunkomplizierten Zugriffs zu Innovationen und neuen Geschäftsmodellen, haben die “XPrivate Clouds” die Aufgabe, die Heimat von Produktivsystemen zu werden undUnternehmen darüber den flexiblen on Demand Bezug von Ressourcen auf einer Pay peruse Basis in einem privatem und not shared Umfeld zu ermöglichen. Unternehmenerhalten damit die Gelegenheit, eine eigene Private Cloud, inkl. al len Methoden undKonzepten des Public Cloud Computing (bis auf die Kreditkarte), aufzubauen, ohne einenCent in eigene Rechenzentrumskapazitäten zu investieren. Damit umgehen sie derKomplexitäts- und Kostenfal le der eigentl ichen Private Cloud, erhalten aber dennochRessourcen wenn sie benötigt werden. Wie ich jedoch eingangs erwähnte gibt es keinegute oder schlechte Cloud. Die eigene Private Cloud kann im Einzelfal l durchaus Sinnergeben, um den eigenen Bezug der IT-Ressourcen zu flexibi l isieren.

Der Einzelfall entscheidet

Grundsätzl ich muss immer der Einzelfal l betrachtet werden, wo Cloud Computing Sinnmacht und wo nicht, bzw. welche Art von Cloud Computing hilfreich ist. Beim CloudComputing sprechen wir von X-as-a-Service, genauer Software-as-a-Service (SaaS),Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS).

SaaS erzielt in nahezu 99% aller Fälle den gewünschten Nutzen und hilft Unternehmendabei, Anwendungen zu nutzen wenn sie benötigt werden, ohne dabei langfristig in teureSoftwarel izenzen und Infrastruktur zu investieren und je nach Mitarbeitersituation immerausreichend Anwendungen zur Verfügung zu haben. Darüber hinaus entfal len dieInstal lation und Wartung der Software, da der Zugriff über den Standard Webrowserstattfindet und der Anbieter für den aktuel len Stand und der Funktionsfähigkeit derSoftware zuständig ist. Entscheidend ist letztendl ich die Analyse der eigenen Situation undder Anforderungen sowie die Evaluation der geeigneten Software sowie derenmöglicherweise notwendigen Integration mit den restl ichen Systemen.

15

Cloud Computing Meinung

03/2011

SymposiaJournal

PaaS spielt besonders im Entwicklerumfeld seine Stärken aus. Die Bereitstel lung vonskalierbarer Rechenleistung ist ein teures Vergnügen. Ebenso die Wartung der dafürbenötigten Infrastruktur in Form von Hardware, Netzwerkkomponenten, aber auchBetriebssysteme und die restl ichen Softwarestacks. Speziel l die Bereitstel lung vollständigvorkonfigurierter und gewarteter Softwarestacks helfen einem Entwickler bei der schnellenUmsetzung seiner Ideen. Ein kleiner Nachtei l besteht in der Regel durch die Entscheidungfür eine einzige Programmiersprache, wodurch die Portabil ität der Anwendung leidet.Dabei handelt es sich jedoch um ein je nach Situation durchaus zu vernachlässigendesProblem.Vor al lem für das “mal eben ausprobieren” einer Idee eignet sich PaaS besonders gut.Aber ebenfal ls der langfristige produktive Einsatz und das Hosting der Anwendung aufeiner skalierbaren und gewarteten Infrastruktur sind sehr attraktiv, wenn vorab diebenötigten Anforderungen und das Programmiermodell geklärt worden sind.

IaaS bietet je nach Einsatzgebiet in vielen Bereichen Vortei le. Kann aber durchaus auchzur Kostenfal le werden. Soll bspw. eine Webseite auf einer Instanz aus der Cloud7/24/365 betrieben werden, wird schnell deutl ich, dass die Kosten dafür einfach nichttragbar sind. Für diesen Zweck reicht ein gewöhnlicher virtuel ler Server (was eine Instanzaus der Cloud letztendl ich auch nur ist) von einem traditionel len Webhoster mit einermonatl ichen Grundgebühr völl ig aus. Damit ist die Kosten- als auch die technische Seitegut abgedeckt. Anders verhält es sich bei einer Webseite die einer nicht unmittelbarvorhersagbaren Dynamik oder saisonalen Einflüssen unterlegen ist. Hier hi lft der Einsatzeiner Cloud Infrastruktur, wenn sie dann richtig genutzt wird und die Methoden undKonzepte des Cloud Computing, wie z.B. Skalierbarkeit und Hochverfügbarkeit durch denEinsatz von Skripten oder anderweitiger Tools, berücksichtig wird. IaaS ist daher, je nachBereich, kostentechnisch nicht für den Langzeitbetrieb geeignet, sondern vielmehr für denperiodischen Ausgleich von Anfragen und dadurch entstehende Lasten. Auch bzgl. derNutzung einer Public Cloud oder einer Virtual Private Cloud gibt es unterschiedl icheEinsatzszenarien. Eine Public Cloud ist bspw. ideal für kleine Unternehmen und Startups,die eine Web- oder Mobile Anwendung mit Backend anbieten möchten oder Entwickler dieschnell eine Idee umsetzen wollen und dafür entsprechende Ressourcen benötigen. EineVirtual Private Cloud hingegen bietet etabl ierten Unternehmen die Möglichkeit ihreProduktivumgebungen skalierbarer und flexibler auszulagern und zu betreiben. So wärenz.B. mögliche Use Cases die Migration des ERP Systems oder die Virtual isierung derDesktops und die damit verbundene Umstel lung von Fat auf Thin Clients.

Fazit

Es gibt keine gute oder schlechte Cloud! Und schon gar nicht die beste Cloud. Wie seitjeher in der IT notwendig, muss immer die eigene Situation betrachtet werden und dieEntscheidung individuel l getroffen werden. Der einzige sinnvolle Rat zu Beginn kann dahernur lauten: Augen auf und genau überlegen in welche Richtung die Reise gehen soll ,welches die Ziele sind und was damit erreicht werden soll . Ein erster unabhängigerMarktüberbl ick inkl. Angebotsanalyse wird dabei helfen Klarheit zu schaffen und möglicheProdukte und Services für die eigene bedarfsgerechte Nutzung zu identifizieren.

16

Cloud Computing Meinung

03/2011

Über René Büst

René Büst ist Cloud Computing Experte & Berater sowie IT-Analyst & Autor in

den Bereichen Cloud/ Mobile Computing und modernes Arbeiten. Darüber

hinaus ist er Managing Director von Symposia 360° und Gründer des Cloud

Computing Portal CloudUser.org. René Büst hat einen Abschluß als Master of

Science im Bereich IT-Management von der FHDW Paderborn und als Diplom-

Informatiker (FH) von der Hochschule Bremen.

SymposiaJournal 17

Cloud Computing Meinung

03/2011

SymposiaJournal

Geek and Poke

18

03/2011

SymposiaJournal

Cloud Computing Meinung

Cloud - zwischen Versprechen und Wirklichkeit

von Dr. Michael Pauly & Dr. Martin Reti

Cloud Computing wird – wie wir alle wissen – die nächsten 20 Jahre der IT-Industriebestimmen – zumindest sagte das Frank Gens, der IDC-Analyst, 201 0. Gemeinsammit Larry Ellisons „It´s complete gibberish“ aus unserer Sicht das wichtigste Zitatim Zusammenhang mit Cloud Computing.

Beide Zitate markieren perfekt die beiden Pole, zwischen denen das Spannungsfeld desCloud Computing aufgespannt wird. Himmelhochjauchzend, zu Tode betrübt – oderanders formuliert: Visionär mit Revolutionspotenzial vs. nutzlose Luftblase. Die Wahrheitwird – und dafür muss man kein Philosoph sein – dazwischen liegen. Doch näher anwelchem der beiden Pole?

Bestimmend für die nächsten 20 Jahre? Eine doppelbödige Aussage: Sie könntevordergründig bedeuten, dass der Cloudtrend tatsächlich 20 Jahre überleben wird und wirwie der alte Methusalix in unseren alten Tagen immer noch auf das Konzept anstoßenwerden: „Damals in der Cloud [“. Es könnte aber auch bedeuten, dass die IT-Industrie 20Jahre brauchen wird, um das Konzept des Cloud Computing tatsächlich so umzusetzen,wie wir es heute erträumen. Jaja, der Weg von der Theorie in die Praxis ist weit ; -). Dabeiunterstel len wir natürl ich, dass es eine Cloud-Theorie gibt. Aber ist das wirkl ich der Fall?

Complete Gibberish? Es war – Larry Ell ison hin oder her – schon ein mutiger Schritt sogegen das neue Sourcingkonzept zu wettern und natürl ich bekommt man damit Klicks undeine bleibende Prominenz im Thema. Markige Sprüche zählen halt immer noch. Aber jelänger Cloud Computing uns beschäftigt, desto häufiger ist El l ison im Recht: Zu vieleDinge werden umetikettiert und Cloud-gewaschen. Jeder Dienst, der auch nur imentferntesten nach einem der NIST-Kriterien riecht, wird plötzl ich als eine Neuschöpfungder Cloud präsentiert. Und dann stel len wir die Frage: „Warum fl iegen die potenziel lenNutzer, insbesondere im Mittelstand, nicht auf Cloud?“ Viel leicht weil sie sich verunsichertoder gar veralbert fühlen? Oder aber haben sie – wie man es aus den Kommentareneiniger entnehmen kann – nur noch nicht richtig verstanden? ;-)

19

03/2011 Cloud Computing MeinungEin weithin beliebtes Argument der Anbieter, mit dem sie gerne den schwarzen Peter fürdie noch nicht ausreichende Akzeptanz an die potenziel len Kunden zurückgeben.

Erwartungen über Erwartungen

Was wir von Cloud Computing erwarten, das spiegeln die verschiedenen Definitionenwider, deren Zahl 2011 Legion sein dürfte. Erstaunl ich ist, dass sich noch keine Definitionals die einzig wahre heraus kristal l isiert hat. Wo doch viele von sich behaupten, die einzigwahre Cloud zu besitzen bzw. zu betreiben.

Wir hören von Nutzen statt Besitzen, wir erwarten „pay as you use“, Verfügbarkeit undSkalierbarkeit „on demand“ oder dynamische IT, die sich an dynamischem Businessorientiert oder auch Komplettfunktionalitäten, die „as a Service“ erbracht werden. Populärauch die Erklärung, dass Dienste nicht mehr lokal, sondern in weit entferntenRechenzentren unbekannter Provider erbracht werden – und das ist die Basis erbitterterCompliance-, Rechts-, Datenschutz- und Sicherheitsdispute. Manche fordern Standards,Offenheit, Ausfal lsicherheit oder Wahlfreiheit – aber diese Ansprüche scheinen schon nichtmehr mehrheitsfähig.

Es ist immer der Nutzen, der Gewinn, der einen möglichen Nutzer von einem Dienstüberzeugt. Besonders einsichtig ist dieser (persönliche) Gewinn, wenn ich die kostenlosverfügbaren Dienste im Internet nutze. Die Geschwindigkeit, der Komfort, die Einfachheitund die Kostenlosigkeit – in Verbindung mit der Ansicht, im großen Schlaraffenland für IT-Nutzer gelandet zu sein, in dem für jeden ein passendes Eckchen ist und in dem es nochviel mehr Interessantes zu entdecken gibt, das kann eine euphorisierende Mischung sein.

Letztendl ich lässt sich die Cloud-Welt in zwei Hälften tei len. Für die einen dreht sich dieCloud um das Business. Für die anderen dreht sich das Business um die Cloud. Lassensich diese Fälle voneinander trennen?

„Cloud ist Remote Access“ – Servicenutzung über Netze

Längere Diskussionen über eine nicht-lokale, also entfernte Serviceerbringung anderswo(„remote“, evtl . delokalisiert), wobei die Dienste über – wie auch immer geartete – Netzeverfügt werden, sol lten wir von der Legitimierungsl iste eines Cloud Service streichen. Esist ein sine qua non, eine Bedingung, ohne die wir gar nicht erst anfangen, über Cloud zureden. Auf der anderen Seite ist es heute schon Usus, sowohl bei Privatleuten als auch inGroßunternehmen, dass vielerlei Applikationen nicht lokal auf dem Rechner, sondern inRechenzentren erbracht werden, deren genaue örtl iche Lage, den Nutzer in der Regelauch gar nicht interessiert. Es sei denn, er sei ein Rechtsanwalt, ein Auditor oder einIndustriespion ;-).

SymposiaJournal20

03/2011Cloud Computing Meinung„Darf´s ein Pfund mehr sein?“ - Pay as you use

Wann immer das Gespräch auf Cloud Computing kommt, ist man schnell beim „pay as youuse“. Mancher Anbieter modifiziert das dann zu „pay as you order“ – du zahlst, was Dubestel lst, auch wenn Du es nicht nutzt. Tatsächlich gibt es Anbieter, die den originärenAnspruch erfül len, und denen darf auch der „Orden für eine seriöse Umsetzung desCloudgedankens“ angesteckt werden. Andere hingegen verstehen Cloud Computing alsein betriebswirtschaftl iches Modell , das mit reinen Rechenspielchen – aber ohne dienotwendige zugrunde liegende Technik und das IT-Management – inKosten/Nutzungsrechungen realisiert wird. Und da entstehen dann Blüten wieBasisgebühren oder Aussagen wie „Lieferung erst ab einer bestimmten Menge“. Unddabei spielen natürl ich fehlende dynamische Lizenzierungsmodelle seitens der Software-Anbieter auch eine entscheidende Rolle.

Oder aber Preise, in denen alle möglichen Auslastungsausfäl le eingepreist sind und beidenen die Nutzer für die Nichtnutzer mitbezahlen. Oder es wird ganz simpel einklassischer Preis in Chargen zerlegt und Mindestlaufzeiten sichern den Anbieter gegenkurzfristig wegbrechende Kundennachfrage ab. Da ist das Angebot einer Flatrate viel leichtgar nicht der dümmste Einfal l , weil man dadurch wieder eine Kostenkontrol le bekommt,die „pay as you use“ nur dann hergibt, wenn man sich selbst entsprechend bezähmt.Vergessen wir aber in der ganzen Diskussion nicht, dass Cloud Computing ursprünglichdeswegen so erfolgreich ist, weil Dienste über das simpelste denkbare Abrechungsmodell„eingekauft“ werden: Sie sind (in bestimmten Grenzen) kostenlos.

„Ich weiß, wo Deine IT wohnt“ - Transparenz

Interessant ist zu beobachten, dass IT-Verantwortl iche nicht mehr so sehr denKostensenkungsaspekt an Cloud Computing wahrnehmen, sondern vielmehr dieTransparenz als Vortei l preisen. Das scheint tatsächlich ein Sprung voran zu sein, weiletabl ierte inhouse-Landschaften gerade in großen Unternehmen mit der Zeitunübersichtl ich geworden sind und im Dickicht von Abschreibungen, Dutzendenverschiedener Managementtools und Umorganisationen der Überbl ick schon langeverloren ging. Hier ist Cloud Computing eine zweifache Antwort: Zum einen kann man wieJaguar Landrover den großen Schnitt machen und mit einem Schlag eineStandardisierung und Vereinheitl ichung herbeiführen, zum anderen kann im gleichen Zugein Monitoring zur Kosten- und Nutzungskontrol le eingeführt werden.

Doch ist das typisch für Cloud Computing? Etablierte Serviceanbieter müssen ihrenKunden schon seit Langem genau aufl isten, wofür jener sein Geld überweist. Einausführl iches Monitoring mit einem Monatsreporting ist dafür Usus. Genauso wie dieunzähligen Konsolidierungsprojekte, in denen die Anzahl der Plattformen und RZ-Standorte regelmäßig reduziert wird.

SymposiaJournal 21

03/2011

„Von der Stange“ - Standards

Dabei ist das Monitoring standardisierter Services, die aus Ressourcenpoolsim Multimandantenmodus erbracht werden, natürl ich einfacher (weilindustrial isierter) zu handhaben, als in heterogenen, gewachsenenLandschaften. Standardisiertes Angebot und eine standardisierteServiceerbringung gehören also zum Wesen von Cloud Computing.

Leider kann man Standardisierung aber auch anders verstehen. Denn in derCloud gilt meist: „Wenn schon ein Standard, dann meiner“. Und das führtdann zu einem neuen Potpourri von Standards. Wahlfreiheit des Nutzers?Weitgehend Fehlanzeige. Nicht zu Unrecht fürchten viele, in einer neuen Weltder Cloud in Abhängigkeiten von Dienstleistern zu geraten. Was schon mitder Frage beginnt, wie man im Falle des Falles seine Daten ins eigene Hauszurückbekommt. Nicht mal auf der Ebene des IaaS ist es bislang gelungen,ein „Tankstel lenmodell“ zu etablieren, das den Nutzern eine tagesaktuel leAuswahl des Providers erlaubt. Obwohl hier natürl ich im Rahmen einerzeitl ich begrenzten (ad hoc) Nutzung auch kein Bedarf besteht. PaaS undSaaS? Kein Wunder, dass angesichts dieser Sachlage die alte Diskussionüber offene Standards auch in der Cloud ausgetragen wird.

Aber eigener Standard ist nicht nur eine Attitüde des Anbieters, sonderngenauso der Nutzerseite. „Wir wollen zwar einen Service aus der Cloud, aberfür uns kommt ein Standardangebot nicht in Frage“. Dann wird einindividuel les Kundenprojekt aufgesetzt, das in einer individuel len Lösungmündet. Und das wird dann als erfolgreiches Cloudprojekt vermarktet.Genauso wie das nächste Kundenprojekt, das eine eigene Plattform benötigt,aber ein „pay as you use“-Abrechnungsmodell hat.

„Get into the Pool“ - Skaleneffekte, Elastizität, Ausfallsicherheit

Ressourcenpools sind – neben den Netzen – das Rückgrat oder, wenn man so wil l , dasGehirn der Cloud. Sie erwecken den Eindruck unendlicher Ressourcen, die schnelleAdaption der Ressourcen an die Last auf der Anwendung (Skalierung). Doch wie weit gehtder Pooling-Gedanke? Möchten Großunternehmen beispielsweise dieselbe Plattform mitihrem Wettbewerber oder Privatkunden tei len? Oder bevorzugt man dann nicht eher eine„dedizierte“ Cloud für die unternehmenseigenen Belange? Und wenn das jeder möchte,wo ist dann der Pooling-Gewinn – insbesondere was die vielfach beschrienen grünenAspekte angeht? Ressourcenpools leben vom Mitmachen aller – auch der Nutzer. Jeder,der nicht mitmacht, schmälert den möglichen Nutzen. Dafür gibt es nachvollziehbareGründe, die in der Regel einem hohen Sicherheitsdenken geschuldet sind. Aber durch die„mein eigenes sicheres Häuschen“-Haltung wird der Gedanke der Cloud massivuntergraben. Skaleneffekte entstehen so nur in bedingtem Umfang – auch wenn manchesGroßunternehmen genügend Manövriermasse dafür hat. Im Fall der eigenen „Cloud imKeller“ darf man dann auch die Frage stel len, wie es mit der Skalierbarkeit steht.Nachvollziehbar erscheint vor diesem Hintergrund die Vereinbarung einer Maximal- bzw.

Cloud Computing Meinung

SymposiaJournal22

03/2011Cloud Computing Meinung

SymposiaJournal 23

Minimallast, die evtl . sogar noch zeitl ich verzögert ist.

Eine „natürl iche“ Konnotation zu Ressourcenpools hat die Ausfal lsicherheit. Der Gedankedahinter ist ebenso einfach wie bri l lant: Wenn man aus Pools auch eine Hoch-und-Runter-Skalierung realisieren kann, können natürl ich ausgefal lene Systeme blitzschnell ersetztwerden. Intakte Systeme übernehmen, ohne dass die Nutzer es merken, die Arbeit derabgetretenen – womöglich sogar über verschiedene Erdregionen hinweg. Eine optimierteRessourcenauslastung nach dem „Follow the Sun“-Prinzip wird beschworen. Das hat wasBorgisches, wenn dem System kein Schaden zugefügt werden kann. Angesichts desjüngsten Ausfal ls im irischen Amazon-RZ mit tagelangen Aufräumarbeiten darf dieseHoffnung doch mit gestiegener Skepsis gehegt werden.

„Drück aufs Gas“ - Geschwindigkeit

Zuletzt noch ein Streifzug über DAS Kil lerargument für Cloud Computing: dieGeschwindigkeit. Noch vor möglichen Kostenersparnissen rangiert die Geschwindigkeitder Verfügung als einer der Top-Nutzen von Cloud Computing. Und das zu Recht. Siehtman die andere Seite der Medail le, ist das natürl ich ein Armutszeugnis. IT ist mit demAnspruch angetreten, das Geschäft schneller und dynamischer zu machen. Und entdecktnun – im fortgeschrittenen 21 . Jahrhundert – endlich die Option selber dynamisch zuwerden. Wo bisher das Bestel len eines Servers Wochen und Monate in Anspruch nahm,machen die Internet-bekannten Webbestel l- und Liefervorgänge Hardware-Kapazitätenund komplette Applikationen in Minutenschnelle verfügbar – User Self Service.

Müssen die Ressourcen allerdings per Mail , per Telefon oder womöglich mit Rückantwortper Fax geordert werden, je nach Compliance, die im eigenen Hause gilt oder müssenBestel lvorgänge die Einkaufsprozesse in großen Häusern durchlaufen, ist der Spaß an ITaus der Dose schnell dahin. Auch wenn mancher Lieferant viel leicht – durchaus aus gutenGründen – noch mit Modellen des letzten Jahrhunderts agiert, so muss doch dasNutzerunternehmen bereit sein für den Umgang mit Cloud Computing: Prozesse,Organisation und Kultur müssen sich einer Nutzung von Cloud Computing genauso stel lenwie der Nutzung von Web 2.0.

Schlussakkord

Auch nach Jahren der Diskussion wissen wir immer noch nicht endgültig, was CloudComputing ist. Und wir werden es wahrscheinl ich auch nie wissen. In unseren Köpfenentstehen – je nach Nutzen und (negativen/positiven) Erfahrungen – Bilder von CloudComputing. Der Mehrwert der „Technologie“, des Sourcingkonzepts, desGeschäftsmodells [ wird sich im konkreten Fall erweisen müssen. Und wenn der Einsatzauf Basis unbedachter Rahmenbedingungen (beispielsweise Latenzen) fehlschlägt, wil ldas womöglich nur bedeuten, dass Cloud Computing in diesem konkreten Fall , unterdiesen Rahmenbedingungen, mit diesem Provider, mit diesem Service oder mit diesemNutzer nicht funktioniert. Viel leicht kann man ja diese Herausforderung ganz klassischlösen? Was auf der Kehrseite bedeutete, dass man wirkl ich nicht überal l ein Cloudetikettanhängen muss, sondern mal einfach auf den Nutzen schauen kann, den Anbieter

03/2011

Über Dr. Michael Pauly

Dr. Michael Pauly ist promovierter Elektroingenieur undWirtschaftsingenieur. Er arbeitet bei T-Systems als Consultant mitFokus auf Dynamic Services und Cloud Computing. Michael Paulyagiert als einer der Sprecher für Cloud Computing von T-Systemsund vertritt das Thema auf diversen Veranstaltungen undKonferenzen.

SymposiaJournal

Cloud Computing Meinungund Nutzer gemeinsam erzielen können.

Da wir uns aber 2011 erst im Jahr 1 der von Frank Gens prophezeiten 20-Jahresperiodebefinden, haben wir ja noch 1 9 Jahre Zeit, um unsere Städte in den Wolken zu bauen.Und complete gibberish ist viel leicht doch ein bisschen fehlbewertet. Man darfweiterträumen. Fest steht: Derjenige, der es als erster schafft, die großen Kundenträumeaus der Cloud wahr zu machen, wird gewinnen – wenn er selbst konsequent undkonsistent „in die Cloud geht“.Ach ja, was sich jetzt um was dreht, das ist in der Cloud wie im Universum eine Frage desStandpunktes. Bin ich in der Wolke oder außerhalb? Betrachte ich das Ganze aus demBusiness heraus oder aus der IT? Damit bleibt al les so „unklar“ bzw. cloudy wie zuvor. Nureines ist sicher: Es dreht sich doch!

Michael Pauly & Martin Reti

p.s. : Vor etwas 20 Jahren kam das erste Windows-Betriebssystem auf den Markt. Wennwir dieses mit dem heute aktuel len vergleichen, dann können wir etwa erahnen, was unserwarten wird. Natürl ich al les nur noch viel schneller.

Über Dr. Martin Reti

Dr. Martin Reti, ein digitaler Imigrant, arbeitet im Solution Marketingvon T-Systems und verfolgt das Thema Cloud Computing intensiv.Der Kommunikationsmann ist einer der Autoren des Bitkom-Leitfadens "Cloud Computing – Evolution in der Technik, Revolutionim Business".

24

03/2011

SymposiaJournal 25

Geek and Poke

03/2011

SymposiaJournal

Cloud Computing Science

26

Cloud Computing drives faster innovation in life sciences

by Matt Wood

Scientists explore a new world where access to technology infrastructure is instantand affordable - It’s the year 2000. A research group at an EU based pharmaceuticalcompany discusses an edgy and ambitious project involving whole genome RNAsequencing. Like many nascent research projects, the informatics requirements aresteep. The cost and process burdens of acquiring infrastructure for terabytes ofdata and teraflops of compute power to be used in an undefined number of usecases and methods could dampen the spirits of even the most enthusiastic team.Without extra funding, the idea will l ikely sit on the backburner until the next fiscalyear.

Now fast forward and add cloud computing to the mix. Resource constraints are replacedwith enabling technologies such as scalable storage, elastic compute and dynamicanalysis platforms. Where IT procurement and lengthy technical reviews once cast longshadows over research, organisations are now accessing on-demand technologyinfrastructure with no upfront cost or negotiations.

With a cloud computing strategy in hand, the lab funds the project out of discretionarybudgets. The project begins by sending samples to a sequencing service provider, whoships the results to a secure cloud environment. The necessary storage is available on-demand with a pay-as-you-go pricing model, meaning the researchers pay nothing unti lthe first byte is written or after the final fi le is removed. The collaborators get straight towork performing large scale, distributed computations. Sharing results becomes as easyas sending an email . This is one of hundreds of examples of how cloud computing haschanged the way organisations have acquired IT in the past three decades. The newworld, where scientists are l iving today, is much different.

Researchers in industry and academia are using computers in continuously increasingquantities for molecular simulation, virtual screening and DNA and protein sequenceanalysis. In the past, organisations purchased expensive, purpose-built cluster resources

03/2011

SymposiaJournal

Cloud Computing Science

27

and data management systems. This requires significant upfront investment and labs wereoften surprised by the management costs associated with running dedicated infrastructure.Those unable to afford hardware would use shared infrastructure, often at supercomputingcentres, and wait in long queues for an opening weeks later.

These pressures have scientists earnestly exploring scalable and on-demand ITinfrastructure that can meet the unpredictable demands of research and development. Insix months, a project’s technology requirements may have changed three to four times (ormore), so nimble technology is key. Scientists are also benefitting from IT resources thatprovide an affordable model for global col laboration, similar to The 1 ,000 GenomesProject, the largest study of genetic differences between people to date. The project offersa comprehensive resource on human genetic variation and involves participants fromEurope, North America, South America and Asia who are sharing data and analysis in realtime. To make data more available to a broader audience and to further innovation ongenomic research, The 1 ,000 Genomes Project can also be accessed through the cloud.This means scientists with less advanced computers and infrastructure have the sameaccess to the raw data as those with supercomputer technology. This is the type of sharingand collaborative model l ife science professionals are getting excited about today.

A simple way to explain cloud computing is that instead of buying, owning, and maintainingyour own datacenters or servers, you purchase compute power and storage services fromthird party infrastructure providers on an as-needed basis. Database, messaginginfrastructure and content distribution services are also available in the cloud. Theprovider manages and maintains the entire infrastructure in a secure environment andusers interact with resources via the Internet. Capacity can grow or shrink instantly.

For an offering to truly be cloud computing, it must have the fol lowing characteristics: Noupfront capital expenditure, pay-as-you-go services, elastic capacity, fast time to market(think server capacity in minutes) and the abil ity to remove undifferentiated heavy lifting.All of this must comply with regulatory needs and without sacrificing data security.

An example of a company that has taken advantage of the on-demand nature andscalabil ity of cloud computing is Cambridge based Eagle Genomics, a bioinformaticsservices and software company special ising in genome content management. EagleGenomics store and analyse large quantities of genomic data for its customers. Recentprojects have included biomarker discovery, microarray probe mapping and genomeassembly from next-gen sequencing data. At the heart of Eagle’s analysis projects l ies anadapted version of the eHive workflow management system. Eagle’s modifications enableeHive to scale automatical ly by starting up and spinning down resources in response tocapacity demands. This is something that Eagle could only do cost effectively by having itstechnology infrastructure in the cloud. This avoids the expense of purchasing andmaintaining HPC hardware in-house and avoids underuti l ised resources.

Another l ife sciences organisation taking advantage of cloud computing is the EuropeanBioinformatics Institute (EBI). The EBI is the home of cutting edge research usingcomputers to study l ife science problems.

03/2011

SymposiaJournal

Cloud Computing ScienceOne of the largest projects currently underway at the EBI is the genome browser, Ensembl- www.ensembl.org. Ensembl is a central tool used in worldwide bioinformatics research.When working as a global team, latency can become an issue. The EBI has reduced thelatency of accessing the Ensembl service for their US collaborators, by moving the serviceto the cloud. This is making the large amounts of information hosted in the genomedatabases more readily available to researchers around the world to spend more timemaking discoveries and less time on accessing the information.

Yet another example is Galaxy, an open source web application and analysis platformdesigned to allow reproducible, sharable science. The team recently made Galaxyavailable as a cloud optimised and deployable solution to al low researchers anywhere inthe world to run exactly the same pipel ines and share data and results without investing inhardware or worry about managing servers.Cloud Indicators.

These examples show innovative uses of the cloud, but how quickly is this catching on inthe l ife science industry? All signs point to rapid adoption. Through discussions withscientists, engineers, developers, CIO’s and CTO’s of start-ups and enterprises, I ’veconsistently heard why the cloud is a growing part of their future plans. The mostfrequently cited reasons include:

IT consolidation is on the rise. Driven by a need to optimise expenses and gainefficiencies, the biopharma industry is consolidating IT to focus on core expertise andreduce capital expenditure. This includes IT infrastructure, which most do not see as acompetitive advantage. As organisations grow and work is distributed to scientists acrossthe globe, technology infrastructure running in the cloud wil l improve efficiencies anduti l isations in tandem with growth.

Agil ity is becoming necessary. I f purchasing dedicated hardware, it can take organisationsmonths to procure, provision and make resources available to users. That can feel l ikeyears in the fast-moving scientific world and make innovating on the science nearlyimpossible. IT managers and CIOs have discovered that with the cloud’s abil ity to rapidlyprovision resources, scientists can do their job with minimal resource contention.Organisations get to say no less and support more projects.

New methods lead to new collaborations. Science is al l about col laboration, increasinglyso as scientists start investigating biology at a systems level and collaborating with expertsin special ised research functions. This has led to more distributed partnerships, bothpublic-private and collaborations between academic institutions and companies. Theavailabi l ity of shared data spaces with easy access to on-demand computing resourcesmakes the cloud very attractive today. Public access to data sets and associated dataanalysis tools are creating an ecosystem for data sharing and analysis that could portenda larger trend in scientific col laboration.

Scientific practices are evolving. From its early days, cloud computing has enabled newbusiness models. Many start-ups have flourished because access to cloud services

28

03/2011

SymposiaJournal

Cloud Computing Scienceempowered them to create innovative solutions that take advantage of massivelydistributed architectures without having to invest the capital to build resources. Lifesciences are fol lowing a similar trend. We can expect to see more start-ups emerge toprovide analysis and data support roles. Instrument and service providers are alsoleveraging the cloud to distribute data and provide on-demand access to computingpipel ines. Of course, this is al l happening at a scale and lower cost than possible outsideof the cloud.

Computing paradigms have shifted. Large scale modell ing and simulation, and especial lylarge scale data analysis, chal lenge existing infrastructure and workflow methodologies.Data-intensive workloads require massively paral lel frameworks that are ideally built on topof commodity hardware. Such systems, l ike Hadoop and non-relational databases, arebecoming part of the solution for difficult computing challenges. These frameworks arenow tuned to successful ly run in the cloud. The availabi l ity of dynamic cluster computingresources in the cloud has multipl ied the capabil ities researchers can access to solvescientific problems at massive scales. Before cloud computing, these problems remaineduntouched or were addressed at scales that l imited uti l i ty.

A cloudy, data-driven future.Economics, a desire to foster more collaboration and the need for faster innovation cyclesare leading the l ife science industry to a new world where scientists have instant access toinfinitely scalable resources. In the next few years, third generation sequencing, massivemetagenomics sequencing projects, and an increased availabi l ity of molecular diagnosticsare going to produce unprecedented amounts of data at relatively low costs. Cloudcomputing wil l play a key role in providing the technology infrastructure that wil l drive thedata-driven future of l ife science.

About Matt Wood

Matt Wood is a Technology Evangelist for Amazon WebServices. In his role Matt educates customers on the technicaland business aspects of cloud computing, mentors start-upsand coaches developers throughout Europe. Before joiningAmazon Matt worked in the field of l ife sciences and built web-scale search engines at Cornell University, sequenced DNA inHinxton and developed analytics software in Cambridge. He isa frequent speaker at international conferences, a blogger andpublished author.

29

03/2011

30 SymposiaJournal

Geek and Poke

03/2011

SymposiaJournal 31

Enterprise Mobile Device Management Strategien und Trends

von Ralf Jan Schaefer

Immer leistungsfähigere und vollständig vernetzte Smartphones werden unsereArbeits- und Lebensweise in den nächsten Jahren nachhaltig verändern.Und obwohl wir zur Zeit eine explosionsartige Zunahme an mobilen Endgerätenerleben – Google CEO Larry Page verkündet im Juli 550.000 neue Android Devicestäglich im Vergleich zu 200.000 im Vorjahr – sind einige Hürden zu nehmen um eineIntegration der neuen Geräte in die Infrastruktur eines Unternehmens erfolgreich zumeistern.

Seit einem Jahrzehnt ist das Blackberry Smartphone in vielen Unternehmen etabliert. RIMist immer noch der einzige Herstel ler der OS, Hardware, (PIM-) Applikationen und vieleSecurity Services aus einer Hand entwickelt und für seine Geschäftskunden bereitstel lt.Während die Blackberry Services heute bereits die Grundlagen für ein sicheres mobilesÖkosystem im Unternehmen bilden, müssen für die populären mobilen Geräte erstnotwendige Tools und Services evaluiert und eingeführt werden.

Dieser Artikel betrachtet neben dem Mobile Device Management (MDM) wichtige Aspektedie das mobile Ökosystem beeinflussen und vermittelt eine MDM Strategie auf derGrundlage der Datensicherheit. bzw. dem Schutz von Unternehmensdaten. Dabei geht esweniger um die Entwicklung neuer Mobil ity (Web-) Services oder hybriden Applikationenaus den Bereichen der Anwendungsentwicklung, sondern um die Beschaffung, densicheren Zugriff, Betrieb und Verwaltung der mobilen Geräte in der IT Infrastruktur desUnternehmens.

Business Value – Wo ist mein ROI?

Jede Investition in Mobile Services hängt u.a. von zwei Fragen ab: Welchengeschäftl ichen Nutzen habe ich von Investitionen im Bereich Tooling, Anwendungen,Services und Delivery?

Mobile Computing

03/2011

SymposiaJournal

Mobile Computing

32

Wann stellt sich ein ROI ein?

Bei der Entwicklung eines Business Case sind nicht nur Investitionen im BereichInfrastruktur/Tooling, Enduser Support Services und Mobile Application Development zuberücksichtigen. Ein Business Case muss auch dem atemberaubenden Wandel undInnovationen in der mobilen Welt entsprechen und ein ausgewogenes Verhältnis vomschnellen experimentieren (Innovationen) und etablierten Geschäftsprozessen undPlanungsvoraussetzungen beinhalten.

Dabei ist es wichtig neben den quantitativen Methoden (Ziele fürKosteneinsparungen/Effizienz) auch qualitative Methoden zu verwenden um den BusinessImpact der neuen, technischen Möglichkeiten zu bestimmen. Ein flexibler Ansatz ist nötig,z.b. eine „Day in the l ife“ Technik um das Bild von der vereinfachten Arbeitsweise einesMitarbeiters zu vermitteln und Prozesse & Technologien in diesem Bild zu verschmelzen.

Betrachten wir das Mobile Device Management im speziel len, sind im Business Casequantitativ die Reduzierung von OPEX zu bewerten. Bis zu 80% Einsparungen sind fürRollouts/Erstinstal lation, Helpdesk, Deskside Services und der zeitnahen Bereitstel lungvon Applikationen möglich. Bei den anwednern durch notwendige I teraktionen bei Updatesoder Ausfal l des Gerätes sind es noch mehr.

Bring your own device (BYOD) – Fluch oder Segen?

Anfangs waren die Mobil ity Services in der Vergangenheit meist nur bei Führungskräftenoder im Vertrieb zuhause, bringen immer mehr einfache Angestel lte diverse Geräte vomSmartphone, Tablet oder Netbook mit ins Unternehmen und verlangen Zugriff auf die IT.

BYOD verbindet mehrere Trends: Die Grenzen zwischen privater und berufl icher Nutzungverschwinden. Es wird gemailt, geskyped, in den sozialen Netzwerken Kontakte gepflegt,der nächste Flug gebucht oder das Navigationssystem im Auto für den nächsten Terminüber Google Maps programmiert. (Roaming-) Flatrates der Telco Provider, BreitbandVerbindungen, immer leistungsfähigere Geräte und Gadgets führen dazu, dass Mitarbeiterohne Zusatzkosten und Qualitätseinbußen auf IT Ressourcen seines Unternehmenszugreifen können. Durch die Cloud entwickeln sich Software Services (SaaS) die frühernur im eigenen Unternehmen nutzbar waren.

Dabei gibt es beim BYOD unterschiedl iche Interpretationen: Vom Mitarbeiter der seinGerät, ggf. auch seinen Vertrag und Verbindungen selbst bezahlt, bis zum Unternehmenwelches seinen Angestel lten ein Budget zum Kauf von Hardware zur Verfügung stel lt. Esist es schon erstaunl ich und nur durch den aktuel len Hype zu erklären, wie vieleAngestel lte zur Zeit die strengen Nutzungsbedingungen und (Security-) Einstel lungenahrem privaten Smartphone akzeptieren. Ein breites Spektrum deckt Bereiche wie, nichtangekündigten „Remote Wipe“, Password Richtl ini wie auf dem Desktop oder einedeaktivierte Kamera ab. Dazu gesellt sich noch lokale Security und VPN Software, welcheeinen erheblichen Einfluss auf die sowieso schon kurzen Akku-Laufzeiten der modernenGeräte hat.

03/2011

SymposiaJournal

Mobile ComputingEin Unternehmen mit einer BOYD Strategie sol lte sich darüber im Klaren sein, daß nichtal le Mitarbeiter in Zukunft selbst Geld ausgeben möchten aber gleichzeitigEinschränkungen auch für die private Nutzung akzeptieren. Übergreifende, bzw. neue„Standard“ Services lassen sich so nicht erfolgreich etablieren.

Mittelfristig wird die BOYD Problematik durch neue innovative Lösungen entschärftwerden. Herstel ler wie VMWARE haben bereits Prototypen von „Dual-Persona“ Devicesauf Android Basis vorgestel lt. Daten, Anwendungen und Verbindungen können isol iertbetrieben werden. Der lokale Anwender kann komfortabel zwischen der privaten &geschäftl ichen Instanz wechseln.

Anforderungen an ein (Enterprise-) Mobile Device Management

Eine moderne Lösung zum Management von mobilen Endbenutzer Geräten solltemindestens folgende Anforderungen erfül len:

• Support al ler neuen Plattformen (Android, iOS, Symbian, Windows 7 Phone)• Bestandsverwaltung (Inventory, Discovery, Schnittstel le zum Asset Mgmt)• Passwort Richtl inien• Remote Lock/Wipe• Management von Applikationen (z.b. Bereitstel lung, Black/White Listing)• Konfigurations- Management (z.b. VPN, Kamera, Encryption)

Der Markt wil l heute aber schon mehr als nur Remote Wipe & Inventory. Das neueSchlagwort heißt Enterprise Mobile Management (EMM). Dies beinhaltet auch erweiterteFunktionen wie Daten- (Roaming)Management oder Enterprise Application Stores. VieleKunden wünschen sich Remote Access Lösungen für mobile Endgeräte in VerbindungTrusted Device Identification, Akku schonende SSL Gateways und Richtl inien für dieberechtigte Nutzung bestimmter Ressourcen und Applikationen im Unternehmen.

Die „Eierlegende Wollmilchsau“ gibt es in diesem Bereich nicht, noch nicht einmal bei denPure Playern. Die traditionel len Anbieter für Client Lifecyle Management Software springengerade erst auf den Zug auf und versprechen ihren Kunden in naher Zukunft erweiterteMDM Funktionen.

Wer keinen Druck hat sol lte noch ein wenig warten und die Entwicklung auf dem aktuel lsehr dynamischen Markt beobachten. Wer nicht warten kann oder wil l , darf im Zweifel zueiner Kombination aus verschiedenen Lösungen greifen, sol lte sich aber nicht unbedingtlangfristig an einen Herstel ler binden.

33

03/2011

SymposiaJournal

Unified Device Management – Vom Desktop PC zum Smartphone

Gardner bestätigt in seinem PCCLM Magic Quadrant vom Januar 2011 folgenden Trend:

• “Organizations are starting to treat smartphones (and now tablets) the same way theytreat PCs”• Organizations[would prefer to use the same tools across PCs, tablets andsmartphones, because it's increasingly the same people who support those device types”• “An increasing number of organizations are supporting mobile devices with the desktopgroup”

Für die MDM Pure Player wird es zukünftig - trotz des explodierenden Marktes und guterGeschäftschancen - schwieriger sein gegen Wettbewerber zu bestehen, die eineinheitl iches Management über al le Endbenutzer Geräte bieten.

Aus Security Sicht haben die Beobachtungen von Gardner einen versteckten Treiber: IhreDaten sind nicht weniger wert, wenn sie auf einem Smartphone liegen (im Vergleich zueinem Desktop). Sie sind aber einem größerem Risiko ausgesetzt!

Viele Unternehmen haben einen Daten fokussierten Ansatz auf die Sicherheit. Ob nunconfidential oder der Umgang mit personenbezogenen Informationen (SPI), jedeKlassifizierung erfordert einen bestimmten und verpfl ichtenden Umgang mit den Daten.

Daher ist es nur folgerichtig entsprechende Security Richtl inien über al le Endgeräte miteinheitl ichen Tools, Methoden und Verantwortl ichkeiten durchzusetzen zu wollen.

2011 ist das Jahr der mobilen IT

Durch den enormen Zuwachs an Smartphones wird in diesem Jahr immer mehr Businessmobil erledigt. Die IT muss eine Strategie entwickeln, den Angestel lten und Ihre diversenmobilen Geräten den Zugriff zu Daten und Applikationen im Unternehmen zu ermöglichen.Mit oder ohne BYOD, aber ganz bestimmt über die klassischen E-Mail Grenzen hinweg.Mobile Device Management oder Enterprise Mobile Management sind dabei dasFundament für die zukünftige Bereitstel lung und Nutzung von mobilen IT Services imUnternehmen.

Mobile Computing

34

Über Ralf Jan Schaefer

Ralf Jan Schaefer ist IT Architekt der IBM Deutschland GmbH. In den Bereichen Systems

und Service Management unterstützt er seit über 1 0 Jahren viele nationale und

internationale IT Projekte in den Branchen Finance, Automotive & Transportation. Im

Unternehmensbereich Strategic Outsourcing war er bis zu seinem Wechsel zu IBM Sales &

Distribution im Februar 2011 Mitgl ied der Design Authority und verantwortl ich für die

Services im Bereich Systems Management Infrastruktur. Aktuel l arbeitet er als Technical

Sales im IBM Cloud Competence Team und unterstützt seine Kunden auf Ihrem Weg zu

dynamischen Infrastrukturen und neuartigen IT Services.

03/2011

SymposiaJournal

ImpressumAutoren dieser Ausgabe

Matt Wood, Ralf Jan Schaefer, Dr. Martin Reti,Dr. Michael Pauly, Björn Böttcher, René Büst

Cover & Design

Björn Böttcher & René Büst

Photos SecTXL '11 | Hamburg

Symposia 360° GbR

Karikaturen

Oliver WidderInternet: http: //geekandpoke.typepad.com

Copyright © 2011 Symposia 360° GbR

ImpressumHerausgeber & Verlag

Symposia 360° GbRSchützenstr. 1 121 266 JesteburgTel. : 041 83 / 94 89 40Fax: 041 83 / 77 39 30E-Mail : [email protected]: http: //www.symposia360.com

Anzeigenleitung

Dipl. -Ing. Björn BöttcherE-Mail : [email protected]. , Dipl. -Informatiker (FH) René BüstE-Mail : [email protected]

Redaktion

Björn Böttcher, René Büst

Symposia Journal 04/2011 erscheint am 1 2.1 2.2011

Redaktionsschluss: 28.1 1 .2011Anzeigenschluss: 05.1 2.2011

36