Kategoriarkiv: Cloud Computing

Vad gör du under de 0,1 procent då molnet inte finns?

Ifrån trendspaning.se

Högautomatiserade molntjänster är sannolikt betydligt säkrare än din nuvarande drift. Men det betyder inte att risken är noll. Här får du tre regler att komma ihåg för det du helst vill glömma.

Jag har under den senaste tiden mött flera människor och företag som lägger upp sina system i molnet och sedan glömmer allt man lärt sig om riskhantering. Man föreställer sig en arkitektur där system och data kommer vara garanterat tillgängliga från idag till slutet av vårt kända universum.

Och även om det naturligtvis är en ambition, så är verkligheten tyvärr annorlunda. Även molnsystem kommer att ligga nere i perioder och det oberoende vilken leverantör man väljer – om det så är Microsoft, Amazon, Google eller IBM.

image

Studerar man de SLA:er som finns för de stora molntjänsterna, ser man att de landar på runt 99.9 procents upptid – något som har visat sig vara en rimlig uppskattning för arkitekturer på de molnplattformar man har idag.

Dagens molnplattformar är byggda för att vara distribuerade, geolokaliserade och speglade, det finns både redundans och trippelredundans för data och bearbetning, vilket reducerar risken för att något ska gå fel: men den går aldrig ner till 0. Den kan aldrig gå ner till 0. Det finns alltid händelser som kan inträffa, hur osannolika de än kan tyckas vara.

För dig som väljer högautomatiserade molntjänster från de stora megadatahallarna är den goda nyheten att du förmodligen får betydligt bättre driftssäkerhet än vad du har idag. Men det innebär inte att du inte längre behöver ta något personligt ansvar. Det är kanske en självklarhet, men ändå värt att påpeka.

Det kan vara på sin plats med några regler om molnet och driftsäkerhet.

Regel 1: Att du har valt en molntjänst innebär inte att du inte behöver planera för nedtid

Din planering kan naturligtvis vara inte göra någonting alls – att låta dina tjänster vara nere tills de kommer tillbaka (för det gör de). Men om tjänsten är viktig, om den påverkar liv, så måste du ha en plan B att falla tillbaka på så att du inte står handfallen.

Regel 2: Molntjänster ska inte ses som en billig försäkring mot ekonomiska konsekvenser

Jag tror att de flesta inser att det är orimligt att låta molnleverantörerna stå för hela den kommersiella förlusten när din tjänst ligger nere.Det är inte rimligt att betala hundra kronor för en molntjänst och sedan förvänta sig att leverantören skall betala miljoner om tjänsten ligger nere i en timme. Det låter för bra för att vara sant och är det också naturligtvis.

Sanningen är att du måste ta ansvar för din egen affärsrisk – på samma sätt du alltid har gjort.

Regel 3: Botemedlet mot nedtid är transparens

Det viktigt när någonting händer är transparens; både ifrån molnleverantören och ifrån dig till dina användare. Att som kund få uppdaterad information om vad som faktiskt händer när något går fel, status och planerad lösning är ett måste för att hantera konsekvenserna på bästa sätt.

Behöver jag gå ut med ytterligare information till mina kunder? Behöver jag gå över till manuella processer eller peka om till ett backupsystem?

Om du har en strategi för att hantera nedtider även i molnet så kommer du också märka att du kan hantera dina egna relationer och affärsrisker bättre.

Under de 0,1 procenten sitter alla i samma båt.

Hur pass bra prestanda har molnplattformarna ?

Det börjar dyka upp lite nya tester över hur pass bra prestanda de nya molnplattformarna verkligen kan leverera. Bland annat den här. Det är intressant att se att det verkar skilja ganska kraftigt vilket gör att det blir en relevant parameter att ta hänsyn till. Både Amazon och Azure är ganska likvärdiga medan AppEngine verkar falla ur.

Scalability

(diagram ifrån: http://highscalability.com/blog/2010/5/26/end-to-end-performance-study-of-cloud-services.html) Andra skriver mera här

ISO startar en internationell analysgrupp kring molnet

Avslutade för en timme sedan ett möte i Peking där den internationella standardiseringsorganisationen ISO formellt beslutat starta en ”Study Group on Cloud Computing” (SGCC) kring molnet.

Målsättningen är att i denna grupp arbetar fram en beskrivning av området och ger ett antal rekommendationer till ISO kring vilka delar de bör gå vidare med att eventuellt standardisera. Jag representerade den svenska arbetsgruppen inom SIS vid detta möte och Sverige tillsammans med Kina och Korea var de länder som hade input till hur arbetet inom SGCC bör prioriteras. Sveriges förslag fick stöd av ett antal länder.

Nästa steg nu är att det kommer komma ut en internationell ”call for participation” för att delta i denna grupp (SGCC) med första möte i New York i september. Jag skulle vilja uppmana alla som potentiellt skulle vara intresserade att delta i en sådan expertgrupp att kontakta mig.

SC38 Plenary, Beijing, China May 12-14, 2010

Foto: ISO SC38

Det elektriska molnet?

Jag både gillar och ogillar analogier. Fördelen med analogier är att de gör (ofta nya) scenarios lätta att förstå med existerande kunskaper, problemet är att de samtidigt är förrädiska lockande att tro på även om de inte stämmer. Av det skälet så är jag oftast skeptiskt till de analogier jag hör. Låt oss titta på den vanliga analogin: ”IT i molnet är som el konsumerat via två hål i väggen”.

Håller analogin?

image

Rimligen finns det mängder med svårigheter att jämföra el med IT om försöker bygga affärsmodeller och tjänster i molnet med elkraftsdistribution som förebild. Har du fler aspekter som inte passar ?

The age of data – öppen data öppnar möjligheter

Kundinformation, affärstransaktioner, spårningar, övervakning, beteenderegistrering, uppföljning, kommunikation, film, musik, e-böcker, innehåll skapat av individer, offentligt information, demografisk information, rapporter, marknadsstatistik, nyheter, analyser… Varje dag skapas 15 petabyte data, vilket är åtta gånger informationen på papper i alla amerikanska bibliotek”.  Detta är inledningen på Sveriges IT- arkitekters informationskonferens 2010.

Kan vi konsumera mer information? Vill vi?

Svaret är naturligtvis ja, det finns stora mängder med information i skyddade hamnar utanför Internets hav av information som väntar på att förädlas och användas i innovativa syften. Information som ägs av oss alla och som finns oåtkomligt i olika myndigheters databaser.

Filosofin kring ”öppen data” och synen på att all information ska publiceras är på sätt och vis en gammal idé som bygger på viljan kring ett transparent samhälle.  År 2010 bör dock frågan kring öppen information hanteras med en genomtänkt strategi då information kan utnyttjas av entreprenörer för allas bästa men också missbrukas när den samkörs med annan information. Differentiell integritet är ett ämne som adresserar detta och som jag kommer återkomma djupare till i en annan bloggpost. Utöver integritetsaspekten finns också fog för att fundera på om fullkomlig transparens med information kan ge oönskade effekter som är större än fördelarna. Något som bl.a. professor Lawrence Lessig har gått djupare in på.

Om vi för ett tag lämnar data som innehåller personlig information så finns det parallellt värdefull data som rimligen är lättare att publicera och svårare att missbruka – statistisk, meterologisk eller forskningsinformation. Information som är anonym men som ändå har ett värde i ett digitalt ekosystem som kan förädla och leverera information till rätt person.

Låt oss titta på ett sådant ekosystem ifrån två olika perspektiv; konsument respektive producent.

Konsument

Ifrån en konsuments perspektiv är det intressant att diskutera hur väl förädlad information bör vara ifrån producenten. Man kan använda olika nivåer av förädlad information för olika syften och den bör därför även finnas att tillgå i olika former. Analyserad, pivoterad och aggregerad information kan i många fall vara enklare att använda men den ger inte samma typ av flexibilitet som rådata kan erbjuda. En balansakt blir naturligtvis att bedöma var gränsen går när en producent börjar påverka ekosystemet som vill använda informationen för att leverera tjänster om producenten börjar konkurrera i ekosystemet istället för att leverera. Någon som te.x. Stockholms handelskammare ofta tar upp.

Producent

Ifrån producentperspektivet är det viktigt att man tar uppgiften på stort allvar. När man kopplar in en datakälla i ekosystemet måste den uppfylla ett antal krav för att kunna användas effektivt. Den måste publiceras i öppna format, där XML rimligen bör vara standard. Den borde märkas upp med någon typ av semantisk teknik för att underlätta automatisering men den måste levereras med någon typ av SLA (Service Level Agreement) som visar under vilka förutsättningar informationen finns tillgänglig. Man riskerar annars att skapa svåröverskådliga kedjeeffekter i ekosystemet om en viktig informationskälla plötsligt sluta fungerar eller inte klarar belastningen om den blir populär.

Hur kan olika aktörer samarbeta för att Sverige ska ta ledningen kring detta?

2 JA och 2 NEJ för molnet under 2010

Visst; som många andra så tror även jag att 2010 kommer att bli “molnets år” men det kan vara värt att titta i backspegeln och inte glömma att vid allt för stora förväntningar finns det också en stor fallhöjd:

Här kommer några av mina spådomar kring vad jag tror blir hett för molnet under 2010.

1. Nej; vi kommer inte se en massiv förflyttning ut i molnet under 2010. Något jag lärt mig under åren är att platformsskiften tar sin tid. Lär av SOA eller Client-Server förflyttningen – historien kommer rimligen upprepa sig. Vi borde dock se mängder av nya projekt som provar, testar och prototypar de nya plattformarna tillsammans med ett optimeringsarbete som en förberedelse för en förflyttning som kanske startar på allvar under 2011-12 ?

2. Ja; Säkerhet måste bli en fråga att känna sig komfortabel med; det kommer vara nödvändigt att få en allmän ”bas” kring säkerhetsstandarder som te.x ISO/IEC 27001:2005 (LIS i Sverige), SAS 70 eller kanske andra nya standarder som gör att säkerhetfrågan “goes whitout saying”. Om du som molnleverantör inte på ett rimligt sätt kan visa hur du hantera din informationssäkerhet så är det i praktiken så att du inte får spara t.ex. personlig information enligt datainspektionen och PUL.  Det saknas dock konkreta krav kring vad som är rimlig säkerhet. Rimligen kommer köpare av Cloud tjänster kräva mer transparens kring hur säkerheten ser ut och börja tveka på leverantörer som säger “lita på mig”.

3. Ja; Interoperabilitet kommer att bli en alltmer diskuterad fråga och alltfler aktörer kommer att börja positionera sig inom området. Redan idag finns det mängder med olika initiativ som CCIF, Cloud Manifesto, ISO SC38 eller DMTF; i ett tidigt område som Cloud Computing så är det naturligt att det först måste till en lång innovationsfas innan du kan börja låsa API’er. Utmaningen består av att identifiera vilka funktioner som är tillräckligt mogna (och viktiga) att börja låsa och vilka som inte passar in. I Sverige tror jag att nybildade Cloud Sweden kan bli en viktig lokal faktor.

4. …och Nej; Vi kommer inte heller under 2010 komma överens om vad som är det korrekta sättet att uttala “Windows Azure” – egentligen …

Definition för Cloud Computing klar !

I flera månader har IASA arbetat med att skapa en definition av vad “cloud  computing” faktiskt innebär. Det är med glädje jag kan säga att definitionen nu har blivit godkänd och den publicerades i fredagens Computer Sweden (se sid s.8-9).

Citat ifrån den artikeln:

     cloud-question-mark-cloud-computing

Arbetet med definitionen saknade inte utmaningar.Det fanns till exempel redan etablerade uppfattningar om vissa för definitionen centrala begrepp, och när vi försökte koppla ihop dem för att skapa en helhetsbild av molnet blev bilden ibland motsägelsefull. Vid ett sådant tillfälle så har man två möjligheter – att förändra gällande uppfattningar eller att acceptera logiska problem, så länge problemen inte är allt för stora.” 

Vi valde det senare; det är också värt att nämna att en av våra stora inpirationsskällor har varit det arbete kring cloud computing som har gjorts vid Berkeley University.

Här kommer den slutliga definitionen: (engelska i parantes då det går att översätta till svenska)

========================================================

Termen Cloud Computing relaterar både till applikationer som levereras som tjänster över Internet och till den hårdvara och systemmjukvara som tillhandahåller dessa tjänster.

Applikationstjänsterna talar vi om som Software as a Service.

Hårdvaran och systemmjukvaran är det vi kallar för molnet (The Cloud).

Cloud Computing karaktäriseras av två viktiga egenskaper; upplevt oändliga resurser och betalning per resursförbrukning. Den tjänst som erbjuds av molnet kallas Utility Computing, vilket närmast kan jämföras med resursförbrukning av t.ex. el och vatten.

När ett moln är publikt tillgängligt kallas det för ett publikt moln (Public Cloud). Ett moln som inte görs publikt tillgängligt kallas för ett privat moln (Private Cloud). Ett moln som inte kan erbjuda upplevt oändliga resurser och betalning per resursförbrukning erbjuder inte cloud computing.

Cloud Computing kan därför anses bestå av tjänsterna Utility Computing och Software as a Service

=========================================================

Vad tycker ni ?

Inuti ett av världens största datacenter.

 image 

Jag är just återkommen ifrån ett besök i Dublin och Microsofts nya “mega datacenter” i Europa. Datacentrat är en rigoröst bevakad och säkrad byggnad och ett av världen största och modernaste datacenter ur alla aspekter. Datacentrat kommer vara basen för att driva alla Microsofts söktjänster som Bing, onlinetjänster som BPOS och vår nya molnplattform Windows Azure i Europa. Det är en otrolig känsla att komma in i kärnan av byggnaden och se rack efter rack efter rack ; det ger en insikt om hur kritiskt det är att detta faktiskt aldrig går ner. Utmaningarna för ett datacenter i den här klassen handlar inte bara om att bygga en avancerad serverhall utan om att bygga en struktur som kan supportera servrarna driftsmässigt och säkerhetsmässigt. T.ex måste man hantera ett strömavbrott och ändå kunna mata datahallen via batterier. Batterier som kan skjuta ut ett respektabelt antal megawatt under tillräcklig många sekunder tills man hinner koppla in ett antal gigantiska generatorer som kan ta över. Säkerheten kring att hantera denna energi är prio nummer ett – gör du misstag så blir det inte mycket kvar av dig.

Några fakta om detta otroliga centra:

  • Kostnad att bygga: c:a 3 800 miljoner kr
  • Ett av de största byggprojektet i Irland på länge med c:a 2 100 byggarbetare och en byggyta på närmare 30 000 m2.
  • Ett kylsystem (se gulmarkering på bilden ovan) som endast bygger på kall Irländsk luft ger stora energivinster och en vattenförbrukning som bara är 1%(!) av traditionella datacenter. (första gången Irland har nytta av sitt dåliga klimat :-))
  • Blev i  September utsett som en “best practice” i “European Commission’s Sustainable Energy Europe Campaign”
  • 5,4 megawatt effektiv drift ; uppgraderingsbart till 22,2 megawatt
  • Energin utnyttjas maximalt och Microsoft är ett av de största leverantörerna som följer “European Union (EU) Code of Conduct for Data Centres” kring utnyttjade av energi i datacentrat.

Säkerhetssystemet i byggnaden är rigoröst med avancerad övervakning och digitala lås. Skall bli spännande att se vad som händer när Windows Azure börjar spinna upp i hallarna.

- Ge det vad det tål !

Andra om datacenter