Kategoriarkiv: Cloud

Vad gör du under de 0,1 procent då molnet inte finns?

Ifrån trendspaning.se

Högautomatiserade molntjänster är sannolikt betydligt säkrare än din nuvarande drift. Men det betyder inte att risken är noll. Här får du tre regler att komma ihåg för det du helst vill glömma.

Jag har under den senaste tiden mött flera människor och företag som lägger upp sina system i molnet och sedan glömmer allt man lärt sig om riskhantering. Man föreställer sig en arkitektur där system och data kommer vara garanterat tillgängliga från idag till slutet av vårt kända universum.

Och även om det naturligtvis är en ambition, så är verkligheten tyvärr annorlunda. Även molnsystem kommer att ligga nere i perioder och det oberoende vilken leverantör man väljer – om det så är Microsoft, Amazon, Google eller IBM.

image

Studerar man de SLA:er som finns för de stora molntjänsterna, ser man att de landar på runt 99.9 procents upptid – något som har visat sig vara en rimlig uppskattning för arkitekturer på de molnplattformar man har idag.

Dagens molnplattformar är byggda för att vara distribuerade, geolokaliserade och speglade, det finns både redundans och trippelredundans för data och bearbetning, vilket reducerar risken för att något ska gå fel: men den går aldrig ner till 0. Den kan aldrig gå ner till 0. Det finns alltid händelser som kan inträffa, hur osannolika de än kan tyckas vara.

För dig som väljer högautomatiserade molntjänster från de stora megadatahallarna är den goda nyheten att du förmodligen får betydligt bättre driftssäkerhet än vad du har idag. Men det innebär inte att du inte längre behöver ta något personligt ansvar. Det är kanske en självklarhet, men ändå värt att påpeka.

Det kan vara på sin plats med några regler om molnet och driftsäkerhet.

Regel 1: Att du har valt en molntjänst innebär inte att du inte behöver planera för nedtid

Din planering kan naturligtvis vara inte göra någonting alls – att låta dina tjänster vara nere tills de kommer tillbaka (för det gör de). Men om tjänsten är viktig, om den påverkar liv, så måste du ha en plan B att falla tillbaka på så att du inte står handfallen.

Regel 2: Molntjänster ska inte ses som en billig försäkring mot ekonomiska konsekvenser

Jag tror att de flesta inser att det är orimligt att låta molnleverantörerna stå för hela den kommersiella förlusten när din tjänst ligger nere.Det är inte rimligt att betala hundra kronor för en molntjänst och sedan förvänta sig att leverantören skall betala miljoner om tjänsten ligger nere i en timme. Det låter för bra för att vara sant och är det också naturligtvis.

Sanningen är att du måste ta ansvar för din egen affärsrisk – på samma sätt du alltid har gjort.

Regel 3: Botemedlet mot nedtid är transparens

Det viktigt när någonting händer är transparens; både ifrån molnleverantören och ifrån dig till dina användare. Att som kund få uppdaterad information om vad som faktiskt händer när något går fel, status och planerad lösning är ett måste för att hantera konsekvenserna på bästa sätt.

Behöver jag gå ut med ytterligare information till mina kunder? Behöver jag gå över till manuella processer eller peka om till ett backupsystem?

Om du har en strategi för att hantera nedtider även i molnet så kommer du också märka att du kan hantera dina egna relationer och affärsrisker bättre.

Under de 0,1 procenten sitter alla i samma båt.

Så långt kan Sveriges tåg köra på Cloud Computing

För ett tag sedan fick jag en fråga: Går det att beräkna hur mycket energi som kan sparas om hela Sverige går över till att använda molntjänster istället för att köra applikationerna via egna datacenter? Det är inte helt lätt att svara på men låt oss göra ett försök och se om det går att uppskatta.

Vi behöver 4 fakta för att kunna göra en sådan uppskattning:

  1. Vi behöver veta hur stor Sveriges totala energianvändning är.
  2. Vi behöver veta hur stor andel av denna som IT förbrukar.
  3. Vi behöver veta hur stor andel av denna förbrukning som är drift av lokala datacenters.
  4. Vi behöver veta hur mycket man sparar genom att flytta ifrån lokala datacenter till molnet.

Ok, låt oss göra ett försök:

  1. Enligt energimyndigheten så var Sveriges totala energianvändning under 2009 568 TWh.
  2. Gartner kom för några år sedan med en intressant rapport som indikerar att IT står för 2 procent av världens CO2 utsläpp. Låt oss förutsätta att utsläppen står i proportion till energiproduktion, då skulle Sveriges IT använda 11 TWh per år.
  3. Hur mycket av denna energi förbrukas av datacenter då? Enligt en undersökning ifrån 2007 (också av Gartner) så indikerar man att det är 23 procent. Då skulle vi använda 2,5 TWh per år till våra datacenters.
  4. Slutligen: Hur mycket kan vi spara på att gå över till molnet? Microsoft tog fram en rapport under 2010 som visar att energiförbrukningen kan minska med 30-90 procent jämfört med lokala datacenter (det beror på om det är ett stort eller litet företag). Låt oss ta ett genomsnitt på en halvering av förbrukningen. Då har vi svaret: 1,25 TWh.

Hur mycket energi är detta då?

Enligt Karlstad kommun och Echo action räcker 1 TWh för att driva alla Sveriges tåg, tunnelbanor och spårvagnar i fem månader så 1,25 TWh räcker då åtminstone sex månader.

Alltså – effekten av att alla går företag går över till molntjänster innebär att vi kan driva Sveriges tåg, tunnelbanor och spårvagnar i minst ett halvår.

Det elektriska molnet?

Jag både gillar och ogillar analogier. Fördelen med analogier är att de gör (ofta nya) scenarios lätta att förstå med existerande kunskaper, problemet är att de samtidigt är förrädiska lockande att tro på även om de inte stämmer. Av det skälet så är jag oftast skeptiskt till de analogier jag hör. Låt oss titta på den vanliga analogin: ”IT i molnet är som el konsumerat via två hål i väggen”.

Håller analogin?

image

Rimligen finns det mängder med svårigheter att jämföra el med IT om försöker bygga affärsmodeller och tjänster i molnet med elkraftsdistribution som förebild. Har du fler aspekter som inte passar ?

The age of data – öppen data öppnar möjligheter

Kundinformation, affärstransaktioner, spårningar, övervakning, beteenderegistrering, uppföljning, kommunikation, film, musik, e-böcker, innehåll skapat av individer, offentligt information, demografisk information, rapporter, marknadsstatistik, nyheter, analyser… Varje dag skapas 15 petabyte data, vilket är åtta gånger informationen på papper i alla amerikanska bibliotek”.  Detta är inledningen på Sveriges IT- arkitekters informationskonferens 2010.

Kan vi konsumera mer information? Vill vi?

Svaret är naturligtvis ja, det finns stora mängder med information i skyddade hamnar utanför Internets hav av information som väntar på att förädlas och användas i innovativa syften. Information som ägs av oss alla och som finns oåtkomligt i olika myndigheters databaser.

Filosofin kring ”öppen data” och synen på att all information ska publiceras är på sätt och vis en gammal idé som bygger på viljan kring ett transparent samhälle.  År 2010 bör dock frågan kring öppen information hanteras med en genomtänkt strategi då information kan utnyttjas av entreprenörer för allas bästa men också missbrukas när den samkörs med annan information. Differentiell integritet är ett ämne som adresserar detta och som jag kommer återkomma djupare till i en annan bloggpost. Utöver integritetsaspekten finns också fog för att fundera på om fullkomlig transparens med information kan ge oönskade effekter som är större än fördelarna. Något som bl.a. professor Lawrence Lessig har gått djupare in på.

Om vi för ett tag lämnar data som innehåller personlig information så finns det parallellt värdefull data som rimligen är lättare att publicera och svårare att missbruka – statistisk, meterologisk eller forskningsinformation. Information som är anonym men som ändå har ett värde i ett digitalt ekosystem som kan förädla och leverera information till rätt person.

Låt oss titta på ett sådant ekosystem ifrån två olika perspektiv; konsument respektive producent.

Konsument

Ifrån en konsuments perspektiv är det intressant att diskutera hur väl förädlad information bör vara ifrån producenten. Man kan använda olika nivåer av förädlad information för olika syften och den bör därför även finnas att tillgå i olika former. Analyserad, pivoterad och aggregerad information kan i många fall vara enklare att använda men den ger inte samma typ av flexibilitet som rådata kan erbjuda. En balansakt blir naturligtvis att bedöma var gränsen går när en producent börjar påverka ekosystemet som vill använda informationen för att leverera tjänster om producenten börjar konkurrera i ekosystemet istället för att leverera. Någon som te.x. Stockholms handelskammare ofta tar upp.

Producent

Ifrån producentperspektivet är det viktigt att man tar uppgiften på stort allvar. När man kopplar in en datakälla i ekosystemet måste den uppfylla ett antal krav för att kunna användas effektivt. Den måste publiceras i öppna format, där XML rimligen bör vara standard. Den borde märkas upp med någon typ av semantisk teknik för att underlätta automatisering men den måste levereras med någon typ av SLA (Service Level Agreement) som visar under vilka förutsättningar informationen finns tillgänglig. Man riskerar annars att skapa svåröverskådliga kedjeeffekter i ekosystemet om en viktig informationskälla plötsligt sluta fungerar eller inte klarar belastningen om den blir populär.

Hur kan olika aktörer samarbeta för att Sverige ska ta ledningen kring detta?

2 JA och 2 NEJ för molnet under 2010

Visst; som många andra så tror även jag att 2010 kommer att bli “molnets år” men det kan vara värt att titta i backspegeln och inte glömma att vid allt för stora förväntningar finns det också en stor fallhöjd:

Här kommer några av mina spådomar kring vad jag tror blir hett för molnet under 2010.

1. Nej; vi kommer inte se en massiv förflyttning ut i molnet under 2010. Något jag lärt mig under åren är att platformsskiften tar sin tid. Lär av SOA eller Client-Server förflyttningen – historien kommer rimligen upprepa sig. Vi borde dock se mängder av nya projekt som provar, testar och prototypar de nya plattformarna tillsammans med ett optimeringsarbete som en förberedelse för en förflyttning som kanske startar på allvar under 2011-12 ?

2. Ja; Säkerhet måste bli en fråga att känna sig komfortabel med; det kommer vara nödvändigt att få en allmän ”bas” kring säkerhetsstandarder som te.x ISO/IEC 27001:2005 (LIS i Sverige), SAS 70 eller kanske andra nya standarder som gör att säkerhetfrågan “goes whitout saying”. Om du som molnleverantör inte på ett rimligt sätt kan visa hur du hantera din informationssäkerhet så är det i praktiken så att du inte får spara t.ex. personlig information enligt datainspektionen och PUL.  Det saknas dock konkreta krav kring vad som är rimlig säkerhet. Rimligen kommer köpare av Cloud tjänster kräva mer transparens kring hur säkerheten ser ut och börja tveka på leverantörer som säger “lita på mig”.

3. Ja; Interoperabilitet kommer att bli en alltmer diskuterad fråga och alltfler aktörer kommer att börja positionera sig inom området. Redan idag finns det mängder med olika initiativ som CCIF, Cloud Manifesto, ISO SC38 eller DMTF; i ett tidigt område som Cloud Computing så är det naturligt att det först måste till en lång innovationsfas innan du kan börja låsa API’er. Utmaningen består av att identifiera vilka funktioner som är tillräckligt mogna (och viktiga) att börja låsa och vilka som inte passar in. I Sverige tror jag att nybildade Cloud Sweden kan bli en viktig lokal faktor.

4. …och Nej; Vi kommer inte heller under 2010 komma överens om vad som är det korrekta sättet att uttala “Windows Azure” – egentligen …

Svensk “molndefinition” under utveckling

Jag har tillbringat en del av min tid på sistone med att debattera vad Cloud Computing verkligen innebär. I den annorlunda omgivningen av ett kloster(!) i Venedig förra veckan  hade jag en intressant diskussion med Reuven Cohen kring om det är rimligt att kalla någonting alls för ett “privat moln” – om ett privat moln ändå inte har några av de egenskaper som man förknippar med begreppet “cloud computing” (oändlig skalbarhet, inga initialkostnader etc.…) ?. Sedan juni har vi inom IASA försökt komma fram till någon slags definition där vi sätter begreppen som florerar i relation till varandra. Det är inte helt lätt då flera av termerna är marknadsföringstermer vilket innebär att de inte nödvändigtvis betyder något.

Nåväl den initiala definitionen på cloud computing som vi diskuterar som bas just nu är:

———- Start definition

”Cloud Computing” refererar både till applikationer över Internet och till den hård- och mjukvara som tillhandahåller dessa applikationer.

- Applikationerna kallar vi för ”Software as a Service”
- Hård- och mjukvaran är det vi kallar ”Cloud (Moln)”

Om molnets tjänster är publikt tillgängliga så kallar vi det:

- ”Public Cloud (Publikt moln)” och dess tillgängliga tjänster för ”Utility Computing”
- … annars kallas det för ett ”Private Cloud (Privat moln)”

”Cloud Computing” karaktäriseras av två viktiga egenskaper

- Upplevt oändliga resurser
- Betalning per resursförbrukning

.. som inte levereras av ett ”Private Cloud (Privat Moln)”

Alltså:
Cloud Computing är summan av SaaS och Utility Computing 

———– Slut definition

Det finns en hel del debatt kring denna just nu. Jag hoppas att vi kan komma fram till en konsensusdefinition inom kort.

Almedalen 3 – Tekniska, sociala och juridiska trender för offentlig sektor

Sista rapporten ifrån Almedalen. På torsdagen så deltog jag på ett seminarium som diskuterade hur tekniska, sociala och juridiska trender konvergerar. Deltagare var Christer Berg som arbetar som trendspanare på Dataföreningen, Per Furberg som är advokat och en av Sveriges främsta experter på IT-rättsliga frågor och Magnus Höij som är chefredaktör på Internetworld. 
Mycket kort kan man sammanfatta ståndpunkterna som som här:

1. Tekniska megatrender: IT är inte längre än egen megatrend utan en viktig kugge i ett antal andra globala megatrender som kommunikation, underhållning, energi, vetenskap, undervisning och sjukvård. Information börjar med accelererande hastighet spridas ifrån centrala databaser till andra källor och jag visade hur äganderätten till informationen rent tekniskt  i framtiden kommer kunna ligga hos användaren istället för hos de som behandlar den. Redan idag så lagrar +30% av amerikanarna privat information i molnet.

2. Sociala trender: Christer lyfter perspektivet till att beskriva ett antal Metatrender, trender om trender.  Allt blir tillgängligt, allt blir intelligentare, alla blir tillgängliga. Man begär ingenting men man vill ha ALLT. En realtidsresponderande värld där man för att kunna på ökad produktiviteten måste kunna integrera in alla flöden i realtid. Vi är bara i början på ett allt intelligentare moln.

3. Juridiska trender: Per’s ser utmaningen med nya IT trender och lagar  att få till en världsbild som stämmer in på de befintliga lagarna. Det är dock möjligt anser Per, det gäller dock att vara innovativ och hitta korrekta analogier. Per visar en mycket intressant lösning som beskriver hur han skapade en analogi (besöksrummet) som möjliggjorde för medborgare att skicka viss information till en myndighet utan att den måste diareföras i alla steg. Han beskrev också hur man designar gränssnitt hos myndigheter som lösa ett antal juridiska svårigheter.

2 - P1290866

En lååång diskussion tog sedan fart kring dessa frågor. Mer kring denna finns på twitter…>

Inlåsning i molnet ?

Fick just tillsänt mig en länk till en artikel på IDG som diskuterar inlåsning i molnet. Hmm, Microsoft nämns där  som en av de organisation som inte står bakom det  initiativ som kallas för “Cloud Manifesto”. För att ge en bättre översikt över stödet för detta initiativ så tror jag att det behövs ett förtydligande . Ingen av de stora molnleverantörerna skrev på Cloud Manifesto. Google: Nej, Amazon: Nein, Microsoft: Njet,  Salesforce: Nope

…till och med en av initiativtagarna ; Cloud Computing Interoperability Forum (CCIF) drog sig själva ur (!)

Det är inget fel på Cloud Computing Manifesto egentligen (personligen anser jag det dock lite för löst i köttet för att vara användbart). Man misslyckades dock att förankra de olika principerna i en öppen process och gav inte rum för en tillräcklig dialog.

Det innebär inte att ämnet inte är viktigt; det är det.

Tankar ifrån Offentliga Rummet 09

image

Tillbringade några dagar i Norrköping för att delta på årets upplaga av Offentliga Rummet. Lite spridda funderingar:

Lyssnade på ett intressant föredrag av Thomas Engevall (CIO för Försvarsmakten) kring den kompetens de byggt upp genom sin satsning på nätverksbaserat försvar. Enligt Thomas så går 10% av försvarets budget till IT system, hög siffra men naturligt med många inbyggda IT system. I det perspektivet blir det särskilt intressant med det arbete kring klassificering av applikationer som de gjort; te.x så behöver knappast arméns applikation som beräknar inköpslistor ifrån matrecept sitta i samma infrastruktur som stridsledningssystemen.

Denna typen av klassificering kan antagligen göras ännu mer kvalificerad för att verkligen optimera applikationer på kostnader, säkerhet och funktioner – något som jag själv brukar argumentera kring som livsnödvändig partitionering när vi går över till cloud computing. Också intressant  är att verkligen riskbedömma vilka beroende man har till 3:e part. Vad är verkligen kritisk information i en verksamhet ? Försvaret behöver t.ex ha tillgång till geodata; utan denna information så stannar verksamheten.

Övrigt under dagarna så fanns det en hel diskussion kring den nya e-delegationen där bl.a. Magnus Enzell var med i en debatt där olika forskare kritiserade den nationella handlingsplanen. En intressant fråga som dök upp är frågan kring vem som egentligen är “chefen” eller “e-tsaren” som man ibland valt att kalla den. Finns en sådan person ? Det förefaller orimligt att i svensk förvaltningspolitik ha en sådan fungerande position (vilket inte är fallet i USA) . Positionen skulle antagligen bli allför underminerad av starka svenska myndigheter vilket är en argumentation för att det nuvarande formatet för e-delegationen fungerar bättre.

Det är också kul att se till och med Anders Borg verkar ha börjat blogga. Det är dock hypotetiskt möjligt att det inte karaktäriseras som bloggande att lägga ut ett inlägg med 10 A4 sidor fullskriven text.

Möte med Ray Ozzie

Var i Seattle förra veckan  och hade förmånen att tillsammans med mina kollegor i Microsoft Technology Office diskutera Cloud Computing med Ray Ozzie som är Microsoft’s chefsarkitekt – en roll som han tog över efter Bill Gates 2006. Tyvärr kan jag inte berätta allt som sades på mötet men en sak skiljer tydligt Cloud Computing ifrån andra IT arkitekturer och det är hur olika policyfrågor gör den tekniska designen komplex på ett sätt man inte brukar se.

  • Var finns informationen ?
  • Vilka juridiska regler för informationen vid en viss tidpunkt ?
  • Hur många kopior finns det ? Är de statiska eller transienta ?

En intressant kommentar jag tog med mig ifrån mötet är: 

“- Clouds move”

SaaS in the enterprise – the new legacy systems if we do it wrong ?

This Thursday I was participating in a panel at the ICT fair. The topic  was Software As A Service and the panel had representatives from the user perspective, the legal perspective and a couple of SaaS vendors like Microsoft, Google, TrendMicro and Salesforce. We were discussing both benefits and disadvantages about going to SaaS.

Some highlights:

Lars Jerkland from Google highlighted the trend of moving consumer applications into the Enterprise, Kaja Narum from TrendMicro talked about security as as service; which basically is about introducing orthogonal infrastructure services in the Enterprise which is kind of an emerging market. Johan Zetterström  from SalesForce talked about the cost and installation benefits of enterprise SaaS solutions. Jim Runsten, a lawyer at Bird&Bird talked about the importance of actually understanding what you buy and Alan Voreck talked from a user perspective about how SaaS applications for accounting firms seems to be a sweet spot.

I have always been very positive to SaaS solutions; they have a lot of capabilities that makes a lot of sense in many scenarios. However, when I was driving home in my car after the panel I realized that there is something about SaaS that makes me a little bit nervous about the near future. Let me elaborate:

Let’s take a historical perspective. What has been the focus of IT projects in the enterprise for the last 5 years ? Most people would probably argue that is has been the change to a service oriented way of working and thinking. The purpose obviously to give your organization a more flexible, effective and agile IT architecture.

A lot of things has been done to support this vision:  Single-Sign On Solutions, master data management, process externalization from legacy system, integrating these processes with the rest of the organization using standards based protocols etc…  This has been possible largely by taking back the control of information and processes that were deeply hidden in old legacy systems.

Ok, to this scene enters SaaS solutions.

Most of them requires separate login credentials, their data are not accessible from other SaaS providers; their processes not accessible from your local processes etc… etc…

Does this not sound like the old legacy stovepipe solutions that we are trying so desperately to get away from ?

If we integrate SaaS solutions in the wrong way (or not at all) to our existing architecture we might just very soon find end users with 10 sticky notes containing passwords to 10 different SaaS applications complaining about doing swivel-chair integration of data between the systems.

Buying SaaS without strategic thinking; is there not a risk of taking a 5 year step back in creating an agile and flexible enterprise architecture ? Hmm….