Hur undviker du att bli dödad av din robot?

Det var länge bara en dröm. En dröm där många av våra tråkiga arbetsuppgifter tas över av robotar som lyder vår minsta vink. Men finns det en risk att drömmen förvandlas till en mardröm?

Robotar. Tillräckligt intelligenta för att lösa de problem som vi ger dem, men inte tillräckligt intelligenta att ta makten. Nu är det mycket som talar för att denna dröm inte är så långt ifrån oss som vi skulle kunna tro.

Allt mänskligare
Det var länge sedan robotar var lika med monteringsrobotar som punktsvetsade bilplåtar på löpande band. De robotar som nu byggs har en högre ambition än så. De har siktet inställt på att ta över stora delar av de arbetsuppgifter som vi idag fortfarande gör själva.

De nya robotarna kombinerar artificiell mänsklig kognition, maskininlärning och avancerade sensorer för att kunna fungera i allt fler miljöer. Artificiell mänsklig kognition gör att robotar kan replikera vårt eget mänskliga beteende. Tappar de en boll så tittar de på bollen. Förstår de inte rycker de på axlarna och deras ögon av glas följer dig med blicken i väntan på kommunikation.

Det kan tyckas banalt men enkla mänskliga signaler kan få människor att acceptera robotar som någon annat än maskiner.

image

Disney Labs – Bollspelande robot som använder nuvarande Kinect Sensor.

Självlärande och tolkande
Maskininlärning i samband med alltmer avancerade sensorer gör att robotarna kan komma oprogrammerade från fabriken. Nyfödda. Du visar roboten vad den ska göra och den lär sig själv.

Ett bra exempel på vad en robot idag kan få för information om sin omgivningen visar den nya Kinect Sensor för XBOX ONE. Den vet om du är glad, den vet om du tittar på den, den vet dina hjärtslag. Den kan tolka många av de signaler vi själva använder för att förhålla oss till andra människor.

image

Framtida XBOX ONE – analys från nya Kinect sensorn.

Reflektera för en stund. Finns det någon anledning att människor ska arbeta i ett lagerhus när snabba robotar kan arbeta hela dygnet och lyfta fem gånger mer än en människa. Aldrig göra fel eller frestas till stöld? Städning av lokaler kan göras av robotar under nätterna. Kanske i ditt eget hem så att du varje morgon vaknar upp till ett fräscht och nystädat hem?

Det kommer kanske ta ett tag men robotarna kommer ta över allt fler enkla uppgifter och snart gå vidare till de mer avancerade uppgifterna. Men med robotar runt om oss överallt så dyker frågan naturligtvis upp.

Vilka regler ska gälla för hur robotar kan och får agera i samhället?
Minns ni robotikens tre lagar skapade av författaren Isaac Asimov på 40-talet?

  1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
  2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
  3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Det tillkom lite senare än fjärde lag men den är ganska ointressant i sammanhanget. Dessa lagar förutsätter en slags tänkande robot som vi ännu är långt ifrån att skapa. Det som är viktigare är snarare hur man ser till att den första generationens robotar blir säkra för oss människor?

Vad händer om en människa ger en order till en robot att gå hem till en annan människa och döda denna människa? I en värld utan ”robotpolicies” så kommer det naturligtvis hända och spårbarheten samt ansvarsfrågan blir svår att hantera.

Vi kommer behöva studera och diskutera i detalj hur vårt samhälle ska fungera i en värld av robotar. Från filosofisk, juridisk och teknisk synvinkel.

Nya lagar

Just detta är uppdraget i projektet RoboLaw (www.robolaw.eu). RoboLaw-projektet är ett unikt EU finansierat (1,5 miljoner euro) projekt som knyter samman ett antal europeiska universitet i syftet att skapa de framtida policyregler i det nya robotsamhället.

Några av de frågor man arbetar med i projektet handlar till exempel om vem som är ansvarig om din självstyrande bil kör på en trafikant. Var går ansvaret mellan människa och teknik?

Även som RoboLaw-projektet säkert kommer komma fram till intressanta slutsatser så kommer det bara vara början på en lång debatt. Vi kommer som samhälle behöva besluta vilka risker vi vill ta i ett nytt robotsamhälle och väga dem mot fördelarna.

(även på Trendspaning.se)

Är tiden för de STORA uppfinningarna slut?

Från trendspaning.se

HISTORISK SYNVILLA En vanlig uppfattning idag är att allt går så mycket snabbare än det brukade göra. Att nya tekniska innovationer skapar en allt snabbare produktivitetsökning i samhället. Men är det verkligen sant?

För del allra flesta i västvärlden är det nog egentligen tvärtom. Ny teknik förändrade livet för dina föräldrar i högre utsträckning än det har gjort för dig. För att inte tala om hur teknik förändrade dina föräldrars föräldrars liv!

Minskad produktivitet

Jag råkade läsa en intressant artikel i the Economist för ett tag sedan som pekar på att produktivitetsökningen i USA (det vill säga output per arbetad timme) faktiskt minskat sedan 70-talet. Delvis förvånande med tanke på hur IT har bidragit med att effektivisera många processer i samhället.

image 

Om vi extrapolerar produktivitetsökningen som vi hade ifrån slutet av 40-talet till början av 70-talet hade samhället idag sett ganska så annorlunda ut. 30 timmars arbetsvecka kanske?  Så vad kan detta bero på? Är den senaste 30 årens kurva det nya normala?

Har vi redan använt effekten från de stora tekniska uppfinningarna under 1900-hundratalet?

Produktivitetsökning en enda gång

Robert Gorden, ekonom på Northwestern University i USA, påpekar att ”Den snabba produktivitetsökningen som gjorts de senaste 250 åren kan mycket väl vara en unik episod i mänsklighetens historia snarare än ses som en garanti för att framtiden kommer utvecklas i samma takt”.

Den snabba ökningen har varit en effekt av ett antal stora uppfinningar som ångmaskiner, elektriskt ljus, avlopp, robotar och internet. Vissa menar att dessa stora uppfinningar bara kan genererar en produktivitetsökning en enda gång.

Nästa STORA förändring

Låt oss säga att internet redan har haft sin stora inverkan. I stort förbrukad. Då kan man fråga sig vilken nästa ”stora uppfinning” kommer bli?

En hel del teknik har knappt förändrats alls. Eller hur? Flyg har blivit billigare men har det blivit bättre? Concorde flög snabbare på 70-talet än vi kan göra idag. Bilar använder fortfarande i huvudsak fossila bränslen, rymden kändes förmodligen närmare för 30 år sedan än den gör idag.

Som jag ser det så har de senaste 40 åren framförallt handlat om digitalisering och kommunikation, mycket få andra uppfinningar har verkligen förändrat samhället under mitt liv.

Vad gör du under de 0,1 procent då molnet inte finns?

Ifrån trendspaning.se

Högautomatiserade molntjänster är sannolikt betydligt säkrare än din nuvarande drift. Men det betyder inte att risken är noll. Här får du tre regler att komma ihåg för det du helst vill glömma.

Jag har under den senaste tiden mött flera människor och företag som lägger upp sina system i molnet och sedan glömmer allt man lärt sig om riskhantering. Man föreställer sig en arkitektur där system och data kommer vara garanterat tillgängliga från idag till slutet av vårt kända universum.

Och även om det naturligtvis är en ambition, så är verkligheten tyvärr annorlunda. Även molnsystem kommer att ligga nere i perioder och det oberoende vilken leverantör man väljer – om det så är Microsoft, Amazon, Google eller IBM.

image

Studerar man de SLA:er som finns för de stora molntjänsterna, ser man att de landar på runt 99.9 procents upptid – något som har visat sig vara en rimlig uppskattning för arkitekturer på de molnplattformar man har idag.

Dagens molnplattformar är byggda för att vara distribuerade, geolokaliserade och speglade, det finns både redundans och trippelredundans för data och bearbetning, vilket reducerar risken för att något ska gå fel: men den går aldrig ner till 0. Den kan aldrig gå ner till 0. Det finns alltid händelser som kan inträffa, hur osannolika de än kan tyckas vara.

För dig som väljer högautomatiserade molntjänster från de stora megadatahallarna är den goda nyheten att du förmodligen får betydligt bättre driftssäkerhet än vad du har idag. Men det innebär inte att du inte längre behöver ta något personligt ansvar. Det är kanske en självklarhet, men ändå värt att påpeka.

Det kan vara på sin plats med några regler om molnet och driftsäkerhet.

Regel 1: Att du har valt en molntjänst innebär inte att du inte behöver planera för nedtid

Din planering kan naturligtvis vara inte göra någonting alls – att låta dina tjänster vara nere tills de kommer tillbaka (för det gör de). Men om tjänsten är viktig, om den påverkar liv, så måste du ha en plan B att falla tillbaka på så att du inte står handfallen.

Regel 2: Molntjänster ska inte ses som en billig försäkring mot ekonomiska konsekvenser

Jag tror att de flesta inser att det är orimligt att låta molnleverantörerna stå för hela den kommersiella förlusten när din tjänst ligger nere.Det är inte rimligt att betala hundra kronor för en molntjänst och sedan förvänta sig att leverantören skall betala miljoner om tjänsten ligger nere i en timme. Det låter för bra för att vara sant och är det också naturligtvis.

Sanningen är att du måste ta ansvar för din egen affärsrisk – på samma sätt du alltid har gjort.

Regel 3: Botemedlet mot nedtid är transparens

Det viktigt när någonting händer är transparens; både ifrån molnleverantören och ifrån dig till dina användare. Att som kund få uppdaterad information om vad som faktiskt händer när något går fel, status och planerad lösning är ett måste för att hantera konsekvenserna på bästa sätt.

Behöver jag gå ut med ytterligare information till mina kunder? Behöver jag gå över till manuella processer eller peka om till ett backupsystem?

Om du har en strategi för att hantera nedtider även i molnet så kommer du också märka att du kan hantera dina egna relationer och affärsrisker bättre.

Under de 0,1 procenten sitter alla i samma båt.

Skriv ut ett par skor – tekniken som förändrar allt

Det är knappast en överdrift att påstå att informationsteknologi och internet har haft en enorm påverkar på hur vi lever. Utan IT hade den globala ekonomin varit en skugga av hur den ser ut idag. Du och jag hade haft helt andra typer av arbeten, produktiviteten i samhället hade legat på mycket lägre nivåer och du hade inte haft alla de prylar eller den information som du har vant dig vid.

Om du, som jag, är runt 40 och reflekterar kring vilka större kapitalprylar din familj hade när du växte upp så handlade det förmodligen om en bil, cykel, ett hus och en TV. Mycket mer fanns det inte utrymme för. Saker kostade för mycket att tillverka för att de skulle kunna säljas till konsumenter.

Idag har globaliseringen sänkt priserna på de flesta prylar till under 10.000 kr och i många fall till under 1.000 kr. En prisnivå där konsumenter börjar köpa. Idag kan alla vara musiker, författare eller filmare med professionell kvalitet och snart kommer nästa pryl nå denna prisnivå och prylen heter 3D-printer.

image

Ergonomisk Timberland-sula utskriven av en Spectrum Z510 3D-printer.
Kostnad c:a 250 kronor och tillverkningstid 90 minuter.

Industriell tillverkning har under lång tid byggt på begreppet ”economy of scale”. Principen är enkel: bygg en fabrik som kan tillverka miljoner exemplar av en kamera för en global marknad och priset för kameran kommer minska baserat på de enorma volymerna – inom IT ser vi idag samma tankar komma med Cloud Computing.

3D-printrar kommer skapa nästa industriella revolution men intressant nog fungerar det enligt motsatt idé. Du kommer producera alla dina prylar hemma i ditt vardagsrum istället och priset för att tillverka en sak blir samma som för tusen och de ekonomiska skalmodeller vi är vana vid kommer inte längre att fungera som förut.

Hur fungerar en 3D-printer?

Det finns flera olika typer av tekniker för en 3D-printer men en av de vanligaste är att se på ett föremål som ett objekt bestående av mycket tunna skivor. 3D-printrar kan idag bygga upp föremål – lager för lager – med en precision på tiondelar av en millimeter genom att använda plast eller metallpulver och stegvis få varje lager av pulvret att stelna och bilda ett föremål.

Ladda ner en modellbeskrivning till din dator och klicka på PRINT; ut kommer en reservdel till din bil, en ny brödkniv, en designad vas eller en lampa. 3D-printern kan du ha på ditt kontor eller i en garderob.

Vill du kunna skriva ut större föremål – en cykel, en bil eller en kanot så behöver du en större och dyrare printer som kräver större utrymme. När en sådan printer finns på plats så kan den skriva ut nya printrar till dina grannar. Än så länge är inte printrarna tillräckligt avancerade för att kunna skapa alla typer av material, men tekniken utvecklas och nya typer av pulver som simulerar olika elektriska egenskaper, glas, tyg, trä är bara en tidsfråga.

Vad händer med ett samhälle utan produktion?

Vad händer i ett samhälle där det inte finns något behov av fabriker för tillverkning längre, där priset för att skriva ut en Rolexklocka är samma som vilken klocka som helst? Finns det något behov att leva i städer när vi inte behöver människor som går till produktionsanläggningar? Hur skapa man värde i ett sådant samhälle?

Svaret är att värdet finns i designen, i att konstruerar saker som människor vill skriva ut. Men hur kan man skydda denna design när den är digital och kan masskopieras?

Sanningen att säga så tror jag inte någon egentligen kan föreställa sig hur konsekvenserna för samhälle, ekonomi och arbete kommer se ut när 3D-printrarna kommer kunna skriva ut allt vad du önskar.

Vem förstod vad Internet skulle göra med samhället för 40 år sedan?

Fotnot: Även postat på trendspaning.se

Om virtuella pengar…

Hur virtuella pengar fungerar och varför du inte skall försöka generera dem.clip_image002

Vad är pengar egentligen? På sätt och vis en fantastisk innovation som inte är uppenbar om du tänker efter. När du ger mig en papperslapp med texten 100 kr (men som kanske bara kostar 1 kr att tillverka) så har vi överfört ett värde som vi båda är överens om vad det är värt.

Det har tagit oss lång tid innan vi hamnade i den situation vi befinner oss i idag. I början av resan fungerade en valuta med guld som bas för pengar – du hade t.ex. rätt att växla in pengar till guld om du ville och på så sätt garanterades pengarnas värde. Att man valde guld som bärare av värde beror framförallt på att den är svår att hitta och därmed minskar du risken att du utarmar värdet. Efter ett tag så behövde vi dock mer pengar än det fanns guld och man blev tvungen att frikoppla guldet ifrån pengar. Sverige äger dock fortfarande runt 170 ton guld lagrat på hemligt ställe och som väldigt få känner till var det finns.

En intressant fråga kan dock ställas: Måste en valuta fungera på det gamla sättet i den nya digitala värld vi befinner oss i idag? BitCoin.org är ett nytt spännande sätt att försöka skapa en ny digital valuta ifrån scratch men med en mängd fördelar jämfört med andra valutor, en del nackdelar också – men de återkommer vi till.

BitCoin: Hur fungerar det?

Projektet skapades för c:a 2 år sedan med målsättningen att skapa en ”peer-to-peer” valuta bestående av ettor och nollor där riktigt värde kan skickas mellan användare utan att någon tredje part är inblandad. Det finns flera utmaningar med att skapa ett sådant system förstås. Var kommer valutan ifrån? Hur hindrar du att den skapar inflation? Hur reglerar du den? Hur stoppar du någon att inte använda samma pengar två gånger? Hur stoppar du människor att bedrägligt skapa ny valuta? Alla dessa frågor har BitCoin försökt lösa och låt oss se på hur de är adresserade i tur och ordning.

BitCoin system skapades av en japans kryptolog vid namn Satoshi Nakamoto som är anonym (möjligen en fiktiv person) och består idag av ett nätverk av datorer (din eller min) sammankopplade via ett program med öppen källkod där alla står i konstant kommunikation med varandra. Systemet kan skapa nya pengar och gör också detta i en förutbestämd takt. Alltså : Pengar kan skapas i systemet av sig själv och ges till dig – något som också har hänt andra valutor: t.ex. skapades pengar genom att du gick in i en gruva och hackade dig fram till guld. När du hittade guld så skapades plötsligt pengar som tillföll upphittaren. Men det krävde en hel del arbete och BitCoin använder delvis detta koncept kring arbete.

Det skall vara svårt att skapa pengar.

Koncept

Men först lite mer bakgrund. För mer än tio år sedan föreslog en engelsk kryptograf, Adam Back, en metod som heter Hashcash. Hashcash kan användas för att ”bevisa att du utfört ett arbete” – d.v.s. din dator måste göra något beräkningsintensivt som kostar dig någon slags arbete och kunna bevisa att den utfört detta arbete. T.ex. kan datorn vara tvungen att skapa ett hashvärde av ett epostmeddelande där denna hash måste innehålla ett antal nollor i början. För att skapa detta måste du göra ett stort antal beräkningar vilket kommer ta en stund att utföra – något som skulle kunna vara ett sätt att stoppa e-postspam. Om du behövde göra en sådan beräkning på de mail du skickar så skulle din laptop kanske göra en sådan kalkyl på 3 sekunder och knappt märka det – en skräppostsändare som skulle skicka 100-tusentals mail skulle behöva vänta kanske en månad innan han var färdig. Idén föll naturligtvis på att det finns mängder med legitima skäl att skicka massmail som skulle få liknade problem och det är svårt att komma runt. Backs koncept kring ”bevis av arbete” återanvänds dock i BitCoin systemet.

Ännu lite mer bakgrund innan vi går igenom hur en BitCoin skapas. Det finns i BitCoins system ett koncept som heter ”block”. Dessa ”block” är en kollektion av transaktioner som skapats i systemet. Alla noder i nätverket håller hela tiden på att försöka skapa dessa ”block” genom att skapa en hash av transaktionerna (och tidigare block) som måste följa vissa regler. Den som först lyckas får av systemet en belöning på 50 BitCoins vilket kan jämföras med att hitta guld. Du har fått ett värde ifrån ingenting!

Alla block är låsta till varandra genom att de innehåller varandras hash vilket skapar en kedja av block som inte går att bryta eller manipulera. Iden bygger delvis på samma teknik som ligger bakom SecureLog – mitt patent ifrån 2005 och som idag används för att säkra upp loggar hos t.ex. banker.

Så: Blir jag rik genom att starta min klient och börja försöka generar pengar? Nej, det är en direkt dålig idé. Idag finns det knappast någon mening längre att använda en CPU, det finns personer som bygger kluster av grafikkort designade att göra bitcoins beräkningar – dessa betydligt snabbare än din CPU och kommer vinna över dig – det kommer förmodligen ta år innan du lyckas skapa egna pengar. Med andra ord: när du läser det här är det försent att ”hitta guld”. Systemet korrigerar sig dessutom själv över tiden så att det blir svårare att skapa nya BitCoins när folk blir skickligare på att skapa dem och adderar mer beräkningskraft i systemet. Systemet skapar c:a 300 BitCoins i timmen och din sannolikhet att få några är din processorkraft i förhållande till hela systemets processorkraft.

Systemet kommer också anpassa sig, om man idag får 50 BitCoins för en beräkning så får man bara 25 stycken när 210 000 blocks har skapats. Vi ser alltså en halvering av belöningen och den fortsätter – systemet kommer inte kunna skapa mer än 21 miljoner BitCoins och under de första 4 åren kommer hälften av dessa att skapas. Vad händer om detta är för lite och man behöver mer pengar då? Jo, då finns det i systemet en möjlighet att använda delar av BitCoins ända ner till den 8:e decimalen. Värdet ökar alltså om behovet växer och du kan börja använda milliBitCoins istället.

Att utföra en betalning eller få betalt är relativt komplext, systemet måste naturligtvis se till att du inte kan använda samma BitCoin två gånger. Lösningen är en kombination av PKI och publika transaktioner. Alla i systemet är vittne till transaktionerna och du använder din egna publika nyckel i kombination med den publika nyckeln för mottagaren och signerar. Transaktionen låses sedan i ett block och kan sedan inte dubbleras. Notera att transaktionen utförs fullkomligt anonymt. Inget vet vem som skickade pengar eller vem som fick dem.

Skall du köpa BitCoins ?

Ok, skall du då börja investera i BitCoins? Alla håller nog med om att det är en klassisk spekulationsekonomi i början av skapandet av valutan – samtidigt – om systemet håller och blir accepterat kommer valutan stabiliseras. Jag tror dock det finns flera saker som talar emot att det kommer lyckas lyckas som systemet ser ut just nu och det handlar om risk.

Risken är att du blir bestulen: Dina BitCoins representeras av en datafil på din hårddisk – denna kommer bli föremål för attacker ifrån diverse trojaner, webhacks och social manipulation. Och nej; det spelar ingen roll om du använder Mac, Windows eller Linux, du kommer vara ett potentiellt offer för hackare som vill ta något du har på din dator. Blir du bestulen så kan du inte heller bevisa att du ägde pengarna från början eller vem som tog dem – alltså riskfritt för en tjuv om han lyckas.

Risken är att det förbjuds: Systemet har en potential att sabotera de ekonomiska samhällssystem som finns idag och som samhället baseras på. Det omöjliggör en mängd av de beskattningssystem som finns idag. Det är naturligtvis möjligt att förbjuda detta på ett sätt som skulle marginalisera valutan även om det vore ett stort steg.

Risken är att någon till slut hittar ett sätt att hacka systemet. Skulle du t.ex. hitta ett sätt att skapa nya BitCoins utan att följa reglerna så blir alla BitCoins naturligtvis värda noll och systemet kollapsar. Notera att igen dock lyckats hitta ett hål i systemet än så länge.

Slutligen: Försök inte generera egna pengar i systemet – du slösar processorkraft och energi som kan användas till något nyttigare och du är redan för sent ute.

Hur som helst – det skall bli intressant att följa framtiden för systemet.

Så långt kan Sveriges tåg köra på Cloud Computing

För ett tag sedan fick jag en fråga: Går det att beräkna hur mycket energi som kan sparas om hela Sverige går över till att använda molntjänster istället för att köra applikationerna via egna datacenter? Det är inte helt lätt att svara på men låt oss göra ett försök och se om det går att uppskatta.

Vi behöver 4 fakta för att kunna göra en sådan uppskattning:

  1. Vi behöver veta hur stor Sveriges totala energianvändning är.
  2. Vi behöver veta hur stor andel av denna som IT förbrukar.
  3. Vi behöver veta hur stor andel av denna förbrukning som är drift av lokala datacenters.
  4. Vi behöver veta hur mycket man sparar genom att flytta ifrån lokala datacenter till molnet.

Ok, låt oss göra ett försök:

  1. Enligt energimyndigheten så var Sveriges totala energianvändning under 2009 568 TWh.
  2. Gartner kom för några år sedan med en intressant rapport som indikerar att IT står för 2 procent av världens CO2 utsläpp. Låt oss förutsätta att utsläppen står i proportion till energiproduktion, då skulle Sveriges IT använda 11 TWh per år.
  3. Hur mycket av denna energi förbrukas av datacenter då? Enligt en undersökning ifrån 2007 (också av Gartner) så indikerar man att det är 23 procent. Då skulle vi använda 2,5 TWh per år till våra datacenters.
  4. Slutligen: Hur mycket kan vi spara på att gå över till molnet? Microsoft tog fram en rapport under 2010 som visar att energiförbrukningen kan minska med 30-90 procent jämfört med lokala datacenter (det beror på om det är ett stort eller litet företag). Låt oss ta ett genomsnitt på en halvering av förbrukningen. Då har vi svaret: 1,25 TWh.

Hur mycket energi är detta då?

Enligt Karlstad kommun och Echo action räcker 1 TWh för att driva alla Sveriges tåg, tunnelbanor och spårvagnar i fem månader så 1,25 TWh räcker då åtminstone sex månader.

Alltså – effekten av att alla går företag går över till molntjänster innebär att vi kan driva Sveriges tåg, tunnelbanor och spårvagnar i minst ett halvår.

Dags att återkalla aporna ?

Hur fattar du egentligen beslut? Som alla andra naturligtvis. Dina beslut fattas av din hjärna baserat på någon typ av stimulans eller information. Mängden tillgänglig information inför beslut ökar nu lavinartat. Innebär det bättre beslut?

Exakt hur mönster av neuroner skapar minnen, hur de modifieras eller tillsammans skapar dynamiska kognitiva processer är inte uppenbart. Att det finns tydliga begränsningar i din förmåga att använda alla all information och fakta omkring dig för beslut är dock uppenbart. I genomsnitt så klarar du av att hantera fem fakta per beslut – vilket i sig är en prestation. Våra IT-system ger oss dock ofta 100-tals.

1.000 faktauppgifter inför en diagnos

Ett exempel på där fakta börjar bli en allt större utmaning att konsumera är inom sjukvården. Om du som läkare får 10,20 eller 100-tals fakta från IT-systemen för att fatta ett diagnosbeslut – är all dessa fakta till nytta? Du kommer knappast kunna använda dem alla på ett effektivt sätt.

William Stead vid Vanderbilt University prognostiserar att antalet tillgängliga fakta om en patient inför en diagnos kommer stiga till uppemot 1.000 fram till år 2020.

image


Visualisering nytt tillväxtområde

Det är uppenbart att våra traditionella IT-system och sättet de hanterar och visualiserar information är för grova och förenklade idag och att någonting annat måste ersätta dem. Rimligen kommer produkter för visualisering, expertsystem, dataanalys etcetera att se annorlunda ut om några år. Teknik som semantik och intelligentare beslutstöd måste rimligen utvecklas vidare för att kunna ge användare av framtidens IT-system nytta av all denna fantastiska information som finns överallt omkring oss.

image

Blir beslutsfattande alltför komplext genom informationsexplosionen, så kommer återigen aporna som kastar pil tillbaka som ett intressant alternativ.

Från: TrendSpaning.se

Vem är “Wikileaks” ?

Jag var en av deltagarna för en timme sedan när Julian Assange, inbjuden av Svenska Broderskapsrörelsen, höll ett seminarium om Wikileaks. Julian är grundare till Wikileaks och sägs vara under konstant resande och under observation av CIA var han än rör sig. Wikileaks har onekligen gett en stark påverkan på opinionen kring kriget i Afganistan.

Exempel: enligt Julian så:

  • … har publiceringen av Afghan War Diary ökat krigsrapporteringen i USA ifrån 6 % till 18 %, d.v.s. med 300 %.
  • … anser 50 % av den amerikanska befolkningen at det är korrekt att publicera hemliga dokument vilket enligt Julian, är högt i USA.
  • … har support för kriget minskade med 30 % efter publiceringen

Han passade också på att ge några fakta om Wikileaks som kanske inte är så allmänt kända:

  • 8 000 av de 15 000 kvarvarande dokumenten är nu analyserade och på en direkt fråga så menar Julian att det är veckor kvar innan dessa också kommer analyseras.
  • Wikleaks organisation består av motsvarande c:a 25 heltidstjänster
  • Deras budget är c:a $600 000 och de har fått in c:a $1 000 000 ifrån bidragsgivare
  • www.diarydig.org är en nyutvecklad sajt som gör det enklare att förstå det militära språket i krigsrapporterna. Sajten är utvecklad av studenter på MIT.
  • Wikileaks planerar en svensk del av sin redaktion

En sak som dock som kan göra mig bekymrad när man lyssnar på Julian är bristen på transparens inom Wikileaks. Det är naturligtvis en omöjlig sits; då Wikileaks agerar som de gör så måste de upprätthålla en sekretess och hemlighålla sin organisation.

Även om Julian ger ett trovärdigt intryck så gör ändå bristen på transparens att jag inte kan undvika att ställa frågan:

Hur vet jag att individerna inom Wikileaks inte har en egen politiskt agenda och att man enbart publicerar de dokument man vill publicera?

Julian själv ger en hint om problematiken genom att tala om deras ”garanti” för publikation. Om din information uppfyller vissa krav så kommer den publiceras. Men det är naturligtvis omöjligt att kontrollera.

Varför tar inte DN eller SvD själva på sig rollen att starta en svensk sajt för samma typ av information? Information som är granskad med publicistiskt ansvar, samt ett tekniskt system som garanterar anonymiteten. Skulle det finnas ett sådant behov? Antagligen.

Andra bloggar om samma ämne.

Har vi fel om ”digital natives”?

Känner du igen följande sanningar om digitala urinvånare, ”gen @”?image

  • "gen @" är IT experter
  • "gen @" lever sitt liv genom nätet snarare än i verkligheten
  • "gen @" kommer aldrig använda epost etc…

Jag har hört dessa mantran upprepas gång på gång på gång under flera år ifrån olika proffstyckare men har aldrig riktigt känt att det stämmer med min egen verklighet. Många "generation @" användare jag möter har i många fall (a) sämre basala IT kunskaper än deras föräldrar, dvs. förståelse för hur program, säkerhet, Internet och information faktiskt fungerar och (b) ofta ett betydligt mindre intresse och fascination för vad IT kan göra än deras föräldrar. Det är ju dock otvetydigt så att användandet av IT som kommunikationsplattform för ”gen @” är större än för många som växte upp utan Internet.

Vari ligger denna paradox?

Jag tror personligen det handlar om att många inom ”gen @” bara använder en liten del av IT’s förmåga (där social media och underhållning över Internet är bara en del av möjligheterna med IT). Det börjar nu dyka upp nya studier som faktiskt underbygger detta. Bland annat Growing up with the Social Web som sammanfattas av Der Spiegel

Dessa tyder på att för de flesta i ”gen @”:

  • Internet är inte den dominerande faktorn i de flesta ungas liv utan snarare en smart förlängning av ditt verkliga liv (på samma sätt som den uppfattas av del flesta vuxna)
  • Användandet handlar i praktiken endast om två saker (a) att kommunicera via facebook, chat och SMS och (b) att titta på video och lyssna på musik.
  • Många av ”gen @” har svårt att veta hur man söker på Internet, alltför snabbt skannar information och svårt att bedöma om den är relevant eller inte.

För mig så betyder det att trots att vi idag tror oss veta och förstå hur vi använder IT och Internet så finns ett stort behov att faktiskt utbilda vidare inom IT och ”computer science” för att inte fastna i ett för smalt användande av IT.
Kanske det är som en av Sveriges Radios utrikeskorrespondenter sa idag på P1:

Vi är på väg att bli
“overnewsed but underinformed”  (jag har ingen aning om vem som sa det först men det kan ni säkert hitta på Internet)

Aktuellt; SvD, DN

Hur pass bra prestanda har molnplattformarna ?

Det börjar dyka upp lite nya tester över hur pass bra prestanda de nya molnplattformarna verkligen kan leverera. Bland annat den här. Det är intressant att se att det verkar skilja ganska kraftigt vilket gör att det blir en relevant parameter att ta hänsyn till. Både Amazon och Azure är ganska likvärdiga medan AppEngine verkar falla ur.

Scalability

(diagram ifrån: http://highscalability.com/blog/2010/5/26/end-to-end-performance-study-of-cloud-services.html) Andra skriver mera här

ISO startar en internationell analysgrupp kring molnet

Avslutade för en timme sedan ett möte i Peking där den internationella standardiseringsorganisationen ISO formellt beslutat starta en ”Study Group on Cloud Computing” (SGCC) kring molnet.

Målsättningen är att i denna grupp arbetar fram en beskrivning av området och ger ett antal rekommendationer till ISO kring vilka delar de bör gå vidare med att eventuellt standardisera. Jag representerade den svenska arbetsgruppen inom SIS vid detta möte och Sverige tillsammans med Kina och Korea var de länder som hade input till hur arbetet inom SGCC bör prioriteras. Sveriges förslag fick stöd av ett antal länder.

Nästa steg nu är att det kommer komma ut en internationell ”call for participation” för att delta i denna grupp (SGCC) med första möte i New York i september. Jag skulle vilja uppmana alla som potentiellt skulle vara intresserade att delta i en sådan expertgrupp att kontakta mig.

SC38 Plenary, Beijing, China May 12-14, 2010

Foto: ISO SC38

Att bli kritiskt granskad av jämlikar – CITA-P

Är du intresserad av processen kring att få en internationell certifiering som IT arkitekt? Jag hade förmånen att agera moderator i Sverige första CITA-P process och jag kommer i detta blogginlägg både beskriva hur man blir en certifierad IASA arkitekt samt ge olika tips som kan förbättra dina chanser att lyckas med en certifiering. Lite bakgrund: IASA, den internationella organisationen för IT arkitekter driver en process för att evaluera arkitekter på en nivå som kallas för CITA-P (Certified IT architect – Professional). I praktiken så betyder en sådan certifiering att du kan arbeta som en professionell arkitekt på alla de plan som CITA-P beskriver. Den visar att du både har en stor förståelse för alla områden men också att du självständigt kan leverera på alla dessa.

De områden som bedöms är sex stycken, alltifrån kring hur du hanterar den politik och gruppdynamik som finns i organisationer till frågor om hur du bedömer kvalitetsattribut eller tekniska designbeslut. De sex områden det rör sig om är följande:

· Business Technology Strategy
· IT Environment
· Design Skills
· Human Dynamics
· Quality Attributes
· Software Architecture

Så här går processen till:

Steg 1: Bli antagen

Innan du blir antagen till processen så måste du fylla i ett ansökningspapper. Där kommer du få beskriva lite om din erfarenhet, vilka projekt du har varit med om och allmän bakgrund och utbildning. Detta är till för att initialt försöka bedöma om du har en tillräcklig grundkompetens för att prova att passera en CITA certifiering. Som hjälp finns det olika självskattningsdokument du kan använda för att själv bedöma om du tror att du kan uppnå nivån. Det rekommenderas också att innan man beslutar sig att ansöka så har man tagit det on-line prov som heter CITA-Foundation. Det går igenom arkitekturbegrepp, relationer och verktyg och ger en bra fingervisning på om du hanterar hela området eller ej. I skrivandes stund så finns tyvärr dock inte CITA Foundation tillgängligt i Sverige men vi hoppas det kommer finnas tillgängligt inom kort. En CITA professional certifiering handlar dock inte om att du skall ha gått vissa kurser utan den kommer bedöma om du har relevant kunskap att arbeta som en professionell arkitekt enligt IASA’s definitioner.

Steg 2: Sätt upp arbetsmaterial

Du har lyckats passera steg 1 och befinner dig nu minst 6 veckor ifrån själva intervjutillfället vilket innebär att du kan börja arbeta med att skriva på din arbetsdokumentation. Den består av dels ett erfarenhetsdokument som beskriver i detalj din erfarenhet som arkitekt, reflektioner på lyckade projekt och misslyckade projekt, olika artefakter du tagit fram eller andra saker du vill åberopa… dels består den av ett s.k. ”färdighetsdokument” (eng ”proficiency”) som beskriver din kompetens inom vart och ett av de olika områdena samt slutligen en presentation. Detta arbetsmaterial tar typiskt 30-40 timmar att sammanställa vilket innebär några veckors arbete. Du kommer också få en tillgång till en mentor under dessa veckor som du kan diskutera dokumentationen med och som slutgiltigt ger ett ok för att kunna gå upp på intervju.

Steg 3: Själva intervjun

Intervjun är både påfrestande och stressande, det är inte varje dag man blir kritiskt granskad av likasinnade med en samlad kompetens som man själv som ensam har svårt att matcha. Man kommer rimligen vara nervös vilket är helt normalt.

Bild: Normal sittning vid intervjun

clip_image002

Intervjun kommer gå till så här:

· 30 min presentation. Presentationen kommer avbrytas efter exakt 30 minuter och moderatorn kommer att ge en förvarning 5 min innan tiden är slut. Presentationen tjänar flera syften, dels ger den en möjlighet för kandidaten att berätta som sin egen erfarenhet inom olika områden dels ger den en indikation kring de områden runt presentationsteknik och förmedlande av budskap som är ett av områdena som bedöms. Ett tips här; använda inte tiden till att förmedla allmänna arkitekturbegrepp, panelen vet att du redan känner till dessa, använd hellre tiden till att förmedla hur du själv ser på dessa områden, hur du hanterat dem vid olika tillfällen och varför.

· 40 min intervju. I denna fas kommer varje panelmedlem ha 10 min var att ställa frågor. Du kan förvänta dig att få frågor fokuserade på ett eller två olika områden per panelmedlem. Dessa har oftast delat upp dessa mellan sig i den första intervjufasen. Det kan dock komma frågor som skiftar mellan olika områden också så det är ingen absolut regel. Frågorna ställs ibland med en speciell precisionsfrågeteknik vilket innebär att du kan bli ganska abrupt avbruten när panelmedlemmen anser att du redan behärskar ett område – varje panelmedlem försöker förvissa sig om just detta så man vill inte slösa tid på att fortsätta i spår som du redan visat att du behärskar. Andra frågor kan vara mera reflekterande; d.v.s. hur skulle du göra om du stod inför följande scenario? Frågorna kan också vara jämförande; t.ex. jämför objektorienterad design mot SOA. Vad är skillnaderna? Vad är likheterna? Vilket scenario skulle du välja A kontra B? Du kommer inte kunna svara på alla frågor, det är helt ok. Försök inte låtsas (du kommer misslyckas) det är bättre att svara ärligt och gå vidare.

· 10 min paus. Detta är en kort paus och du får vänta utanför rummet. Anledningen till pausen är framförallt att panelen får en möjlighet att snabbt analysera vilka områden man är komfortabel och de områden där man tror sig se en lucka. Strategin för de nästa 40 minuterna kommer fokusera på dessa svagare områden.

· 40 min intervju. Denna är oftare tuffare än de första 40 minuterna, anledningen är dels att dina frågor kommer handla om områden du antagligen har sämre koll på. Panelen kan också ha beslutat sig för att medvetet pressa dig kring någon fråga som man inte varit komfortabel med. Det kan röra sig om att ifrågasätta dina tidigare svar och kanske ta en diametralt motsatt åsikt för att höra hur du svarar. En mycket viktig poäng här. Panelen ska inte använda tiden för att bedöma dina tidigare arkitekturer eller artefakter, du kan få frågor kring varför du gjorde si eller så men inte ifrågasättande av tidigare beslut. Om någon panelmedlem börjar gå i den riktningen så kommer han bli avbruten av moderatorn.

· Innan intervjun avslutas så har du c:a 1 minut på dig om du önskar säga några slutord. Det kan vara vad som helst. Kanske kommenterar kring någon feedback du önskar få eller något annat som du tycker kan vara relevant. Det är dock inte nödvändigt. Efter detta är det slut för din del och du kan lämna rummet, förmodligen ganska utmattad.

· För panelen återstår sedan 30 minuters diskussion och beslut kring certifiering eller ej. För ett godkännande krävs att 3 av 4 röstar ja. Panelen börjar diskussionen medan att direkt göra en snabb omröstning för att se hur de övriga panelmedlemmarna röstar. Denna röstning är inte bindande för någon panelmedlem. Efter röstningen så börjar man att diskutera vilka svagheter man anser sig hittat och försöka skapa en konsensus kring dessa. Detta blir samtidigt del av den feedback som senare kommer skickas till kandidaten. Efter denna fas så diskuterar man styrkorna för att bedöma om dessa kan väga upp mot svagheterna. När man haft ett samtal även kring dessa så gör man en ny röstning som blir slutgiltig.

På en dag hinner panelen med 3 stycken kandidater, kanske 4 om man startar tidigt på dagen och håller på sent. Ofta väljer man en lördag för att försöka undvika krockar med andra projekt.

Efter c:a 3 dagar får du sedan besked om du klarat dig eller ej. Väntan beror framförallt på att man måste hinna sammanställa och godkänna den feedback och de rekommendationer som skickas till dig. Feedbacken är normalt uppdelad på c:a 3 st övergripande kommentarer och oftast olika detaljerade beroende på om du klarade dig eller inte. Så hur många passerar processen? Svaret är inte helt enkelt att svara på; de liknande processer som körts under många år pekar på att i det långa loppet så klarar sig c:a hälften av kandidaterna.

Om du sedan blir godkänd så innebär det också att du framöver får lov att delta som panelmedlem i framtida processer.

Vad kan man säga mer än Lycka Till :)

Det elektriska molnet?

Jag både gillar och ogillar analogier. Fördelen med analogier är att de gör (ofta nya) scenarios lätta att förstå med existerande kunskaper, problemet är att de samtidigt är förrädiska lockande att tro på även om de inte stämmer. Av det skälet så är jag oftast skeptiskt till de analogier jag hör. Låt oss titta på den vanliga analogin: ”IT i molnet är som el konsumerat via två hål i väggen”.

Håller analogin?

image

Rimligen finns det mängder med svårigheter att jämföra el med IT om försöker bygga affärsmodeller och tjänster i molnet med elkraftsdistribution som förebild. Har du fler aspekter som inte passar ?