Jag skriver den här texten på min bärbara dator genom att trycka en knapp på tangentbordet för varje bokstav. Ibland stannar jag upp för att klicka på något med markören som jag styr med styrplattan. Andra gånger använder jag kombinationer av flera tangenter för att skriva specialtecken eller spara mitt arbete.

Gemensamt för alla dessa sätt att mata in eller manipulera information är att de egentligen är ganska icke-intuitiva. De har krävt relativt mycket inlärning för att behärskas snabbt och smidigt.

Detta är naturligtvis inget vi tänker på i vardagen när vi skriver, men faktum är att dessa våra vanligaste interaktionssätt med våra persondatorer, alltså kombinationen tangentbord och mus eller styrplatta, snart kan komma att tillhöra en svunnen era.

Vi lever just nu i en brytningstid när ett antal helt andra slags gränssnitt för människa-datorinteraktion på allvar börjar utmana de senaste 30 årens tangentbordsparadigm.

Gemensamt för många av de nya gränssnitten är att de i större utsträckning baseras på kunskaper som vi redan besitter och därför kräver mindre inlärning. En väldigt tydlig, och för de allra flesta, välbekant illustration av denna princip är sportspelen till Nintendos spelkonsoll Wii – när användaren vill slå ett extra hårt slag i ett tennisspel slår hon helt enkelt extra snabbt med den rörelsekänsliga spelkontrollen i luften.

Spelaren använder en rörelse hon redan kan. Ett fysiskt kommando, om man så vill, som hämtats från den fysiska världen. För att utföra motsvarande tennisslag i ett spel som styrs med en traditionell handkontroll krävs vanligtvis en speciell kombination av knapptryckningar och tajming som måste läras specifikt för spelet.

Se senaste årens forskning och utveckling inom hur vi interagerar med datorer har till stor del handlat just om hur vi bättre kan dra nytta av våra redan inlärda beteenden för att bygga mer effektiva gränssnitt. Ju tidigare vi lärt oss dessa beteenden desto bättre.

En rörelse som till exempel att vända på huvudet för att byta perspektiv lär vi oss redan som spädbarn och den sitter därför djupt rotad i oss. Detta gör den mer effektiv som styrmedel, menar gränssnittsforskarna, än ett senare inlärt beteende som att trycka crtl-s för att spara.

Människan har också massor av medfödda förmågor som känsel, luktsinne och hörsel. Att använda dessa känsliga instrument för att styra och interagera med datorer bör kunna göra människa-maskininteraktionen betydligt mer effektiv än idag.

Andra exempel på gränssnitt som drar nytta av redan inlärda förmågor är de tryckkänsliga skärmarna på mobiltelefoner och tablet-datorer. Apples Iphone har till stor del sitt välkonstruerade och extremt intuitiva rörelsekänsliga användargränssnitt att tacka för sin exempellösa framgång.

Apples tablet-dator Ipad förväntas, tillsammans med konkurrenternas liknande produkter, ytterligare etablera touch-skärmen hos vanliga datoranvändare med vanliga datorsysslor som att surfa på nätet och skriva mejl.

Även röststyrning och taligenkänning är exempel på gränssnitt som använder våra redan förvärvade kunskaper och inneboende mänskliga egenskaper för att styra interaktionen med våra datorer. Också dessa tekniker har på senare år mognat i en takt som gör att de står på randen av ett större genomslag.

Men på forskningsinstitutioner och utvecklingsavdelningar jobbas det nu på många fler sätt att tätare föra samman det fysiska med det virtuella. Ett intressant fält gäller det som kallas fysiska displayer, eller fysiska skärmar. Det handlar om olika tekniker för att låta digital information visas i fysisk tredimensionell form samtidigt som användare ska kunna manipulera informationen via samma fysiska gränssnitt.

Ett exempel är prototypen “Relief” som utvecklats av forskare på MIT Media Lab i USA. Uppbyggd av ett antal motorstyrda pinnar under ett överdrag som bilder kan projiceras på som en bioduk är den en väldigt enkel och grundläggande variant av fysisk display.

Tanken är att den ska vara lätt och billig för andra forskare att bygga och använda för att lära sig mer om hur människor kan använda tekniken. I ett av användningsexemplen visar prototypen en topografisk bild av ett landskap som användaren sedan kan forma med händerna genom att trycka på den fysiska skärmen.


Protoypen Relief är en så kallad fysisk display som bland annat används inom gräns­snittsforskning.

Ett annat spännande gränssnittsexperiment kommer från det tyska forskningsinstitutet Deutsches Forschungszentrum für Künstliche Intelligenz, DFKI, och går under namnet Text 2.0. Med hjälp av ögonstyrningsteknik från det svenska företaget Tobii Technology, som bland annat utvecklar eye tracking-hjälpmedel för rörelsehindrade, och vanliga internetstandarder som html, css och javascript har de tyska forskarna utvecklat ett nytt sätt att läsa och interagera med text.

Samtidigt som du läser känner texten på skärmen av att du läser den och reagerar på hur du flyttar blicken mellan orden. Om läsaren fastnar på ett ord med blicken kan en översättning eller ordförklaring visas automatiskt. Bilder och illustrationer kommer fram eller ändrar karaktär på precis rätt ställe i berättelsen och om man tappar bort sig visar en pil var man slutade läsa. Tekniken är tänkt att användas för läsning på tablet-datorer och digitala läsplattor.


Text 2.0 känner av hur användarens blick rör sig över en text och anpassar informationen efter det.

När det handlar om nya gränssnitt som redan är mogna för konsumentmarknaden verkar spelbranschen ha en rejäl ledning för tillfället. Framgångarna för Nintendos Wii har fått konkurrenterna att jobba hårt med nya sätt att kontrollera spelmiljön vid sidan av den klassiska handkontrollen.

Ett exempel är Microsofts Kinect (kallades tidigare för Project Natal) för spelkonsollen Xbox 360 som låter spelarna styra spelen genom att helt enkelt göra rörelser i luften framför skärmen. Ett system av kameror registrerar hur spelarna rör sig och översätter rörelserna till sina digitala motsvarigheter. För att sparka en fotboll på skärmen – sparkar användaren helt enkelt i luften. Ju hårdare spark desto längre skott.


Microsofts Kinect är ett nytt sätt att kontrollera spelkonsolen Xbox 360. Tekniken läser av spelarnas rörelser och låter dem styra spelmoment genom att vifta med handen i luften eller sparka med benet.

Och det är inte svårt att föreställa sig hur samma tekniker mycket väl kan användas i andra, även professionella, sammanhang. Tänk till exempel att du målar en tavla med ett illustrationsprogram genom att du för fingrarna genom luften framför skärmen där ditt verk ritas upp i digitala penseldrag. Eller att du lägger trumspåret för en musikkomposition genom att spela med händerna framför dig.

Förutsättningarna är redan på plats. Kinect kommer till årsskiftet i en kommersiell version som presenteras med frasen “You are the controller”. En fras som det lär finnas all anledning att återkomma till om man vill följa gränssnittsutvecklingen de närmaste åren.