Om du tänker på det är hela "windows", "mappar" och "tabs" -metoden vi använder för att interagera med datorer en tvådimensionell metafor för ett tredimensionellt koncept. Men vad händer om vi skulle nå ut till skärmen och flytta allt det där med våra händer?
Den typen av gestbaserat datorgränssnitt kan vara vackert om du tar arbetet med MIT-gradstudent Jinha Lee som någon indikation. Han presenterade nyligen sin 3D-skrivbord gränssnitt vid TED-konferensen i Long Beach, Kalifornien (en teknik vi noterade för ungefär ett år sedan). 3D-skrivbordet förlitar sig på en transparent LED-skärm och två kameror som spårar användarens handgest och ögon. Lee visade också upp en hopfällbar penna som rör sig, praktiskt taget, djupt genom en skärm så att användaren kan rita riktiga tredimensionella mönster.
Det kommer att ta mycket lång tid innan datorgränssnitt som dessa blir verklighet. Innan vi blir inbjudna att nå inuti en bildskärm som sitter på ett skrivbord får vi chansen att kontrollera datorer med våra händer genom att peka, vippa, klämma, vinka och ta tag i luften för att åstadkomma även vardagliga beräkningar uppgifter. Två varmt förväntade "gestbaserade" enheter kommer att säljas till konsumenterna i år.
Ett annat nytt rörelsebaserat datorgränssnitt är 149 $ Thalmic Labs Myo armband, förfaller senare i år. Sensorer i Bluetooth-bandet mäter elektriska impulser i armmusklerna för att avgöra vilka rörelser du gör mot din dator.
Även om det är osannolikt att något av dessa alternativa gränssnitt kommer att ersätta den gamla gamla musen och tangentbordet (eller styrplattan), dessa eleganta alternativ tar lite plats och kan hjälpa till att anpassa våra datorer till våra liv och hem i en mer sömlös och organisk sätt.