Ved å bruke Kinect til å gjøre en hvilken som helst overflate til en flerbruker berøringsskjerm med flere fingre

Utvidet multitouch, forskjellige hender og bevegelser blir gjenkjent

Ved hjelp av Microsofts kjære Kinect-sensor har ingeniører ved Purdue University laget et system som kan gjøre hvilken som helst overflate - flat eller på annen måte - til en flerbruker berøringsskjerm med flere fingre.

Oppsettet er motbydelig enkelt: Du peker Kinect mot en slags overflate, kobler den til en datamaskin, og fortsetter deretter med å peke og produsere objektet som om det var en berøringsskjerm med flere fingre. I tillegg kan du kaste en projektor i blandingen, og objektet blir en multitouch-skjerm - mye som (originalen) Microsofts Surface-borddisplay (som nå kalles PixelSense, da Microsoft bestemte seg for å bruke varemerket på nytt med sitt kommende nettbrett ).





Magien blir selvfølgelig utført i programvare. Første gang du bruker systemet, som ingeniørene kaller “ Utvidet multitouch , ”Analyserer Kinect-sensoren overflaten den peker på. Hvis du for eksempel vil bruke et bord som berøringsskjerm, tar Kinect en titt på bordet og finner ut nøyaktig hvor langt borte overflaten er (et dybdekart, i det vesentlige). Så, hvis du vil samhandle med berøringsskjermen, finner Kinect ut hvor langt unna fingrene er - og hvis de er på samme avstand som bordet, vet programvaren at du tar kontakt. Programvaren kan gjøre dette for et hvilket som helst antall fingre (eller andre redskaper, for eksempel penner / penner).

Utvidet multitouch-oppsett, med Kinect og projektorVidere, fordi 'berøringssensoren' er over skjermen (i stedet for inne i den), kan utvidet Multitouch også utarbeide håndfrihet (enten du bruker venstre eller høyre hånd), hvilke spesifikke fingre / tommelen du bruker, og ved å se på håndleddet og håndflaten din kan det forstå bevegelser (si, en hånd “kaster” en gjenstand til en annen hånd). Utvidet Multitouch kan også bruke plassen over skjermen - for å aktivere en hurtigmeny, for eksempel kan du løfte en hånd eller en finger av skjermen.



For å teste Extended Multitouch skrev ingeniørene noen få enkle programmer, inkludert et skisseprogram som tillot brukere å tegne med en penn og flere fingre samtidig. Total nøyaktighet er god, men ikke like pålitelig som skjermer med innebygde berøringssensorer (for eksempel smarttelefonen din). Når det gjelder hånd- og gestgjenkjenning, er nøyaktigheten rundt 90% - men det vil øke med sensoroppløsningen og fortsatte programvarejusteringer.

De forskjellige håndregionene er tilgjengelige i Extended MultitouchI motsetning til innebygde berøringssensorer, som er dyre og krever en lokal datamaskinkontroller, ville det være ganske enkelt å teppe et hus i dybdefølende kameraer. Hvis du begravde et rutenett med Kinects i taket ditt, kan du gjøre det meste av miljøet ditt til et berøringsgrensesnitt. Med ordene til Niklas Elmqvist, en av Utviklede Multitouch-utviklere, 'Tenk deg å ha gigantiske iPads overalt, på hvilken som helst vegg i huset eller på kontoret, hver kjøkkenbenk, uten å bruke dyr teknologi.'

Purdue University-forskerne har søkt om patenter som dekker utvidet multitouch, og dessverre er det ingen indikasjoner på at de har tenkt å åpne programvaren. Jeg vil bli veldig overrasket om Microsoft ikke jobber med lignende applikasjoner for Kinect 2.0, som sikkert må være på vei.



Copyright © Alle Rettigheter Reservert | 2007es.com