Hvordan ved en computer, hvor du kigger?

Forestil dig at køre en bil ved hjælp af en head-up projektion på forruden til at navigere gennem en ukendt by. Dette er augmented reality (AR); oplysningerne bruges til ikke kun at guide dig ad en rute, men også til at advare dig om vigtige oplysninger i dine omgivelser, såsom cyklister eller fodgængere. Den korrekte placering af virtuelt indhold er ikke kun afgørende, men måske et spørgsmål om liv og død.

Oplysninger kan ikke skjule andet materiale og skal vises længe nok til at du kan forstå det, men ikke for meget længere end det. Computersystemer skal foretage disse beslutninger i realtid uden at få nogen af ​​oplysningerne til at være distraherende eller påtrængende. Vi ønsker bestemt ikke en advarsel om, at en cyklist er ved at krydse foran bilen for at tilsløre cyklisten selv!

Som forsker i AR bruger jeg meget tid på at finde ud af, hvordan jeg får de rigtige oplysninger på en brugers skærm på det rigtige sted, på det rigtige tidspunkt. Jeg har lært, at visning af for meget information kan forvirre brugeren, men ikke at vise nok kan gøre en applikation ubrugelig. Vi er nødt til at finde det søde sted imellem.

Et afgørende element heri viser sig at vide, hvor brugerne kigger. Først da kan vi levere de oplysninger, de ønsker, et sted, hvor de kan behandle dem. Vores forskning involverer måling, hvor bruger ser i den virkelige scene, som en måde at hjælpe med at beslutte, hvor virtuelt indhold skal placeres. Med AR klar til at infiltrere mange områder af vores liv - fra kørsel til arbejde til rekreation - vi bliver nødt til at løse dette problem, før vi kan stole på AR til at yde support til alvorlige eller kritiske handlinger.

Bestemmelse af, hvor information skal placeres

Det giver mening at få vist oplysninger, hvor brugeren kigger. Når man navigerer, kunne en bruger se på en bygning, gade eller anden ægte genstand for at afsløre de tilknyttede virtuelle oplysninger; systemet ved at skjule alle andre skærme for at undgå rod i den synlige scene.


indre selv abonnere grafik


Men hvordan ved vi, hvad nogen ser på? Det viser sig, at nuancerne i den menneskelige vision tillader os at undersøge med en persons øjne og beregne, hvor de kigger. Ved at parre disse data med kameraer, der viser en persons synsfelt, kan vi bestemme, hvad personen ser, og hvad han eller hun ser på.

Eye-tracking-systemer opstod først i 1900'erne. Oprindeligt blev de mest brugt til at studere læsemønstre; nogle kunne være meget påtrængende for læseren. For nylig er eye-tracking i realtid dukket op og blevet mere overkommelig, lettere at betjene og mindre.

Eye trackers kan fastgøres til skærm eller integreret i bærbare briller eller hovedmonterede skærme. Øjne spores ved hjælp af en kombination af kameraer, projektioner og algoritmer til computersyn at beregne øjets position og blikpunktet på en skærm.

Vi ser generelt på to mål, når vi undersøger data om øjesporing. Den første kaldes en fiksering, og bruges til at beskrive, når vi sætter vores blik på pause, ofte på et interessant sted i en scene, fordi det har fanget vores opmærksomhed. Den anden er en saccade, en af ​​de hurtige øjenbevægelser, der bruges til at placere blikket. Korte perioder med fiksering efterfølges af hurtige bevægelser, kaldet saccades. Dybest set springer vores øjne hurtigt fra sted til sted, idet de indsamler oplysninger om dele af en scene. Vores hjerner sætter derefter informationen fra disse fikseringer sammen for at danne et visuelt billede i vores sind.

{youtube}tdFIvRMvFQI{/youtube}

Kombination af øjesporing med AR

Ofte er AR-indhold forankret til et objekt eller et sted i den virkelige verden. For eksempel skal en virtuel etiket indeholdende et gadenavn vises på gaden. Ideelt set vil vi gerne have, at AR-etiketterne vises tæt på det virkelige objekt, det er forbundet med. Men vi skal også være forsigtige med ikke at lade flere AR-etiketter overlappe hinanden og blive ulæselige. Der er mange tilgange til styring af etiketplacering. Vi undersøger en mulighed: at beregne, hvor personen kigger i den virkelige scene og kun vise AR-etiketter på det sted.

Sig for eksempel, at en bruger interagerer med en mobilapplikation, der hjælper ham med at købe kalorier med lavt kalorieindhold i købmanden. I AR-applikationen har hver kornoplysninger tilknyttet kalorieindhold. I stedet for fysisk at samle hver kornkasse op og læse ernæringsindholdet, kan brugeren holde sin mobile enhed op og pege den på en bestemt kornkasse for at afsløre den relevante information.

Men tænk over, hvor overfyldt en butiks korngang er med forskellige pakker. Uden en måde at styre visningen af ​​AR-etiketter på ville kalorieoplysningsetiketterne for alle kornkasser blive vist. Det ville være umuligt at identificere kalorieindholdet for det korn, han er interesseret i.

Ved at spore hans øjne kan vi bestemme, hvilken individuel kornkasse brugeren ser på. Derefter viser vi kalorieoplysningerne for det pågældende korn. Når han flytter sit blik til en anden kasse, viser vi tallene for den næste, han overvejer. Hans skærm er ryddig, de oplysninger, han ønsker, er let tilgængelige, og når han har brug for yderligere oplysninger, kan vi vise det.

Denne type udvikling gør det til en spændende tid for AR-forskning. Vores evne til at integrere virkelige scener med computergrafik på mobile skærme forbedres. Dette fremmer muligheden for at skabe fantastiske nye applikationer, der udvider vores evne til at interagere med, lære af og blive underholdt af verden omkring os.

Om forfatteren

Ann McNamara, lektor i visualisering, Texas A & M University

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede bøger

at

bryde

Tak for besøget InnerSelf.com, hvor der er 20,000 + livsændrende artikler, der promoverer "Nye holdninger og nye muligheder." Alle artikler er oversat til 30+ sprog. Tilmeld til InnerSelf Magazine, der udgives ugentligt, og Marie T Russells Daily Inspiration. InnerSelf Magazine er udkommet siden 1985.