Car-tech

Peering inn i sci-fi-fremtiden for PC-skjermer

Hvordan bruke iPad som ekstra PC skjerm

Hvordan bruke iPad som ekstra PC skjerm

Innholdsfortegnelse:

Anonim

Moores lov kan holde oss utstyrt med oktav-smarttelefonprosessorer og PCer pakket med millioner av transistorer, men ikke alle områder av teknologi holder pedalen til det ordspråklige metallet som entusiastisk som chipteknologien. Spesielt er desktop-skjermer - portaler som vi ser på utgangene til disse hulking-prosessorene - fast i nøytral, mens teknologien i resten av PCen tårer fremover ved breakneck-hastighet.

Visst, retina-nivå skjermer ser veldig bra ut, men kom igjen. Dette er det 21. århundre, ikke 1. Heldigvis er det flere fremtidsrettet ventures som danner tradisjonelle PC-flatskjermbilder til fordel for nyskapende design som en dag kan omdefinere måten vi ser på våre datamaskiner. Disse, folkens, er fremtidens PC-fremvisninger - eller i hvert fall de tar sikte på å være.

Oculus Rift

Enhver diskusjon om fremtidens PC-fremvisninger vil være ufullstendig hvis den ikke nevner den virtuelle virkeligheten, og virtuell virkelighet kit som har fått mest beryktet i det siste er Kickstarter-støttet Oculus Rift. Dette hodetelefonen har fanget oppmerksomheten til spillentusiaster mye. Drevet av en sensorpakke som inneholder et gyrometer, et akselerometer og et magnetometer, bruker Oculus Rift dataene som genereres av disse komponentene, for å overvåke hodet bevegelser og oversette dem til 3D spillverdener med nesten ingen latens, noe som gir deg en virkelig nedsenkende VR erfaring.

Det er alvorlig kjempebra, og et programvareutviklingssett er slated for å gjøre veien til utviklere snart. Sjekk ut vår egen Alex Wawro som gir Oculus Rift en virvel i videoen ovenfor.

Canon Mixed Reality

CanonCanon's Mixed Reality-headset.

I likhet med Oculus Rift er det et stort svart hodetelefon som transporterer deg til virtuelle omgivelser, er Canons nylig annonserte Mixed Reality-enhet rettet mot industrielle designere i stedet for spillere.

Hodesettet kobles til en bøyd arbeidsstasjon og sport to fremadvendte kameraer. Arbeidet i konsert, er alt denne maskinvaren designet for å presentere en forstørret virkelighet blanding av det virkelige og det imaginære. Systemet kan forvandle enkle real-world rekvisitter til fullt utflettet ut representasjoner av en designer skapelse, som vist på bildet nedenfor. Når du er nedsenket, kan du manipulere elementer i sanntid i forstørret ekvivalent ekte plass, komplett med en nøyaktig skala.

CanonA-enkle kameraprofil (til venstre) blir til et fullblåst kamera (til høyre) i Canons blandede virkelighet.

Cool, va? Nå for ulempen: Canons blandede virkelighet koster for tiden $ 125.000 oppe og en annen $ 25.000 per år i vedlikeholdsavgifter. Den $ 300 Oculus Rift dev sett, derimot, er laget av off-the-shelf deler. Men husk at dagens høye nyhet er morgendagens forbrukerprisvare.

Autostereoscopic 3D

Utover rett opp virtuell virkelighet, involverer de fleste andre forsøk på å skyve framvisninger fremover å skape 3D-bilder av noe slag - men ingen ønsker å ha på seg de superdorkede brillene som dagens 3D-teknologi er avhengig av. Skriv inn autostereoskopisk teknologi, en catch-all term for glass-fri 3D. VergeThe Verge's Joshua Topolsky stirrer i Microsofts autostereoskopiske 3D-skjerm.

Det er mange måter å implementere denne teknologien på, men de mest interessante autostereoskopiske skjermer bruker en teknikk kalt

bevegelsesparallax, som forandrer visningen av 3D-objektet, avhengig av hodeposisjonen, og skaper en sann (om enn simulert) 3D-opplevelse. Microsoft Research jobber bare med et slikt system, som Du kan se i aksjon på 1:55-merket av denne videoen av Verge. (Advarsel: Siden teknologien er avhengig av strålende signaler direkte til individers øyne, spiller det ikke bra film.) Microsofts display viser øynene dine med et Kinect-kamera, og bruker informasjonen til å stråle to separate, men samtidig samtidige bilder fra deg bakfra en LCD-skjerm-en til venstre øye og den andre til høyre. De dobbelte bildene trick hjernen din til å se et 3D-bilde på skjermen, hvor dybde og plassering justerer seg i henhold til posisjonen din (som også spores av Kinect-kameraet).

Klar for noe

virkelig skumle / kjempebra? To personer som stirrer på samme skjerm, kan stirre på to helt forskjellige bilder når Microsofts teknologi modnes. Altså, i dag er det fortsatt i spedbarnsfasen. SpaceTop

SpaceTop, et annet prosjekt som er født av Microsoft-forskning, blander tradisjonell 2D desktop-databehandling med et innovativt grensesnitt som lar deg manipulere objekter i tre dimensjoner.

For å oppnå dette, SpaceTop er avhengig av en gjennomsiktig skjerm som sitter mellom deg og systemets tastatur og touchpad. Et kamera innebygd på baksiden av skjermen holder styr på hendene dine for bevegelseskontroll, mens et kamera med brukervendt kamera sporer hodens posisjon for å vise 3D-bilder på skjermen i riktig skala og perspektiv. I stedet for å prøve å forklare mer, vil jeg bare peke deg på videoen ovenfor.

Dette displayet må sees for å bli forstått. Leonar3do Hvis det høres litt for esoterisk, sjekk ut Leonar3do, som byggerens kalles "verdens første stasjonære VR-sett." Programvaren, kombinert med et avgjørende sett med 3D-briller og en unik 3D-mus som heter The Go Bird, lar deg se og manipulere objekter i 3D.

Videoen ovenfor gir en demonstrasjon av hvordan det er å bruke Leonard3do, som er målrettet mot et bredt spekter av markeder, inkludert 3D modellering, spill og jevn utdanning. Vi brukte litt tid med teknologien på CES og kom bort imponert. Sagt våre redaktører på stedet: "Fra vår tid med den virtuelle arbeidsmotoren virker det som en fantastisk måte å lage, demonstrere og visualisere virtuelle 3D-objekter i ekte plass."

Tenk stor

no. memory-alpha.orgLarge skjermer. Gjør dem så, Microsoft.

En ofte nevnt forestilling av fremtiden medfører en overvekt av absolutt massive skjermer: veggstørrelser som dverger skjermen sitter på skrivebordet ditt akkurat nå. Men det store skjermbildet inviterer unike grensesnittkvadier - spesielt hvis de er berøringsskjerm aktivert. Hvordan svarer en mammoet skjerm til flere brukere? Hva om du ikke kan nå toppen av skjermen? Vil slingshotet i Angry Birds selv være overkommelig? Og så videre.

Microsoft Research jobber allerede hardt for å takle disse problemene før de blir utbredt problemer. Prosjektet "Large Display Experience", som beskrevet i videoen nedenfor, har kommet opp med en slik mulig løsning som innebærer bruk av en pekepenn for fine arbeids- og berøringsskjermbevegelser for grunnleggende kontroller, kombinert med brukergjenkjenning knyttet til nå allestedsnærværende smarttelefoner. Det er et interessant svar på et potensielt stort (ordspill ment) problem.

Å skyve alle disse pikslene er et annet problem, men ikke frykt: Microsoft Research er også hardt på jobb med det. Et prosjekt som heter Foveated Rendering, har til hensikt å redusere prosesskravene ved å utnytte det faktum at det menneskelige øye ikke ser så mye detaljene i sin periferi. I utgangspunktet sporer displayet peepers og sørger for at området du stirrer på, blir gjengitt i full herlighet, mens du slipper oppløsningen på lengre rekkevidde av skjermen.

Under tester kunne brukerne ikke fortelle forskjellen mellom en fullverdig bilde og en som bruker foveated rendering-men det mindre detaljerte bildet kreves bare en sjettedel så mye datakraft for å lage.

Tenk enda større

Veggstorlek? Pfffft. Det er små poteter for teamet bak LightSpace, enda et Microsoft Research-prosjekt som ønsker å drepe skjermer som vi kjenner dem, og snu hvert objekt på kontoret til et potensielt PC-skjermbilde.

Microsoft Research

LightSpace bygger på en serie av kameraer og projektorer for å "skape en svært interaktiv plass hvor overflaten, og til og med mellomrom mellom overflater, er fullt interaktiv." I et nøtteskall sporer kameraene bevegelsen rundt i rommet og observerer samspillet med bildene som projiseres av oppsettet, som kan støpes på noen overflatevegger, stoler, skrivebord, du nevner det. På grunnleggende nivå kan kamerasporing gjøre det mulig å manipulere bildene ved hjelp av kjente multi-touch-bevegelser, men den støtter også mer eksotiske kommandoer som å dra bildet fra ett objekt til et annet, eller "plukke opp" bildet og overlate det til en annen person.

Det er greit ting. Du vil definitivt se videoen over, hvis bare å hoppe over til de interessante biter. Det er også kompliserte ting: LightSpace må kalibreres til rommet det blir brukt i. For øyeblikket slår det det fra hverdagen, men som billige sensorer som Kinect vokser kraftigere og kanskje i stand til å kartlegge et rom i 3D I flyet kan et system som LightSpace ta av.

Talking Heads i 3D

Mens andre er opptatt av å revolusjonere viser helt, prøver USCs Institute for Creative Technologies å gjøre de kjedelige videokonferanseene litt mindre med sitt 3D Video Teleconferencing System.

Hvis du noen gang har hatt det (fornøyelsen av å sitte gjennom en videokonferanse, er du godt klar over at de som ringer inn, bruker mesteparten av møtetiden til å stirre i sine bærbare skjermer i stedet for webkameraet selv, noe som gjør at selv de mest utadvendte alfabetene virker som frakoblede introverter.

USCICT

Ikke mer! (Eller, mer nøyaktig, kanskje ikke mer en dag!) USCICTs teknologi gjør videokonferanser til 3D-snakkende hoder ved å projisere en høyhastighets høyhastighets video av høyttaleren på et spisspolert aluminiumspeil som roterer mer enn 15 ganger i sekundet. "Spektret reflekterer faktisk 144 unike synspunkter på scenen over et 180 graders synsfelt med en vinkelseparasjon på 1,25 grader," forklarer forskergruppens nettsted.

På videokonferansens side viser 3D Video Teleconferencing System en fôr av folket ved mottaksenden som gli ved det holografiske flytende hode. Systemet sporer fjernkontrollens videokonferanses hodeposisjon og blikk, slik at det virtuelle 3D-hodet kan etablere øyekontakt og vende fra høyttaler til høyttaler under et møte. (Og du trodde autofokusfunksjonen i Google+ Hangouts var kult!)

Ikke bryr deg om sanntidschatting? USCICT-teamet har brukt lignende teknologi for å lage 3D-bilder som kan gå rundt og observeres i en full 360 grader. Bonuspoeng: Denne 3D er autostereoskopisk!

Kort sikt

AMDThat er mange piksler!

Til slutt, her er et futuristisk skjermmål som, men ikke like ambisiøst som resten av oppføringene, kan være en litt mer realistisk. En søt multi-monitor-oppsett kan ikke endre måten du ser på data, men hei, pixeldensiteten er bare økt mens visningsprisene har gått ned (om enn sakte) over tid. Nå er det verdi. Og hvis du poo-poo en seks-panel, 5760-by-2400-pixel riggen som høydepunktet for overskudd, har du åpenbart aldri brukt en.