Hjem Fremadrettet tænkning Science fiction-enheder, der er (næsten) reelle

Science fiction-enheder, der er (næsten) reelle

Indholdsfortegnelse:

Video: HorrorBabble's When Horror Meets Science Fiction: A Collection (Oktober 2024)

Video: HorrorBabble's When Horror Meets Science Fiction: A Collection (Oktober 2024)
Anonim

Som mange mennesker elsker jeg science fiction og går ofte til shows som CES i håb om at se den slags teknologi, vi læser om i bøger eller se i film. Men selvom CES i år havde en god teknologi, tjente det også som en god påmindelse om, at vi stadig er langt fra den teknologi, vi forestiller os i bøger og film; vi har ikke rigtig selvkørende biler endnu, meget mindre brugbare robotter eller holodeck.

Stadig set jeg en masse fremskridt, selvom disse teknologier har en lang vej at gå, før de faktisk er tilgængelige i den virkelige verden. Endnu en gang er det sandsynligvis også en god ting, at Skynet ikke er i gang endnu.

CES-biler handler ikke kun om selvkørsel

Hvert år ser det ud til, at CES bliver mere af en biludstilling, og i år var langt størstedelen af ​​Nordhallen fuld af bilproducenter og deres leverandører.

Jeg forventede at se - og så - mange mennesker, der talte om autonome køretøjer. Nvidia tilbragte størstedelen af ​​sin før-show-keynote til at diskutere sit nye system til sådanne køretøjer med fokus på Xavier, "verdens mest magtfulde SoC." Xavier har 9 milliarder transistorer i en 350 mm2 matrice, med en brugerdefineret 8-core CPU, en ny 512-kerne Volta GPU, en ny dyb læringsaccelerator, ny computervisionsacceleratorer og nye 8K HDR-videoprocessorer. Virksomheden siger, at den leverer 30 billioner operationer i sekundet, mens den kun forbruger 30 watt.

Dette udgør hjertet i virksomhedens Pegasus-køresystem, der er bygget på to Xavier SoC'er (systemer på en chip) og to næste generations Nvidia GPU'er. Nvidia sagde, at sine kunder vil få de første prøver af Pegasus, der er i stand til 320 billioner operationer pr. Sekund af behandlingsydelsen, i midten af ​​2018. Det er beregnet til at muliggøre fuldstændigt autonome køretøjer (niveau 5).

I mellemtiden skubbede Intel sin Mobileye-erhvervelse og talte om, hvordan dens chips er i mange biler, der allerede er i produktion, og bemærkede, at dette antal vokser. Virksomheden talte om nye partnerskaber for at bygge high-definition kort til brug i smarte byer og dets fokus på sikkerhed og avancerede chaufførassistentsystemer (ADAS) over fuldstændigt autonome køretøjer.

Tilsvarende brugte ARM betydelig tid på at tale om de forskellige leverandører af bilindustrier, der bruger dens processorer i alt fra ADAS til smarte lys.

Selvom meget af diskussionen på CES involverede autonome køretøjer - fra bilproducenter og chipproducenter til producenter af alle slags komponenter fra LIDAR til skærme til software - var der også masser af diskussioner, der fokuserede på andre bilteknologier på udstillingen.

Der var et par demonstrationer af brændselscellekøretøjer og endda nogle ret pæne konceptkøretøjer. Jeg fokuserede ikke rigtig på disse, men de var meget interessante.

Den underligste bilteknologi, jeg så, var Nissans eksperiment til at kontrollere biler efter tanke, baseret på den idé, du ved, hvornår du vil presse ned på bruddet hurtigere, end dit ben kan reagere. Selvom det er en interessant teori, er jeg ikke sikker på, hvor praktisk den er.

Roboter overalt, men ikke de droider, du leder efter

Vi hører meget om robotter, men med undtagelse af nogle "robot" -enheder, der udfører en bestemt funktion (såsom en robotstøvsuger), er der bare ikke så mange robotter i den virkelige verden, som du kunne forvente, i betragtning af at alle hypen.

På CES var der alle mulige robotter udstillet - fra husholdningsrobotter, der gør lidt mere end at følge dig rundt, opføre sig som en Amazon Echo på hjul, til legetøj designet til at interagere med børn, til mere specifikke maskiner, der gjorde ting som legeskak eller endda ping pong, sidstnævnte af disse tilsyneladende designet mere til at tiltrække skarer end at sælge i stort antal.

I sin hovednotat viste LG sin CLOi-hjemmrobot (som ikke rigtig fungerede, men det er en demo), såvel som nye kommercielle versioner, inklusive en der serverer mad og drikke, en anden, der fungerer som en portør til at levere bagage, og en tredjedel, der fungerer som en indkøbsvogn med en integreret stregkodelæser. Dette er interessante ideer, men ser ud til at være langt fra mainstream.

For mig var det bedst udseende af disse den nye version af Sonys robothund fra Aibo, som nu er i stand til nye tricks og kan reagere forskelligt på forskellige mennesker ved hjælp af ansigtsgenkendelse. Aibo kan også gøre ting som at lege med en bold, lægge sig ned og reagere på dit berøring, som tilsyneladende er meget hundelignende opførsel. Den japanske version, der nu er tilgængelig, er ikke billig; en amerikansk version er endnu ikke blevet annonceret. Det ligner en masse sjov.

Imidlertid var mit generelle indtryk, at ingen af ​​disse overhovedet er tæt på de robotter, som folk forestiller sig i bøger og film. De er alle meget begrænsede og er ofte lidt mere end samtalestykker. Men ting ser ud til at skride frem.

Real-time oversættelse, du kan tage med dig

Måske er science fiction-teknologien, der er tættest på at være klar til forbrugerbrug, den universelle oversætter. Selvom den "universelle" del stadig ikke er klar, har jeg været meget imponeret over de mange forbedringer i oversættelsesteknologi, især mellem to sprog, hvilket er, hvad vi virkelig har brug for alligevel.

Hvis du vil have noget, du kan oversætte fra et bestemt sprog til et andet (og tilbage igen), er der nu et antal kommercielle enheder, der tilbyder sådanne funktioner. Der er et par telefonapps, der prøver at gøre det samme (f.eks. Google Translate og Pixel Buds), men jeg var imponeret over demoer af et par små enheder, der hævder at udføre jobbet med mikrofoner, software og højttalere, der er indstillet til opgaven, og som kan arbejde med enhver smartphone eller endda uden en.

Det kinesiske AI-firma iFlytek havde to forskellige versioner til oversættelse mellem mandarin-kinesisk og engelsk - en, der fungerer offline og vil sælge for omkring $ 150, og en anden, der gør et noget bedre stykke arbejde og er forbundet til skyen via cellenetværk. Denne enhed sælges for omkring $ 350. Virksomheden arbejder også med at konvertere fra kinesisk til andre sprog. Jeg taler ikke mandarin, men det så ret imponerende ud.

Sourcenext, et japansk firma, demonstrerede Pocketalk, en håndholdt tovejs taleoversætter, som den siger, vil være i stand til at arbejde på 63 forskellige sprog. Demoerne, jeg så, indeholdt japansk og engelsk, og selvom det så meget godt ud, da jeg ikke taler japansk, kunne jeg ikke rigtig være sikker. Dette forventes frigivet i maj.

Fra et designperspektiv var den enhed, der forekom mig mest interessant, Mars oversætter fra Naver, der bruger virksomhedens Papago-oversættelsesteknologi, og en assistent kaldet Clova, udviklet af Naver og den asiatiske messaging-tjeneste Line. Med dette design bærer du et par ørepropper og sætter det ene i øret og giver det andet til den person, der taler det andet sprog. Demonstrationen, der brugte koreansk til engelsk, så også imponerende ud (men igen, jeg kan ikke rigtig fortælle). Virksomheden siger også, at det vil støtte kinesisk og spansk.

Som jeg har sagt, taler jeg ikke noget af de demonstrerede sprog, så jeg kan ikke gå med på, hvor gode produkter de er. Men disse ser ud til at bevæge sig meget hurtigt i den rigtige retning.

VR forbedres, men Holodeck er langt væk

VR-headset er naturligvis nu almindelige, men de fleste af de mennesker, jeg kender, der bruger dem, finder dem kun underholdende i en kort periode. I mellemtiden er augmented reality-headset, som Google Glass endnu ikke fanget, undtagen et par højspecialiserede applikationer. For mig skyldes det, at teknologien ikke ser ud til at være helt klar til primetime - VR-headset er ofte tunge og uklare, enhederne skal enten være bundet, eller de er ikke ret kraftige nok, og skærmen har ofte et begrænset felt af udsigt. Desuden er opløsningen generelt dårlig nok, så du kan se pixels, hvilket giver skærmen en "skærmdøreffekt."

På CES i år så jeg nogle tegn på, at dette begynder at blive bedre.

Royales Moon 3D Mobile Theatre tilbyder en mere fordybende oplevelse af at se film ved hjælp af dobbelt 1080p AMOLED-skærme i et headset og en støjdæmpende hovedtelefon, der dækker dine ører, så du stort set kun kan høre og se filmen.

ThirdEye's X1 har to 720p gennemskuelige skærme til augmented reality og er primært rettet mod sundhedsvæsenet og uddannelsesmarkederne.

Rokid, en ny kinesisk spiller, viste AR-briller, der ligner mere et forbrugerprodukt, med briller, der ikke er for meget større end normale solbriller. Rokids enhed inkluderer et frontvendt kamera til ansigtsgenkendelse og stemmegenkendelse. Dette var bare en prototype, og det er uklart, hvornår det kommer på markedet.

Den mest interessante var måske Vuzix-klingen. (Se billedet øverst i dette indlæg.) Vuzix har sendt AR- og VR-briller til erhvervsmarkedet i nogen tid, men bladet virker både lettere og tættere på den vision, de fleste har på AR-briller. Disse ligner solbriller, men med et lille farvedisplay på siden af ​​rammen, der inkluderer batterier, et 8-megapixelkamera og bruger Amazon Alexa som stemmeassistent.

På nogle måder er dette stort set en opdateret version af Google Glass-konceptet, idet det næsten er på det punkt, hvor jeg kan se forbrugere, der bruger det. (Google Glass findes stadig på erhvervsmarkedet, hvor det konkurrerer med produkter fra Vuzix, Epson og andre.) Brillerne, jeg prøvede, føltes temmelig godt: relativt let, og selvom de ikke havde alt, hvad jeg gerne ville se i denne type briller - skærmen er stadig ikke så god, som jeg ville gerne - det er tæt på at være et rigtigt produkt, med Vuzix lovende udviklersæt snart og en forbrugerversion, der skal følges. Det er ret cool.

Bag disse nye funktioner - og dem, vi får brug for at se fremad - var enormt forbedrede skærme, og arbejdet skrider fremad på nye LCD'er og Micro OLED'er (organiske lysemitterende dioder) såvel som på lysfeltskærme.

På Micro OLED-området så jeg et antal headset, der brugte Kopins Lightning 720p OLED-mikrodisplay, som har en diagonalstørrelse på 0, 49 tommer og en lysstyrke på over 1000 ni. Nogle af nutidens mest interessante headset ser ud til at bruge det.

Et, som jeg fandt særlig interessant, bruger et mikrodisplay og integrerer Flirs termiske billeddannelsessystemer til at skabe et headset, der fungerer som en maske for brandmænd, der kan advare dem om hot spots i en brændende bygning.

Ser man længere fremad, viste Kopin sin Lightning 2K AMOLED, en 0, 99-tommer-skærm (18 mm på hver side) med 2048-til-2048 pixels, der skulle ud senere i år. Virksomheden har skabt skærme til headset i mange år og fremstiller nu mikro-OLED'er som en del af et joint venture med displayproducent BOE med det formål at skabe en bedre "hjælpsom virkelighed."

I fremtiden vil jeg være meget interesseret i AR-applikationer især, men for dette år tror jeg, det stadig er stort set en nicheapplikation, der er bedst egnet til lodrette markeder med specifikke behov.

Stadig, i et andet nikket mod science fiction-film, ser hologrammer ud til at gøre meget fremskridt. Jeg var især imponeret over Hypervsn fra Kino-mo, et britisk firma, der bruger LED'er til at projicere 3D-hologrammer, der ser ud som om de flyder i luften. Denne teknologi bruges primært i marketing til at skabe iøjnefaldende skærme. Det fangede bestemt min.

Science fiction-enheder, der er (næsten) reelle