Hjem Fremadrettet tænkning Nvidia skubber hukommelsesforbedringer, samlet arkitektur til gpus og mobile processorer

Nvidia skubber hukommelsesforbedringer, samlet arkitektur til gpus og mobile processorer

Video: RTX 3080 — The Perfect 1440p Gaming GPU? — 6 Years of NVidia GPUs Compared (Oktober 2024)

Video: RTX 3080 — The Perfect 1440p Gaming GPU? — 6 Years of NVidia GPUs Compared (Oktober 2024)
Anonim

På Nvidias GPU-teknologikonference i sidste uge var jeg overrasket over at se, hvor langt grafik og GPU-teknologi bevæger sig - på skrivebordet og på mobile enheder - og hvordan måden, folk skriver software, skal ændre sig for at drage fordel af det.

Den store bevægelse er mod heterogen software, programmer, der kan bruge både den traditionelle mikroprocessor CPU og GPU på samme tid. Dette er ikke et nyt koncept - både Nvidia og AMD har talt om dette i et stykke tid - men de to sider nærmer sig hinanden.

AMD's tilgang har været at fremme, hvad den kalder "accelererede behandlingsenheder", som kombinerer både GPU'er og CPU'er på en enkelt dyse, og hvad den har kaldt "heterogen systemarkitektur." I de sidste par år har det været med til at promovere HSA, og sidste år oprettede det HSA Foundation sammen med 21 andre virksomheder til at udvikle åbne standarder for heterogen computing.

Nvidias tilgang har været meget anderledes, med fokus på sine CUDA-platforme til at skrive software på sine GPU'er og dens Tesla-version af GPU'er, som nu bruges i supercomputere som Oak Ridge National Laboratory's Titan supercomputer. I sådanne systemer styrer temmelig kompleks software, hvad computing fungerer på CPU'en, og hvad der fungerer på GPU'en.

Åbn sin hovedtaler, Nvidia CEO, Jen-Hsun Huang, sagde, "Visual computing er et kraftfuldt og unikt medium. I løbet af de sidste 20 år har dette medium omdannet pc'en fra en computer til information og produktivitet til et af kreativitet, udtryk og opdagelse." De næste par år skulle fortælle, om denne overgang når et plateau, eller om den faktisk lige er begyndt."

Som forventet talte Huang meget i sin nøgleord om, hvordan GPU-computing baseret på CUDA vokser. Virksomheden har afsendt 430 millioner CUDA-kapable GPU'er og 1, 6 millioner CUDA-programmeringssæt-downloads; Nvidia GPU'er bruges nu i 50 supercomputere over hele verden. For eksempel, sagde han, Titan for nylig gjorde verdens største faste mekaniske simulering ved hjælp af 40 millioner CUDA-processorer til at levere 10 petaflops vedvarende ydelse. Han sagde også, at GPU-computing havde masser af potentiale i "big data" -applikationer.

Huang hentede en repræsentant fra Shazam for at tale om, hvordan virksomheden bruger GPU'er til at matche musik og lyd fra et stort antal brugere. Huang nævnte derefter, at et firma kaldet Cortexica bruger lignende teknologi til visuel søgning.

Vigtigst af alt viste virksomheden en ny køreplan for sin GPU-motor, der blev brugt i både sine GeForce-spilprodukter og Tesla-linjen. Den nuværende GPU-arkitektur kaldes "Kepler", der blev sendt sidste år. Den næste version, kendt som "Maxwell, " forventes næste år. Det tager et stort skridt hen imod heterogen computing ved at tilføje en "samlet virtuel hukommelse" -arkitektur, hvilket betyder, at CPU og GPU vil være i stand til at se hele systemets hukommelse.

Dette er vigtigt, fordi en af ​​de store flaskehalse i GPU-computing har flyttet data mellem hovedhukommelsessystemer og grafikhukommelse, og fordi det har været vanskeligt at skrive software, der bruger begge typer processorer. (AMD har annonceret en lignende funktion til sin Kaveri-processor på grund af slutningen af ​​dette år. Jeg er lidt uklar på, hvordan dette fungerer uden direkte support fra CPU-producenterne, men det er bestemt en tilgang, vi vil se mere af fremadrettet.)

I 2015 lovede Huang en anden version, kaldet "Volta", som vil tage grafikhukommelsen og stak den direkte oven på GPU'en, hvilket dramatisk øger hukommelsesbåndbredden til cirka en terabyte per sekund. Til sammenligning er Keplers samlede maksimale båndbredde ca. 192 gigabyte pr. Sekund.

En række virksomheder, inklusive Intel, har talt om at stakke hukommelse oven på en processor, men ledningen til at forbinde hukommelsen og processoren, der bruger en teknik, der kaldes gennem-silicium vias, har været kompliceret. Så vidt jeg ved, er Volta den første relativt mainstream-processor, der annonceres, der vil have denne funktion.

Den mobile køreplan har nogle af de samme funktioner. Virksomheden annoncerede for nylig sine Tegra 4 (kodenavn "Wayne") og Tegra 4i (kodenavn "Gray") processorer. "Logan", der forventes at være i produktion i 2014, tilføjer den første CUDA-kapabel grafik i Tegra-linjen. Dette vil blive fulgt i 2015 med "Parker", som kombinerer Maxwell GPU-teknologien med virksomhedens første unikke CPU-kernedesign, en 64-bit ARM-processor kendt som Project Denver. (Bemærk, at mens de to processorer deler GPU-designet, er antallet af faktiske grafiske kerner sandsynligvis meget mindre i en mobil processor end i en desktopversion.)

Dette burde være interessant både på grund af den samlede hukommelsesarkitektur, og fordi den er beregnet til at blive fremstillet ved hjælp af 3D FinFET-transistorer. Intel bruger denne teknik i sine 22 nm-processorer og begge langvarige Nvidia-produktionspartnere Taiwan Semiconductor Manufacturing Corp. og konkurrerende Globalfoundries har sagt, at de vil have FinFETS engang næste år. Masseproduktion starter sandsynligvis i 2015.

"Om fem år vil vi øge Tegras ydelse med 100 gange, " lovede Huang.

Naturligvis er det store spørgsmål, hvad vi bruger computerens hestekræfter til. Det er temmelig let for mig at se high-performance computing- og "big data" -applikationer - disse fortsætter med at vokse og kan nemt bruge de parallelle computerfunktioner i GPU'er. Nvidia vil tilbyde disse funktioner i en række forskellige metoder, herunder gennem dens Tesla-tavler til arbejdsstationer og supercomputere; dets GRID CPU-server virtualiseringsteknologi til enterprise-servere; og et nyt GRID Virtual Computing Appliance (VCA), et 4U-chassis med Xeon-processorer, Kepler-baserede GPU'er og hukommelse rettet mod afdelinger.

Og selvfølgelig vil spil bruge mere grafik og blive mere realistiske i hver generation. Størrelsen og opløsningen af ​​skærme øges, og folk vil have mere grafik. Huang viste frem selskabets nye avancerede desktop-grafikkort, kaldet Titan, der kører en realtidssimulering fra Waveworks. Det demosed også Faceworks, et 3D talende hoved ved navn Ira (ovenfor), skabt med Institute for Creative Technology på USC.

At bringe alle disse funktioner til mobil er især interessant. Jeg er ikke helt sikker på, at jeg virkelig har brug for al kraften fra en high-end desktop GPU i en mobilenhed - når alt kommer til alt, på en fem tommer skærm virker 1.980-by-1.080 som nok - men jeg er ikke i tvivl om folk finder anvendelse til det. En bekymring er, at det ville bruge for meget magt, men Huang sagde, at Logan ville være "ikke større end en krone." I alle tilfælde vil jeg være interesseret i at se, hvad folk vil gøre med så meget præstation.

Generelt satser Nvidia, ligesom AMD, på fortsatte grafikforbedringer, samlet hukommelse og en heterogen tilgang til programmering af CPU og GPU. AMD siger, at det arbejder med åbne standarder, mens Nvidia peger på de succeser CUDA har, især på højtydende arena. Og selvfølgelig er der Intel, hvis grafik er både AMD og Nvidia i dag, men stadig dominerer pc-CPU-området. Det har også sit eget sæt softwareværktøjer. De forskellige tilgange bør gøre dette til et fascinerende område at se på.

Nvidia skubber hukommelsesforbedringer, samlet arkitektur til gpus og mobile processorer