Hjem Fremadrettet tænkning Nvidia sigter mod grafik og 'dyb læring'

Nvidia sigter mod grafik og 'dyb læring'

Video: How to mount your GPU Vertically WITHOUT affecting cooling! (Oktober 2024)

Video: How to mount your GPU Vertically WITHOUT affecting cooling! (Oktober 2024)
Anonim

Nvidias nye Titan X-grafikprocessor er baseret på GM200-processoren, som er en enorm chip, der udnytter kraften fra 8 milliarder transistorer, 3.072 processorkerner og 12 GB indbygget GDDR5-hukommelse til 7 teraflops med en høj præcisionsydelse. Denne chip, der blev vist på Game Developers Conference for to uger siden, er baseret på de samme Maxwell-kerner, der er i virksomhedens nuværende processorer og er fremstillet på samme 28nm-proces.

Men Nvidia sagde i denne uge, at dets nye flagskib GeForce GPU ville levere dobbelt så høj ydeevne og fordoble strømforbruget for sin forgænger. Det er også en meget stor chip på 601 mm2, omkring den største størrelse chip, der i øjeblikket er produceret, og vil trække 250 watt strøm. Og selvfølgelig vil det være den dyreste generelle grafikchip med en veiledende salgspris på $ 999.

De fleste anmeldelser fra websteder som ExtremeTech, Anandtech og TechReport er ganske positive. I den virkelige verden er der selvfølgelig ingen, der fordobler den ydelse, som sælgeren hævder, skønt der er nogle gode gevinster. Generelt ser det ud til, at Titan X klart slår andre single-GPU-kort og gør et hæderligt job med at sammenligne med AMDs dual GPU Radeon R9 295X2 eller Nvidias dual GeForce GTX 980 SLI. I mange tilfælde vil et dual-GPU-kort fra begge leverandører være hurtigere end ethvert enkelt-GPU-kort, men mange spil bruger ikke begge kort, og i andre viser opsætningen af ​​dobbeltkort mere stamming. Især mange af anmeldelserne fokuserer på, hvor godt Titan X klarer sig ved 4K.

Naturligvis er Nvidias største rival i den konkurrencedygtige verden af ​​pc-grafik sandsynligvis ikke at sidde stramt - AMD ryktes vidt at have sit eget nye kort venter i vingerne.

Men igen, hvad jeg syntes var mest interessant ved introduktionen af ​​Titan X på GPU Technology Conference (GTC) på tirsdag, var fokuset på at bruge chip i dybe læringsapplikationer, hvor Nvidias administrerende direktør Jen-Hsun Huang talte om, hvordan forskere har opdaget, at dyb læringsteknikker dramatisk kan accelereres ved hjælp af GPU'er.

Huang talte især om applikationer lige fra billedgenkendelse med automatiseret billedtekstskrivning til medicinsk forskning til autonome køretøjer. Bilmarkedet var det primære fokus for Nvidia hos CES, da det introducerede sin Tegra X1-chip og sin Drive PX-løsning til bilindustrien. Ideen er at udvide eksisterende avancerede driverassistentsystemer (ADAS), så de bliver smartere og smartere med tiden. "Jeg tror, ​​Big Bang af selvkørende biler er ved at komme i de næste par år." Sagde Huang.

Senere sluttede Tesla Motors CEO Elon Musk sig til Huang på GTC-scenen for at sige, at det ikke er så langt at udvikle selvkørende biler, der faktisk er mere sikre end dem, der kører med mennesker. Musk sagde, at de nuværende sensorsuiter i en Tesla allerede er i stand til hjælpefunktioner til avanceret fører, men selvkørsel i et bymiljø med en hastighed på 10-40 miles i timen vil kræve mere processorkraft. Stadig sagde han, at overgangen vil tage lang tid, da køretøjets flåde på vejen er så stor. "Det er underligt, at vi er så tæt på AI's fremkomst, " sagde Musk. "Jeg håber bare, at der er noget tilbage for os mennesker at gøre."

Maskinlæring er anderledes end de fleste af HPC-applikationer (High-Performance Computing), hvor Nvidia har skubbet sine Tesla-acceleratorer. Disse applikationer kræver normalt flydepunkt med dobbelt præcision, mens applikationer til dyb læring ofte kun har brug for enkeltpræcision. Titan X tilbyder kun enkelt præcision. Til dybe læringsapplikationer tilbyder Nvidia en ny ramme kaldet DIGITS, Deep GPU Training Systems til datavidenskabsmænd og et nyt $ 15.000 apparat kaldet DIGITS DevBox.

Ser frem til, sagde Huang, at Pascal GPU-arkitekturen, der blev debut til næste år, vil fremskynde applikationer med dyb indlæring ti gange ud over hastigheden i sin nuværende generation af Maxwell-processorer. Dette kommer fra tre nye funktioner: blandet præcision (mere brug af 16-bit flydende punkt); 2, 7 gange hukommelseskapaciteten med op til 32 GB ved brug af 3D-stakket hukommelse med tre gange hukommelsesbåndbredden, og NV Link-forbindelsen giver mulighed for op til otte high-end GPU'er i en DevBox eller lignende arbejdsstation (i modsætning til de fire Titan X GPU'er i den ene forsendelse i maj). Det blev ikke sagt, men det er sandsynligt, at chips baseret på denne arkitektur ville bruge næste generations processteknologi. Når alt kommer til alt blev de første 28nm chips introduceret i 2011 og begyndte at sælge i 2012, så inden næste år håber jeg, at vi får se 16nm eller 14nm diskrete grafiske chips.

Nvidia sigter mod grafik og 'dyb læring'