Spørsmål:
GPU for dyp læring
Franck Dernoncourt
2015-12-21 05:23:15 UTC
view on stackexchange narkive permalink

Jeg har et budsjett på ~ 10 kUSD for å kjøpe GPUer for nevrale nettverksapplikasjoner, for det meste ved bruk av Theano, Torch, TensorFlow og Caffe. De fleste programmer jeg planlegger å kjøre, er for behandling av naturlig språk. Beregninger er i flottør 32 og i CUDA. Jeg bor i USA, og jeg betaler ikke for strømregningene. GPUene vil bli montert på noen datamaskiner som kjører Ubuntu 14.04.3 LTS x64.

Hva er grafikkortene med det høyeste beregningseffekten / prisforholdet, gitt de ovennevnte forholdene?

Har du ikke brukt dem, men har du sjekket ut [Nvidias GPU] (http://www.nvidia.com/object/machine-learning.html) s?
Du vil definitivt se på Nvidias arbeidsstasjonskort og ikke stasjonære kort for denne typen ting siden du fokuserer på veldig spesifikke og tungvint oppgaver.
Jeg har ikke et fullstendig svar, men Tesla M40 er de beste for denne typen arbeid, men med budsjettet ditt vil du være begrenset til to kort.
Tre svar:
Piotr Falkowski
2015-12-22 01:30:41 UTC
view on stackexchange narkive permalink

Jeg har ikke personlig brukt CUDA til dette, selv om jeg planlegger å gjøre det. Fra undersøkelsen min konkluderte jeg med at du helt sikkert vil ha 'Computing Capability' minst lik 3,5, da noen biblioteker krever det allerede. (Vanskelig å finne) listen over datakapasitet er under denne lenken. Fra denne listen kan man konkludere med at det å ha GTX 980 eller Titan (begge 5,2-poeng) er så bra du kan få, men merk at hvis du bygger et grafikkort bare for dette, har Nvidia et svar for profesjonell og akademisk bruk med navnet Tesla - det er bare en databoks, langt fra grafikkort (den har ingen skjermporter engang!), koster fra 3k $ for K20, til 5k $ for K80-modellen, og er en behemoth: / p>

En rask sammenligning (CC står for Compute Capability):

  • Tesla K20: for stasjonære datamaskiner, titt for float: 3,52 Tflops, 5 GB, 2496 CUDA-kjerner, 2,9 k $, CC: 3,5
  • Tesla K40: for stasjonære datamaskiner, titt for float: 4,29 Tflops, 12 GB, 2880 CUDA kjerner, 3.1k $, CC: 3.5
  • Tesla K80: for servere, se for float: 8 Tflops, 24 GB, 4992 CUDA Cores, 5k $, CC: 3.7

og kundekvalitet, mest populære og nye grafikkort:

Se også sammenligning på wccftech.

For å konkludere: GPU av kommersiell karakter ser ut til å være mer kostnadseffektiv, men bare når vi sammenligner spesifikasjonene. Det kan være andre kompromisser, det er ikke jeg. Dermed kan jeg ikke trygt si "gå med kundeklasse", men jeg kan fortelle deg hva jeg ville (vil) gjøre - jeg vil kjøpe GTX 960 eller 970, fordi jeg planlegger å spille, og jeg er ganske kostnadsbegrenset, og dette kortene vil gjøre det bra for CUDA-læring. Hvis du kjøper for en institusjon, ikke planlegger å spille, vil beregningene gå 24/7, vurder den akademiske karakteren Teslas.

Også, hvis du vil være interessert i å øke den 'konvensjonelle' heltalsbaserte prosessorkraften på en avansert beregningsserver, vil du kanskje slå opp Xeon phi.

[EDIT] Vær oppmerksom på at det å bytte fra CPU-basert flytende punkt-aritmetikk til GPU-forbedret, er en endring i kvalitet, nesten en størrelsesorden , og vil være veldig uttalt og merkbar, men bytter fra eks. Tesla K20 til Tesla K40 vil bare være en endring i mengde (K80 er bare to K40 samlet), så hvis du velger hastighet til prisforhold, gå med den billigste GPU-akselerasjonen, det vil fungere for deg.

Som et notat bruker Facebook [Nvidia Tesla M40] (http://arstechnica.com/information-technology/2015/12/facebooks-open-sourcing-of-ai-hardware-is-the-start-of-the -dyp-læringsrevolusjon /) i deres åpne AI-maskinvare.
Franck Dernoncourt
2016-05-08 08:45:51 UTC
view on stackexchange narkive permalink

Nvidia har nettopp kunngjort Nvidia GTX 1080, som er ~ 25% raskere enn Titan X og betydelig billigere (600 USD mot 1000 USD).

Fra http: // www. anandtech.com/show/10304/nvidia-announces-the-geforce-gtx-1080-1070/2:

enter image description here

Fra http://wccftech.com/nvidia-geforce-gtx-1080-launch/:

enter image description here

Det er vanskelig å finne uttømmende spesifikasjonssammenligningstabeller mellom GTX 1080 og Titan X (jeg antar at de skulle vises snart). Noen flere sammenligninger GTX 1080 vs Titan X:

  • 9 Tflops vs 6.1 Tflops

Fra noen offisiell presentasjon av Nvidia:

enter image description here

enter image description here

Nvidia GTX 1070 ble også kunngjort:

enter image description here

Fra cnn-benchmarks:

GTX 1080> Titan X: På tvers av alle modeller, GTX 1080 er 1,10x til 1,15x raskere enn Titan X.

Franck Dernoncourt
2016-07-23 02:42:57 UTC
view on stackexchange narkive permalink

Nvidia kunngjorde 21. juli 2016 den nye GTX Titan X:

  • Under 1200 USD
  • "Potensielt 24% raskere enn GTX 1080; 60% raskere enn den gamle Titan X. "
  • 11 teraflops med FP32-ytelse
  • 12 GB GDDR5X-minne som kjører på en effektiv 10 GHz og festet til en bred 382-bit buss , noe som resulterte i en 480 GB / s minnebåndbredde

En første referanseindeks (dessverre beholder de ikke den samme CuDNN ...):

enter image description here



Denne spørsmålet ble automatisk oversatt fra engelsk.Det opprinnelige innholdet er tilgjengelig på stackexchange, som vi takker for cc by-sa 3.0-lisensen den distribueres under.
Loading...