Vraag:
GPU voor diep leren
Franck Dernoncourt
2015-12-21 05:23:15 UTC
view on stackexchange narkive permalink

Ik heb een budget van ~ 10 kUSD om GPU's te kopen voor neurale netwerktoepassingen, meestal met Theano, Torch, TensorFlow en Caffe. De meeste programma's die ik wil draaien, zijn bedoeld voor de verwerking van natuurlijke taal. De berekeningen staan ​​in float 32 en in CUDA. Ik woon in de VS en ik betaal niet voor de elektriciteitsrekening. De GPU's worden gemonteerd op sommige computers waarop Ubuntu 14.04.3 LTS x64 draait.

Wat zijn de grafische kaarten met de hoogste rekenkracht / prijsverhouding, gegeven de bovengenoemde omstandigheden?

Heb je ze niet gebruikt, maar heb je de GPU van [Nvidia] (http://www.nvidia.com/object/machine-learning.html) uitgecheckt?
U zult voor dit soort dingen zeker naar de werkstationkaarten van Nvidia willen kijken en niet naar desktopkaarten, omdat u zich concentreert op zeer specifieke en omslachtige taken.
Ik heb geen volledig antwoord, maar Tesla M40's zijn de beste voor dit soort werk, hoewel je met je budget beperkt bent tot 2 kaarten.
Drie antwoorden:
Piotr Falkowski
2015-12-22 01:30:41 UTC
view on stackexchange narkive permalink

Ik heb CUDA hiervoor niet persoonlijk gebruikt, hoewel ik dat wel van plan ben. Uit mijn onderzoek concludeerde ik dat je zeker 'Computing Capability' wilt hebben van ten minste 3,5, zoals sommige bibliotheken dat al eisen. De (moeilijk te vinden) lijst met rekenmogelijkheden staat onder deze link. Uit deze lijst kan men concluderen dat het hebben van GTX 980 of Titan (beide 5,2 score) zo goed mogelijk is, maar houd er rekening mee dat als je een grafische kaart alleen koopt, Nvidia hiervoor een antwoord voor professioneel en academisch gebruik genaamd Tesla - het is gewoon een computerbox, verre van grafische kaart (het heeft zelfs geen weergavepoorten!), kost van 3k $ voor K20 tot 5k $ voor K80-model, en is een kolos:

Een snelle vergelijking (CC staat voor Compute Capability):

en klantkwaliteit, populairste en nieuwe grafische kaarten:

Zie ook vergelijking op wccftech.

Tot slot: de GPU van commerciële kwaliteit lijkt meer kostenefficiënt te zijn, maar alleen als we de specificaties vergelijken. Er kunnen andere afwegingen zijn, ik ben er niet zo van. Ik kan dus niet met vertrouwen zeggen "ga met klantcijfer", maar ik kan je wel vertellen wat ik zou (gaan) doen - ik zal GTX 960 of 970 kopen, omdat ik van plan ben om te gamen en ik vrij beperkt ben in kosten, en deze kaarten zal het prima doen voor CUDA-leren. Als je voor een instelling koopt, plan dan geen gaming, de berekeningen gaan 24/7, denk aan de Tesla's van academische kwaliteit.

Als u ook geïnteresseerd bent in het vergroten van uw 'conventionele' integer-gebaseerde verwerkingskracht op een geavanceerde computerserver, wilt u misschien Xeon phi opzoeken.

[EDIT] Houd er rekening mee dat het overschakelen van CPU-gebaseerde drijvende-kommaberekeningen naar GPU-verbeterde, een verandering in kwaliteit is, bijna één orde van grootte , en zal zeer uitgesproken en merkbaar zijn, maar overschakelen van ex. Tesla K20 naar Tesla K40 zal slechts een verandering in hoeveelheid zijn (K80 is slechts twee K40 bij elkaar gebundeld), dus als u voor snelheid / prijsverhouding gaat, kies dan voor de goedkoopste GPU-versnelling, dat zal voor u werken.

Let op: Facebook gebruikt de [Nvidia Tesla M40] (http://arstechnica.com/information-technology/2015/12/facebooks-open-sourcing-of-ai-hardware-is-the-start-of-the -deep-learning-revolution /) in hun open source AI-hardware.
Franck Dernoncourt
2016-05-08 08:45:51 UTC
view on stackexchange narkive permalink

Nvidia heeft zojuist de Nvidia GTX 1080 aangekondigd, die ~ 25% sneller is dan de Titan X en aanzienlijk goedkoper (600 USD versus 1000 USD).

Van http: // www. anandtech.com/show/10304/nvidia-announces-the-geforce-gtx-1080-1070/2:

enter image description here

Van http://wccftech.com/nvidia-geforce-gtx-1080-launch/:

enter image description here

Het is moeilijk om uitgebreide specificatietabellen te vinden tussen de GTX 1080 en Titan X (ik neem aan dat ze binnenkort verschijnen). Nog een paar vergelijkingen GTX 1080 versus Titan X:

  • 9 Tflops versus 6.1 Tflops

Van een officiële Nvidia-presentatie:

enter image description here

enter image description here

De Nvidia GTX 1070 werd ook aangekondigd:

enter image description here

Van cnn-benchmarks:

GTX 1080> Titan X: voor alle modellen, de GTX 1080 is 1,10x tot 1,15x sneller dan de Titan X.

Franck Dernoncourt
2016-07-23 02:42:57 UTC
view on stackexchange narkive permalink

Nvidia kondigde op 21-07-2016 de nieuwe GTX Titan X aan:

  • Minder dan 1200 USD
  • "Potentieel 24% sneller dan GTX 1080; 60% sneller dan de oude Titan X. "
  • 11 teraflops aan FP32-prestaties
  • 12 GB GDDR5X-geheugen met een effectieve 10 GHz en aangesloten op een brede 382-bits bus , resulterend in een geheugenbandbreedte van 480 GB / s.

Een eerste benchmark (helaas hebben ze niet dezelfde CuDNN behouden…):

enter image description here



Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 3.0-licentie waaronder het wordt gedistribueerd.
Loading...