NVIDIA oder AMD GPU für Informatik Interessierte?

Hey, ich will mir in nächster Zeit einen neuen Desktop PC zusammen zu bauen. Der soll hauptsächlich für persönliche Programmierprojekte und vielleicht auch mal das ein oder andere AAA Game da sein. Meine Programmierprojekte variieren von kleinen simplen Games bis über ML Projekte in PyTorch. Das Budget ist bis ca 1000 Euro

Ich hab mich schon einigermaßen über das ganze informiert und mir folgenden PC zusammengestellt: PCPartPickerList

Allerdings bin ich mir noch bei der Auswahl der GPU nicht ganz sicher. Grundsätzlich hatte ich NVIDIA bevorzugt aufgrund der Einbindung von CUDA in PyTorch. Bin allerdings noch relativ neu im ML Bereich und bin mir deshalb nicht ganz sicher in wie fern das wichtig ist. Auch bin ich mir nicht sicher ob es Qualitative Unterschiede zwischen DLSS und AMD FSR gibt.

Welche der beiden wäre für mich besser?

Freue mich über Erfahrungen oder Ratschläge in dem Bereich.

(2 votes)
Loading...

Similar Posts

Subscribe
Notify of
26 Answers
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
jort93
1 year ago

Ich würde persönlich nvidia nehmen wegen cuda, aber ist dir überlassen am ende.

ROCm, das CUDA equivalent von AMD, hängt noch ordentlich hinterher. Aber pytorch und tensorflow unterstützten ROCm zumindest mittlerweile.
ROCm gibt es aber erst seit 2016, ist also vergleichsweise neu.

Wenn du machine learning machen willst brauchst du soviel schnellen VRAM wie du kriegen kannst. 48GB VRAM auslasten ist garkein problem. Unter 10-12GB VRAM würde ich für machine learning auf keinen fall holen, damit kannst du die meisten größeren models schlicht nicht benutzen, und wenn du selbst welche schreibst musst du dich stark einschränken.

Die zusammenstellung scheint für mich sinnvoll.

jort93
1 year ago
Reply to  Max1236

Wobei, seit Juli hat rocm Windows Support. Hatte ich nicht mitbekommen.

jort93
1 year ago
Reply to  Max1236

Selbst bei hobby projekten landet man ganz schnell bei mehr VRAM vebrauch.

Du kannst natürlich deine eigenen models möglichst klein halten, aber wird dann halt einfach nicht so gut wie mit mehr vram. Du willst wirklich soviel wie du kriegen kannst.

mROC wird von weniger programmen unterstützt. Außerdem funktioniert mROC nur unter linux, nicht unter windows. Außerdem ist es schlicht nicht so vebreitet, dementsprechend werden dir nicht viele mit deinen problemen helfen können.

heizfeld
1 year ago
Reply to  Max1236

Naja, von der neuen Platform machst du leistungsmäßig ja kaum Gebrauch. Dsas sind 200€ extra nur für “DDR5”

billigstes Bundle DDR 4 https://www.hardwareschotte.de/produkt-vergleich/22022706-22216373-22273443?srt=name

billigstes Bundle DDR5 https://www.hardwareschotte.de/produkt-vergleich/22244513-22245753-22269114?srt=name

Da ist dir wohl ein ti durchgerutscht Eine 4060TI ist mal eben 20-25% schneller als eine 3060

https://howmanyfps.com/en-de/graphics-cards/comparisons/nvidia-geforce-rtx-4060-ti-16-gb-vs-nvidia-geforce-rtx-3060

jort93
1 year ago
Reply to  heizfeld

8GB VRAM ist sehr wenig für machine learning, kann ich nicht empfehlen. Unter 10Gb würde ich für machine learning in 2024 nicht kaufen.

heizfeld
1 year ago

Weiß nicht, irgendwie kommt mir das ganze vor wie ein Makroeditor. Programmschnipsel schreiben, parametrisieren und ablegen for later use. das habe ich erstmals beim MASM Microsoft Assembler verwendet. So wie du es beschreibst kommt es mir vor wie alter wein in neuen Schläuchen. richtig neu ist die Terminologie. Aber AI alte ich eh für ein Windei bisher, bin nicht beeindruckt.

jort93
1 year ago

wie gesagt, auf laughingface kann man GPT2-xl direkt ausprobieren.

Aber naja, ansonsten, lade es dir doch runter und lasse es lokal laufen…

Warum soll ich dir jetzt erklären wie und wozu man machine learning benutzt?… Der fragesteller will sich halt mit machine learning beschäftigen, und im machine learning bereich ist 6gb nicht viel(GPT2-xl ist jetzt schon 4 jahre alt)

heizfeld
1 year ago

Also sowas wie objektorientiertes Programmieren. Das Plappermaul ChatGPT kenne ich, ja. Aber nun ein Startbutton irgendwo, was kann ich sichtbar in Gang setzen?

jort93
1 year ago

GPT2 schreibt texte, chatgpt ist sicher bekannt(wobei die neueren versionen von GPT closed source sind), und DeepFloyd-IF produziert bilder von text inputs.

GPT2-xl kannst du direkt auf der website die ich verlinkt habe ausprobieren, rechts auf der seite.

Und hier sind ein paar bilder die von IF erzeugt wurden https://github.com/deep-floyd/IF

heizfeld
1 year ago

Modelle um was zu tun? Wo kann ich ein brauchbares Ergebnis sehen? Was wird hergestellt?

jort93
1 year ago

Der sinn ist dass es gute modelle sind. Gute modelle brauchen oftmals viel VRAM.

heizfeld
1 year ago

Richtig, der Sinn dahinter geht mir ab.

jort93
1 year ago

Hä, was soll das jetzt mit hugging face zu tun haben???

Wie gesagt, gpt2-xl z.B., das ist doch sehr bekannt. Du wolltest ein beispiel, ich habe dir zwei genannt, und was willst du jetzt? Das produkt habe ich dir gezeigt.

Extrem viele models brauchen mehr als 6GB vram, 6 gb ist NICHTS.

Klingt nicht als hast du dich jemals mit machine learning beschäftigt.

heizfeld
1 year ago

Also hugging Face, ok. ganz viel BlaBla drumherum. Wo ist jetzt die action, der Movie, die Anwendung, das Produkt??

jort93
1 year ago

https://huggingface.co/DeepFloyd/IF-I-XL-v1.0

Und das hier ist z.B. für GPU’s mit “as little as 14 GB of VRAM”, diese ausdrucksweise zeigt denke ich wie wenig 6Gb in dem kontext sind.

jort93
1 year ago

Und wenn man sich selbst ein modell antrainiert, dann kann man das halt für unterschiedliche mengen vram optimieren, unt mit mehr vram wirds besser.

jort93
1 year ago

GPT2-xl braucht z.B. 16GB vram https://huggingface.co/openai-community/gpt2-xl

Ist so das erste was mir spontan einfällt.

Wenn man jetzt nur 6gb hat kann man vermutlich nur die medium version mit 355 millionen parametern(https://huggingface.co/openai-community/gpt2-medium) zum laufen kriegen, aber nicht die xl version mit 1.5 millaraden parametern.

heizfeld
1 year ago

Verlink doch mal eins das nicht läuft, dann können wir das nachvollziehen.

jort93
1 year ago

Im gaming vielleicht…

8GB sind extrem wenig für machine learning. Dadrauf laufen viele größere modelle schlichtweg nicht. Da muss man sich sehr einschränken. Wenn schon sollte es die 16gb version sein.

16gb ist nichtmal viel, das ist für machine learning relativ normal. Viele die sich damit wirklich beschäftigen benutzen grafikkarten mit über 40GB vram.

Es soll ja kein gaming pc werden, sondern zur entwicklung, wenn ich das richtig verstehe.

LilPeep15112017
1 year ago

Eigentlich egal, CUDA hin oder her, so viel schneller ist das nicht.

ROCm ist da schon näher dran als mancher hier glaubt.

Vram auch so ein Thema deswegen auf zur AMD

Auch DLSS hat natürkich ne bessere Qualität als FSR aber da muss man auch schauen wie sich das entwickelt

jort93
1 year ago

Vram auch so ein Thema deswegen auf zur AMD

Vram bauen nvidia und amd aktuell etwa gleichviel ein.

Faultier2917
1 year ago

Nimm eine RX 6700XT, damit bist du gut aufgestellt. Und vllt eine AM4 Plattform mit Ryzen 7 5700X, ist bisschen günstiger.