NVIDIA oder AMD GPU für Informatik Interessierte?
Hey, ich will mir in nächster Zeit einen neuen Desktop PC zusammen zu bauen. Der soll hauptsächlich für persönliche Programmierprojekte und vielleicht auch mal das ein oder andere AAA Game da sein. Meine Programmierprojekte variieren von kleinen simplen Games bis über ML Projekte in PyTorch. Das Budget ist bis ca 1000 Euro
Ich hab mich schon einigermaßen über das ganze informiert und mir folgenden PC zusammengestellt: PCPartPickerList
Allerdings bin ich mir noch bei der Auswahl der GPU nicht ganz sicher. Grundsätzlich hatte ich NVIDIA bevorzugt aufgrund der Einbindung von CUDA in PyTorch. Bin allerdings noch relativ neu im ML Bereich und bin mir deshalb nicht ganz sicher in wie fern das wichtig ist. Auch bin ich mir nicht sicher ob es Qualitative Unterschiede zwischen DLSS und AMD FSR gibt.
Welche der beiden wäre für mich besser?
Freue mich über Erfahrungen oder Ratschläge in dem Bereich.
Ich würde persönlich nvidia nehmen wegen cuda, aber ist dir überlassen am ende.
ROCm, das CUDA equivalent von AMD, hängt noch ordentlich hinterher. Aber pytorch und tensorflow unterstützten ROCm zumindest mittlerweile.
ROCm gibt es aber erst seit 2016, ist also vergleichsweise neu.
Wenn du machine learning machen willst brauchst du soviel schnellen VRAM wie du kriegen kannst. 48GB VRAM auslasten ist garkein problem. Unter 10-12GB VRAM würde ich für machine learning auf keinen fall holen, damit kannst du die meisten größeren models schlicht nicht benutzen, und wenn du selbst welche schreibst musst du dich stark einschränken.
Die zusammenstellung scheint für mich sinnvoll.
Kommt vielleicht etwas falsch rüber aber ich will ja da jetzt ja keine großen CV Projekte drauf bauen, sondern nur ein paar kleinere Hobbyprojekte. Braucht man da auch schon so viel VRAM? Und in wie fern ist mROC schlechter als CUDA? Also wo liegen da die Unterschiede?
Wobei, seit Juli hat rocm Windows Support. Hatte ich nicht mitbekommen.
Selbst bei hobby projekten landet man ganz schnell bei mehr VRAM vebrauch.
Du kannst natürlich deine eigenen models möglichst klein halten, aber wird dann halt einfach nicht so gut wie mit mehr vram. Du willst wirklich soviel wie du kriegen kannst.
mROC wird von weniger programmen unterstützt. Außerdem funktioniert mROC nur unter linux, nicht unter windows. Außerdem ist es schlicht nicht so vebreitet, dementsprechend werden dir nicht viele mit deinen problemen helfen können.
Hi,
1000 € und nur ne schäbige 3060? Aber DDR5, wozu eigentlich?
CPU und GPU kommen immer primär, der rest ist nur Gedöns
https://www.memorypc.de/gaming-pc/amd-ryzen-5-554177/
https://www.memorypc.de/gaming-pc/intel-core-i5-556712/
https://hardwarerat.de/computerpc/rgb-gaming-pc/1151/gaming-pc-rgb-1000.2-rtx-4060-ti-i5-12400f-32gb-ddr4-1tb-nvme-win-11-pro
Oder Eigenbau…
https://www.hardwaredealz.com/bester-gaming-pc-fuer-unter-1000-euro-gamer-pc-bis-1000-euro
LG
Harry
Hab DDR5 deshalb weil ich auf der AM5 Plattform sein will. Hab mir die verlinkten Pre-Builds mal angeschaut. Da ist ja statt meiner 3060 ne 4060 drin. Die ist ja auch nur 20€ teurer als die 3060. Lohnt sich der Trade-Off zwischen den 12 zu 8GB VRAM, dafür aber halt minimal mehr Leistung und vor allem halt die FrameGen für 20 Euro mehr?
Naja, von der neuen Platform machst du leistungsmäßig ja kaum Gebrauch. Dsas sind 200€ extra nur für “DDR5”
billigstes Bundle DDR 4 https://www.hardwareschotte.de/produkt-vergleich/22022706-22216373-22273443?srt=name
billigstes Bundle DDR5 https://www.hardwareschotte.de/produkt-vergleich/22244513-22245753-22269114?srt=name
Da ist dir wohl ein ti durchgerutscht Eine 4060TI ist mal eben 20-25% schneller als eine 3060
https://howmanyfps.com/en-de/graphics-cards/comparisons/nvidia-geforce-rtx-4060-ti-16-gb-vs-nvidia-geforce-rtx-3060
8GB VRAM ist sehr wenig für machine learning, kann ich nicht empfehlen. Unter 10Gb würde ich für machine learning in 2024 nicht kaufen.
Weiß nicht, irgendwie kommt mir das ganze vor wie ein Makroeditor. Programmschnipsel schreiben, parametrisieren und ablegen for later use. das habe ich erstmals beim MASM Microsoft Assembler verwendet. So wie du es beschreibst kommt es mir vor wie alter wein in neuen Schläuchen. richtig neu ist die Terminologie. Aber AI alte ich eh für ein Windei bisher, bin nicht beeindruckt.
wie gesagt, auf laughingface kann man GPT2-xl direkt ausprobieren.
Aber naja, ansonsten, lade es dir doch runter und lasse es lokal laufen…
Warum soll ich dir jetzt erklären wie und wozu man machine learning benutzt?… Der fragesteller will sich halt mit machine learning beschäftigen, und im machine learning bereich ist 6gb nicht viel(GPT2-xl ist jetzt schon 4 jahre alt)
Also sowas wie objektorientiertes Programmieren. Das Plappermaul ChatGPT kenne ich, ja. Aber nun ein Startbutton irgendwo, was kann ich sichtbar in Gang setzen?
GPT2 schreibt texte, chatgpt ist sicher bekannt(wobei die neueren versionen von GPT closed source sind), und DeepFloyd-IF produziert bilder von text inputs.
GPT2-xl kannst du direkt auf der website die ich verlinkt habe ausprobieren, rechts auf der seite.
Und hier sind ein paar bilder die von IF erzeugt wurden https://github.com/deep-floyd/IF
Modelle um was zu tun? Wo kann ich ein brauchbares Ergebnis sehen? Was wird hergestellt?
Der sinn ist dass es gute modelle sind. Gute modelle brauchen oftmals viel VRAM.
Richtig, der Sinn dahinter geht mir ab.
Hä, was soll das jetzt mit hugging face zu tun haben???
Wie gesagt, gpt2-xl z.B., das ist doch sehr bekannt. Du wolltest ein beispiel, ich habe dir zwei genannt, und was willst du jetzt? Das produkt habe ich dir gezeigt.
Extrem viele models brauchen mehr als 6GB vram, 6 gb ist NICHTS.
Klingt nicht als hast du dich jemals mit machine learning beschäftigt.
Also hugging Face, ok. ganz viel BlaBla drumherum. Wo ist jetzt die action, der Movie, die Anwendung, das Produkt??
https://huggingface.co/DeepFloyd/IF-I-XL-v1.0
Und das hier ist z.B. für GPU’s mit “as little as 14 GB of VRAM”, diese ausdrucksweise zeigt denke ich wie wenig 6Gb in dem kontext sind.
Und wenn man sich selbst ein modell antrainiert, dann kann man das halt für unterschiedliche mengen vram optimieren, unt mit mehr vram wirds besser.
GPT2-xl braucht z.B. 16GB vram https://huggingface.co/openai-community/gpt2-xl
Ist so das erste was mir spontan einfällt.
Wenn man jetzt nur 6gb hat kann man vermutlich nur die medium version mit 355 millionen parametern(https://huggingface.co/openai-community/gpt2-medium) zum laufen kriegen, aber nicht die xl version mit 1.5 millaraden parametern.
Verlink doch mal eins das nicht läuft, dann können wir das nachvollziehen.
Im gaming vielleicht…
8GB sind extrem wenig für machine learning. Dadrauf laufen viele größere modelle schlichtweg nicht. Da muss man sich sehr einschränken. Wenn schon sollte es die 16gb version sein.
16gb ist nichtmal viel, das ist für machine learning relativ normal. Viele die sich damit wirklich beschäftigen benutzen grafikkarten mit über 40GB vram.
Es soll ja kein gaming pc werden, sondern zur entwicklung, wenn ich das richtig verstehe.
Ah, das Ti hab ich glaub wirklich übersehen. Danke für die Hilfe. Jetzt ist nochmal einiges klarer 🙂
Eigentlich egal, CUDA hin oder her, so viel schneller ist das nicht.
ROCm ist da schon näher dran als mancher hier glaubt.
Vram auch so ein Thema deswegen auf zur AMD
Auch DLSS hat natürkich ne bessere Qualität als FSR aber da muss man auch schauen wie sich das entwickelt
Vram bauen nvidia und amd aktuell etwa gleichviel ein.
Nimm eine RX 6700XT, damit bist du gut aufgestellt. Und vllt eine AM4 Plattform mit Ryzen 7 5700X, ist bisschen günstiger.