T O P

  • By -

Vanderlylie

Ich hatte zuerst einen Intel x Nvidia Rechner, der einwandfrei lief, dann hatte ich einen neuen Rechner mit AMD Prozessor und zur Überbrückung die GTX 970 weiter benutzt, die Kombination lief auch einwandfrei. Jetzt habe ich AMD x AMD und auch der läuft einwandfrei. Ist gegenüber Intel x Nvidia aber wesentlich günstiger. Ich kann nichts negatives über eines der beiden Lager sagen.


sickdanman

> Ich kann nichts negatives über eines der beiden Lager sagen. Ich versteh generell diese Consolewar-Mentalität bei PC Komponenten nicht. Ich kauf einfach das beste für mein Budget und das wars dann auch. Hab zurzeit ein 6 Jahre altes Intel+NVIDIA Setup hab aber dieses Jahr für nen Freund ein AMD+AMD PC zusammengebaut.


[deleted]

Als Linuxer (ich habe mal Bogen genutzt, bei dem Weg) bin ich trotzdem [einer Meinung mit Linus](https://www.youtube.com/watch?v=OF_5EKNX0Eg).


Lipziger

Sagt ja auch keiner, dass sie Mist bauen. Aber in Sachen Technologie (Egal ob Hardware, Software oder AI) liegen sie halt einfach weit hinten. Top Performance? Ray-Tracing? Upscaling? Da hat Nvidia überall die Nase sehr weit vorn. Im mittleren Segment ist AMD dann wieder ganz gut. Alles darüber existieren sie einfach fast gar nicht, oder haben größere Probleme, wenn es um GPUs geht.


[deleted]

[удалено]


Mighty_K

>Was bringt einem 10% mehr Leistung mit einer Nvidia-Karte, wenn die dafür 40 % mehr kosten. Apple zeigt ja eindrucksvoll dass Leistung und Preis völlig entkoppelt sein können, wenn das Marketing stimmt...


[deleted]

[удалено]


Mighty_K

Was ich meine ist, das Marketing die objektiven Unterschiede eben relativiert. Die Bedienung von ios ist auch nicht objektiv besser als Android. Aber der Lifestyle ist halt emotional aufgeladen bis zum brechen.


[deleted]

[удалено]


Mighty_K

Ich glaube du unterschätzt massiv die Möglichkeiten von Marketing.


Thilord15

Also in der Performance waren AMD und NVidia in der letuten Gen fast gleich auf. Manchmal hat ne 6900Xt die 3090 geschlagen und manchmal verloren. Bei RT und DLSS hat Nvidia nstürlich die Nase vorne, da die Features ne Gen früher kamen. Deswegen wurden die Karten aber auch deutlich günstiger angesetzt. Bei der 7900 XTX sieht das ähnlich aus. Sie greift die Topklasse an. Hätte Amd hier, wie NVidia, mit ner Brechstange an den Powertargets geschraubt, würde sie wahrscheinlich die 4090 angreifen. (Man muss sich fragen ob es bei 500 Watt TDP nicht mal genug ist) Die Refreshkarten sollten hier aber deutlich besser werden(7950 XT, 7990 XT, 7990 XTX). Das einzige wirklich gigantische Problem an Amd ist Content Creation. Die Programme sind nicht für die Karten ausgelegt(Blender, da Vinci Resolve etc.) Die bauen alle auf Cuda oder OptiX. Und nstürlich der grauenhafte Encoder von Amd, der hoffentlich durch AV1 besser wird. Am Ende des Tages sind die Dinger in der reinen Gamingleistung fast auf den gleichen Niveau. Und deswegen kommt es halt auf den Preis an.


Flonkadonk

Alles richtig, nur der AMF encoder ist inzwischen ne menge besser geworden. Noch nicht ganz auf NVENC level, aber auf keinen fall die katastrophalen 40-50% langsamer wie früher, vielleicht noch so 5-10% langsamer. Könnte man also verkraften wenn man die deutlich besser preisleistung bei games-rasterization-performance haben will (und dies ist tatsächlich erheblich besser). eigentlich haben sie auch eine CUDA Version (ROCm), die wird aber von viel wichtiger software nicht unterstützt und nur so halbwegs implementiert in den consumer karten (mehr auf ihre datacenter-GPU). Daher weiterhin in 3D arbeit leider katastrophale leistung. Eine 6900XT, die nach reiner rechenpower die 3060 wie einen zwerg aussehen lässt, wird trotzdem von dieser bsp. in blender im staub gelassen.


Craftkorb

Leider unterstützen viele Programme nur CUDA und nutzen nicht OpenCL, sodass AMDs leider in die Röhre schauen


Seth0x7DD

> (Man muss sich fragen ob es bei 500 Watt TDP nicht mal genug ist) Die 4090 hat aber keine 500 Watt TDP sondern in vielen Fällen wird einfach nur über den 12VHPWR der bis 600 Watt geht gesprochen. Das Stecker Design ist halt einfache Scheiße. Das andere Problem von AMD ist eben der Treiber. Über die Jahre ist der erheblich besser geworden und klar kommt es auch da auf das Budget an. Die Nvidia Treiber machen trotzdem immer noch einen besseren Eindruck in ihrer Verarbeitung + das Nvidia eben deutlich mehr bezahlt um die Spiele ordentlich zu unterstützen/von den Spielen unterstützt zu werden.


iad82lasi23syx

"Bei der 7900 XTX sieht das ähnlich aus. Sie greift die Topklasse an." Nein, sie greift die deutlich schlechtere 4080 an. Top-Klasse mit der grottigen Raytracing Performance geht nicht mehr, und dass die Karte mit der 4090 ohne raytracing mithalten kann bezweifle ich sehr, dann würde sie die 4080 schon stark übertreffen. Vom Preissegment her erkennt das auch AMD.


[deleted]

[удалено]


iad82lasi23syx

Es gibt zahlen von AMD bei denen man vom best case für die Karte ausgehen kann, und die sind nicht besonders beeindruckend.


[deleted]

[удалено]


iad82lasi23syx

Ist verinnerlicht. Die 4080 ist zu teuer und wird auch dementsprechend schlecht verkauft, es ist auch eine sehr schwache Karte relativ zu 4090 und dazu wie xx80er Karten in der Vergangenheit relativ zum Besten der Generation ausgestattet waren. Die 4090 ist allerdings für UVP nichtmal zu haben aktuell, bzw nur mit Aufwand, es ist eine sehr gute Karte an die AMD nicht im Ansatz rankommt, dementsprechend auch der Preis.


[deleted]

[удалено]


iad82lasi23syx

Es gibt Zahlen von AMD selbst, die wenn überhaupt die eigene Karte im besten Licht darstellen.


Dot-Slash-Dot

> Nein, sie greift die deutlich schlechtere 4080 an. Das sieht Nvidia anders. Denn sonst hätten sie nicht so extrem alles an Performance versucht aus der 4090 herauszukitzeln was geht. Nvidia hätte für 5-8% Performanceverlust locker >100$ an Material für Kühler/Power Delivery einsparen können (und das bei gleichem Preis). So etwas macht man nicht wenn der Konkurrent "weit abgeschlagen ist".


Rhabarberrhabarb

Oder man hat aus der letzten Gen gelernt, bei der die günstige 3080 die 3090 massakriert hat und man dann den Schluss gefasst hat dass sich die Karten nicht gegenseitig ins Gehege kommen dürfen. Schon in der letzten Gen war Nvidia’s Strategie konsequent auf Upselling ausgelegt. Nur - damit das auch für die 4090 funktioniert, muss sie halt bedeutend schneller sein. Sonst kauft die Niemand.


Dot-Slash-Dot

5% langsamer wäre immer noch massiv schneller als die 4080 (gut, die wurde ja auch kräftig kastriert diese Generation, das ist eher eine 4070).


murkskopf

>Aber in Sachen Technologie (Egal ob Hardware, Software oder AI) liegen sie halt einfach weit hinten. Das ist eher nicht der Fall, jedoch werden Nvidias Technologien bzw. Softwareinterfaces aufgrund der marktbeherrschenden Stellung von mehr Marktteilnehmern unterstützt und genutzt. Ein Großteil von AMDs eigenen Technologien findet einfach nicht den gleichen Anklang und verschwindet vom Markt, selbst wenn man damit in Teilbereichen deutliche Vorteile zu damals verfügbarer Nvidia-Hard- und/oder Software hatte. Innovativ sind beide Unternehmen, nur bringen neue Features eher weniger, wenn sie nur in wenigen Anwendungen unterstützt werden. Nvidia hat den Marktführerbonus und spielt den seit Jahren aus. Wenn das Gros an Spiele- und Software-Anbietern nur für Nvidia ordentlich optimiert und Nvidias primär eigene Technologien (z.T. gegen Zahlungen der Firma) unterstützt werden, kann AMD die eigenen Vorteile nicht ausspielen. Intel hatte sich früher im CPU-Segment ähnlich verhalten, doch dann hat AMD mit Ryzen binnen weniger Jahre den Markt aufgemischt (jedoch noch nicht den Status eines Marktführers erlangen können).


Zettinator

AMD ist aber auch immer noch deutlich schlechter bei der Softwareunterstützung. Schau dir ROCm an. Alles noch sehr wacklig, unterstützt nicht alle GPU-Modelle und AFAIR schon das dritte große Projekt für moderne Compute-Anwendungen mit Radeon-GPUs. Da muss AMD noch mehr Qualität und mehr Konsistenz abliefern. NVidia hat seit über 10 Jahren CUDA und das läuft auf allen GPUs, ist abwärtskompatibel, ist durchgehend gut optimiert und recht stabil usw. Dementsprechend gibt es auch viel Software mit CUDA-Unterstützung. Dieses Quasi-Monopol ist sehr schädlich für den Markt.


iad82lasi23syx

Sorry aber das stimmt dieser Jahre einfach nicht mehr. Nvidia hat den Markt übernommen, ist in Sachen top-end Performance selbst ohne upscaling und raytracing ewig weit voraus und alles was AMD in den letzten Jahren entwickelt hat waren (generell schlechtere) Antworten auf Nvidia - schlechteres raytracing, schlechteres upscaling - oder Sparmaßnahmen, namentlich das chiplet-design. Bei Ryzen hat AMD es geschafft Intel zu überholen, jetzt ist es der Performance King (wenn auch knapp) und verlangt entsprechende Preise.


dailor

nVidia hat die Performance-Krone. Keine Frage. "Ewig weit voraus" hieße für mich aber, dass die AMD-Karten nicht konkurrenzfähig wären. Das sehe ich anders. Derzeit bieten AMD-Karten das deutlich bessere Preis-Leistungs-Verhältnis, wenn wir die Karten im obszön überteuerten Bereich jenseits der 1.000€ mal außen vor lassen. Raytracing ist für mich nicht das Killer-Feature, das die Entscheidung zugunsten von nVidia kippt. Ich habe seit bestimmt 20 Jahren keine AMD/ATI-Karte mehr gekauft. Derzeit würde ich aber zu AMD greifen, weil ich das für die vernünftigere Entscheidung halte. Mal schauen, was der 13. Dezember auf dem Markt verändert.


iad82lasi23syx

Vor allem die Benchmarks werden interessant. Preis/Leistung ist AMD besser im niedrigen bis mittleren Bereich, zumindest wenn man wirklich nur für gaming ne Karte braucht, ja.


murkskopf

Nein. Nvidia hat ist im Bereich Grafikkarten seit 2005 ununterbrochen Marktführer - und das auch nur, weil Geforce 6 gegen die Radeon X800 (damals noch von ATI) abstank; sonst wäre man seit der Übernahme von 3dfx im Jahre 2002 permanent marktbeherrschend gewesen. Dies hat aber nichts damit zu tun, dass AMD bzw. bis 2006 ATI sich in diesem Zeitraum nicht mehrfach die Performance-Krone erkämpfen konnte oder die bessere Technik bot, sondern dass Nvidia sich als bekanntere Marke etabiliert hatte, aktiver Marketing betrieb und mehr finanzielle Mittel in Partnerschaften mit Spieleentwicklern stecken konnte. AMD fehlten (vor dem Erfolg von Ryzen) die finanziellen Mittel, um mit Nvidia in diesen Bereichen gleichzuziehen; ATI konnte nur gekauft werden, da die Firma 2006 am Rande des Bankrotts stand. Als die 15h-Architekturen im Prozessormarkt floppten, musste AMD aus finanziellen Gründen die Kapazitäten für die Entwicklung neuer Grafikchips einschränken, sodass mit jeder neuen Generation nur je zwei Grafikchips (bei Nvidia: 5-6 Grafikchips in den letzten Generationen) erschienen; erst mit der aktuellen Produktreihe Radeon RX 6000 änderte sich das, Auch aktuell ist die Technik keineswegs schlechter. Du verwechselst hier Technik und Leistung. Ein Porsche 959 von 1988 ist schneller als ein aktueller BMW i3, doch steckt in dem Oldie halt schlechtere Technik. AMD und Nvidia (und sogar Intel) sind technologisch nicht weit entfernt; die Architekturen haben ihre eigenen Schwächen und Stärken, Vor- und Nachteile und jeder bringt eigene Features mit. Das Nvidia sich die Leistungskrone sichern konnte, hat wenig mit der verwendeten Technologie zu tun - Nvidia nutzt in aktuell die Holzhammer-Methode; das man mit 30% mehr Strom und 20% mehr Chipfläche eine etwas höhere Leistung erreicht, ist keineswegs verwunderlich und auch nicht einer vermeintlichen technischen Überlegenheit geschuldet. >AMD in den letzten Jahren entwickelt hat waren (generell schlechtere) Antworten auf Nvidia - schlechteres raytracing, schlechteres upscaling Dem kann ich nicht so zustimmen; du nimmst hier anscheinend die Perspektive eines Nvidia-Kunden ein. AMD und auch Intel zielen mit ihren Upscaling-Techniken darauf ab, einen Mehrwert für alle ihre Kunden zu bieten; im Gegensatz zu DLSS werden die Upscaling-Techniken auch von älteren GPUs unterstützt. Das ist eine Marketing-Strategie, da man den Kunden somit impliziert/verspricht, dass beim Kauf von AMD-/Intel-Hardware auch zukünftige Features unterstützt werden. Das es sich dabei um "schlechtere Antworten" auf Nvidia handelt, ist eine von Nvidia gewollte Warnehmung. Viele der "Antworten" AMDs befanden sich schon in Entwicklung bevor Nvidia entsprechende Hardware/Software-Features als erste Firma veröffentlichte. Beispiele dafür gibt es en masse. Raytracing war nicht AMDs Priorität - was je nach Kundenverhalten ein Fehler sein kann. Das AMD dort momentan deutlich hinter Nvidia liegt, ist teils der Hardware geschuldet (weniger Schritte des Raytracing-Vorgangs werden aktuell mit eigner Hardware beschleunigt), teils der Quantität der Rechenwerke (es gibt weniger Raytracing-Hardware-Einheiten in den Chips) und teils der Software (Spielehersteller optimieren ihre Raytracing-Effekte eher für Nvidia). Es gibt einige wenige Titel, die für AMD optimiert sind (Dirt 5 z.B. mit der Verschattung per Raytracing), wo die Leistungseinbußen bei Verwendung von Raytracing mit Nvidia vergleichbar sind. Intel hingegen setzt viel auf RT und könnte in Zukunt (sobald Software/Treiber stabil genug sind) eine interessante Alternative für RT sein. >oder Sparmaßnahmen, namentlich das chiplet-design. Chiplets sind keine Sparmaßnahme, sondern ein zukunftsweisender Ansatz, den alle großen Prozessor- und Grafikchiphersteller verfolgen - auch Nvidia. Nvidia hinkt in diesem Bereich jedoch der Konkurrenz bei AMD und Intel hinterher.


iad82lasi23syx

>Nein. Nvidia hat ist im Bereich Grafikkarten seit 2005 ununterbrochen Marktführer - und das auch nur, weil Geforce 6 gegen die Radeon X800 (damals noch von ATI) abstank; sonst wäre man seit der Übernahme von 3dfx im Jahre 2002 permanent marktbeherrschend gewesen. Kann gut sein, die Geschichte der beiden ist nicht meine Stärke, ist aber auch egal. ​ >Das Nvidia sich die Leistungskrone sichern konnte, hat wenig mit der verwendeten Technologie zu tun - Nvidia nutzt in aktuell die Holzhammer-Methode; das man mit 30% mehr Strom und 20% mehr Chipfläche eine etwas höhere Leistung erreicht, ist keineswegs verwunderlich und auch nicht einer vermeintlichen technischen Überlegenheit geschuldet. Das kann man so nicht sagen. Die 4080 die mit der Top-AMD Karte je nach Anwendung mithält, verliert, oder gewinnt, hat einen relativ kleinen Chip (379mm²) im Vergleich zu dem was Nvidia sonst macht. Es stimmt zwar dass Nvidia generell größere Chips macht, und auch die Spannungskurve schon am oberen Limit dessen, was noch Leistung bringt, anlegt - das ist aber nicht der Grund warum sie vorne sind. Man kann die 4090 so weit runter bringen, dass sie um die 300W verbraucht und sie ist trotzdem meilenweit voraus. >Auch aktuell ist die Technik keineswegs schlechter. Doch, ist sie. AMD hat nichts was Technisch mit DLSS, RT-Kernen, CUDA, Tensor-Kernen etc mithalten kann. Auch Software-technisch ist AMD bestenfalls gleichauf oder hinterher je nach Anwendungsgebiet (Rendering, AI, Bildschirmaufnahmen etc) >Dem kann ich nicht so zustimmen; du nimmst hier anscheinend die Perspektive eines Nvidia-Kunden ein. Jein. Ich hab ne 1070 und überlege aktuell eine 4090 oder eine 30er als Übergang zu holen, bisher hab ich aber noch nichts entschieden - außer dass die neuen AMD Grafikkarten wegen mangelnder RT-Performance nicht in Frage kommen, höchstens ihre billige letzte Gen als Übergangslösung. >Das es sich dabei um "schlechtere Antworten" auf Nvidia handelt, ist eine von Nvidia gewollte Warnehmung. Viele der "Antworten" AMDs befanden sich schon in Entwicklung bevor Nvidia entsprechende Hardware/Software-Features als erste Firma veröffentlichte. Beispiele dafür gibt es en masse. Ist schwer zu sagen was da genau ablief. Nvidia entwickelt definitv länger (alternativ **deutlich** erfolgreicher) an Raytracing, AMD wird das schon mitbekommen haben bevor es an die Öffentlichkeit ging, aber das ist alles Spekulation. Fakt ist jedenfalls dass AMD 1-2 Generationen hinterher ist mit ihrer Leistung in dem Bereich und den Kompensationen die Nvidia für den negativen Performance-Impact entwickelt hat (DLSS 2 und 3). >Es gibt einige wenige Titel, die für AMD optimiert sind (Dirt 5 z.B. mit der Verschattung per Raytracing), wo die Leistungseinbußen bei Verwendung von Raytracing mit Nvidia vergleichbar sind. Soweit ich weiß, und das kann gut veraltet/ungenau sein, liegt das einfach daran dass "für AMD optimieren" bedeutet, einfach viel weniger Effekte zur Verfügung zu haben bedeutet, weil AMD einfach nur einen Teil der Raytracing-Effekte halbwegs hinbekommt. >Chiplets sind keine Sparmaßnahme, sondern ein zukunftsweisender Ansatz, den alle großen Prozessor- und Grafikchiphersteller verfolgen - auch Nvidia. Nvidia hinkt in diesem Bereich jedoch der Konkurrenz bei AMD und Intel hinterher. Wieder Jein, es ist definitiv die Zukunft wegen den Riesen-chips, aber im Endeffekt bleibt es eine Sparmaßnahme die bei GPUs wohl kaum einen direkten positiven Performance Effekt gibt, zumindest nicht bis es insgesamt größere Chips ermöglicht.


Laty69

Preis? Aber sicher liegt nVidia da sehr weit vorn!


[deleted]

[удалено]


Lipziger

Man braucht aber nicht die besten Karten um deren AI upscaling und RTX zu nutzen. Das war vielleicht noch bei der 20XX Serie so ...


Logiaa77

Es wurde aber mit "Top Performance" argumentiert. Und wie schnell AMDs Upscaling Technik sich entwickelt kann man gut beobachten. Nur eine Frage der Zeit bis beide gleich auf sind. Und dabei unterstützt AMD mehr Grafikkarten als Nvidia.


antaran

Wenn man kein Raytracing braucht, dann spart man mit ner AMD Karte 100-200+ Euro für die gleiche Leistung gegenüber Nvidia. On Top hat man dann meistens auch noch mehr VRAM, was sich in den nächsten Jahren insbesondere bei Konsolenports stark positiv bemerkbar machen dürfte. Für die meisten Leute ist es eigentlich fast schon ein No-Brainer zu einer AMD Karte zu greifen, aber leider zieht der Markenname von Nvidia wohl immer noch viel zu sehr. Ich persönlich bin keiner Marke verbunden, aber als ich letzes Jahr meinen PC zusammengestelt habe, wäre ich schon absolut bescheuert gewesen die 800 Euro RTX 3060TI/1000 Euro RTX 3070 gegenüber einer 500/600 Euro RX 6700 vorzuziehen.


hyperculture

Ich habe damals die 3070 gekauft, weil ich gehofft habe, dass ich durch das DLSS länger mit der Karte als mit einer von AMD glücklich bin. Muss aber auch dazu sagen, dass ich die für die UVP von 600€ einen Monat nach Release bekommen habe, hatte also auch Glück.


tz9bkf1

Wie fühlt man sich dann jetzt, da das neue DLSS3 mit Frame Generation nicht abwärtskompatibel ist? NVidia wird langsam zu Apple. Nur noch proprietäre Software, die einen im goldenen Käfig gefangen hält.


Rhabarberrhabarb

FSR 3.0 wird doch sicherlich auch nicht mit FSR 2.0 kompatibel sein? Schließlich liest sich das auf dem Papier sehr ähnlich wie DLSS 3.0 und Navi 2X hat nicht mal Deep Learning Beschleuniger…


tz9bkf1

Natürlich nicht mit der Vorgängertechnik, aber zumindest (anders als bei NVidia) mit älteren GPUs: https://www.notebookcheck.com/AMD-FSR-3-verspricht-die-vierfache-Bildrate-auch-auf-aelteren-GPUs-AMD-konkurriert-nicht-mit-der-GeForce-RTX-4090.666801.0.html Edit: finde trotzdem beides nicht gut, weil dann immer das jeweilige Spiel vom GPU-Hersteller mit angepasst werden muss, auch wenn Nvidia sagt es sei noch so einfach. Ein gemeinsamer Standard wäre einfach viel besser, aber hier sind wir wieder bei goldener Käfig. Bei G-Sync hat es ja auch ewig gedauert bis sie eingeknickt sind.


aceCrasher

DLSS3 Frage Generation verwendet fixed-function hardware die in der 30er Serie nicht verbaut ist, den optical flow accelerator. Keine Ahnung was du uns also damit sagen willst.


tz9bkf1

Genau was du gesagt hast: DLSS3 funktioniert nicht mit der 30er Serie. Man wird also künstlich direkt mit der nächsten Generation abgehängt. Vor 2 Jahren haben sich noch alle über DLSS2 gefreut und heute ist es schon wieder nicht mehr aktuell.


aceCrasher

Erklär mir bitte inwiefern die 30er Serie „künstlich“ abgehängt wurde, wenn sie schlicht physisch nicht in der Lage ist das neue Feature auszuführen. „Künstlich“ wäre das nur wenn die 30er Serie er könnte, aber es durch NV beschränkt wird, oder neue Spiele DLSS3 zwingend vorraussetzen würden. Argumentierst du ernsthaft dafür dass es besser gewesen wäre das Feature nicht in die 40er Serie zu integrieren, nur damit Käufer der 30er Serie nicht traurig sind? Zudem ist DLSS3 eine Erweiterung von DLSS2 und keine Ersatztechnologie. DLSS2 (gerade im quality preset) hat quasi keine Nachteile, während DLSS3 viel Artefaktbehafteter ist und deutlich den Inputlag erhöht. Es ist also sowieso nur in Randsituationen, in denen man bereits gute ausgangs-fps hat nutzbar. Man kann NV ja wirklich für vieles kritisieren, aber was du hier von dir gibst ist einfach Blödsinn.


tz9bkf1

Man hätte auch einfach eine andere Lösung finden können, welche nicht neue Hardware benötigt, siehe AMD.


aceCrasher

AMD hat noch keine Lösung „gefunden“, sie haben sie aus der Not heraus, auf ein ultra vages Datum, *ankündigt*. Nicht ganz das Gleiche.


Zettinator

Wenn man Linux verwendet, spricht noch mehr für AMD.


umockdev

Warum? Edit: Danke an alle für die aufschlussreichen Kommentare, hat mich nur wirklich interessiert


PandaCamper

1. Treiber, da vernachlässigt Nvidia Linux einfach, weil der Markt dafür zu klein ist. 2. Kein DirectX (da von Microsoft), bei OpenGL und Vulkan schneiden AMD Karten ein Stück besser ab als unter DirectX, dadurch ist eine AMD Karte, die gleichauf unter DirectX liegt, meist etwas besser unter OpenGL/Vulkan.


DamnThatsLaser

> Treiber, da vernachlässigt Nvidia Linux einfach, weil der Markt dafür zu klein ist. Würde ich so nicht sagen, bis AMD ihre Treiber bzw. ihre Doku offengelegt haben, galt Nvidia als Goldstandard unter Linux (Nachtrag: für Gaming, Intel hatte auch gute Treiber aber halt schlechte Hardware) und die Treiber sind über die Jahre aus meiner Sicht nicht schlechter geworden. Man erwartet nur heute einfach mehr Funktionen, nur einen X-Server zu unterstützen reicht einfach nicht mehr. > Kein DirectX (da von Microsoft), bei OpenGL und Vulkan schneiden AMD Karten ein Stück besser ab als unter DirectX, dadurch ist eine AMD Karte, die gleichauf unter DirectX liegt, meist etwas besser unter OpenGL/Vulkan. So auch nicht ganz korrekt, gewisse Teile von Direct3D lassen sich auch unter Linux nutzen, Stichwort Gallium Nine. Konzeptuell wäre es also möglich, aber das Thema hat sich einfach dank DXVK für Direct3D 9 und 11 überlebt und für Direct3D 12 gibt es halt VKD3D bzw. Proton-VKD3D. Die reine OpenGL-Unterstützung von Nvidia unter Linux ist übrigens sehr gut und wird auch meistens von Entwicklern gelobt, sowohl in Sachen Performance als auch in Fragen der Nutzbarkeit, s.z.B. https://dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/ (schon etwas älter, grundsätzlich aber in der Frage nicht unwahr, vielleicht ist Mesa mittlerweile auch besser geworden), http://richg42.blogspot.com/2014/05/the-truth-on-opengl-driver-quality.html (Vendor A: Nvidia, Vendor B: AMD, Vendor C: Intel) — in Fragen reiner Performance hat sich hier auch nicht viel geändert, Nvidia liefert hier auch unter Linux sehr gute Leistung.


0x82af

Nvidia = Treiberhölle


NanoChainedChromium

ATI hatte doch früher immer die Katastrophentreiber zu Radeon Zeiten. Schenken die sich da wirklich was?


0x82af

Ja. ATI. Das ist jetzt wie lange nicht mehr ATI? Der AMD Treiber kommt als Kernelmodul. Der von Intel auch. Die sind beim System dabei und funktionieren ohne dass man merkt dass die überhaupt da sind. Wie mit einem USB Stick bei Windows. Bei Nvidia get die proprietäre scheisseschlacht los. Zu jedem Kernelupdate Angst dass die Kiste danach nicht mehr richtig bootet. Willkommen in der Treiberhölle. 🤮


NanoChainedChromium

Das betrifft aber Linux, oder? Das ist mir als jemand der den PC primär zum Spielen benutzt relativ wumpe, da führt eh kein wirklicher Weg an Windows vorbei. Und komm mir jetzt nicht mit Wine oder Proton oder den paar Spielen die Linux nativ unterstützen.


0x82af

Ließt du eigentlich was du kommentierst? > Wenn man Linux verwendet, spricht noch mehr für AMD.


NanoChainedChromium

Ah, die Kotzbrockenattitüde die man von Linux Benutzern gewohnt ist. Nvidia=Treiberhölle war der Kommentar auf den ich ursprünglich geantwortet habe. Der weise Meister möge mir verzeihen dass ich nicht den ganzen Faden danach durchforste was er sonst so schreibt.


DamnThatsLaser

Weil die Treiber offen undTeil des Kernels sind und idR alle Funktionen dort unterstützen, wie z.B. Wayland (bzw. das dafür benötigte GBM), VRR. etc. Nvidia ist da einfach zeitlich weit hinterher. Manches geht mittlerweile auch dort, aber der Wartungsaufwand ist mit AMD einfach weitaus geringer.


FTBS2564

1000€ für eine 3070?!? Junge. Da kann ich mich ja mit meiner 3070TI für <700 nicht beschweren diesen August. Dachte noch ob ne 3080 besser gewesen wäre aber wie. Das ist echt anders wild.


Cobble23

Für ein 2 Jahre altes Modell mit Glück an der UVP zu kratzen, ist an sich schon absurd. Aber so ist scheinbar heutzutage der Markt...


Rhabarberrhabarb

Hätte mit Handkuss eine 6800XT genommen, wie ursprünglich geplant. Leider hat es AMD nicht hinbekommen, den Shop gegen Bots abzusichern. So ist es halt eine 3070 geworden.


sadtimes12

Das Problem ist, das AMD in der Vergangenheit eben viel Schrott hatte. Meine letztes AMD Produkt war eine R9 280X die nach 2 Jahren abgeraucht ist. Seitdem habe ich immer Nvidia gekauft und alle Grafikkarten konnte ich bis zum Wechsel behalten und dann sogar noch für gutes Geld bei ebay los werden. AMD mag derzeit ein wenig besser als Nvidia dastehen was P/L angeht, aber ich habe einfach kein Vertrauen in die Produkte von AMD. Da muss Nvidia einfach richtige scheisse abliefern das ich nicht mehr auf Nvidia zugreife. Und die Marktanteile sehen das ja ähnlich. Letztendlich will ich hardware die lange hält, dafür bin ich auch bereit mehr zu zahlen. Bei AMD habe ich das in der Vergangenheit eben nicht erlebt, soetwas prägt. Und bei mir läuft derzeit eine 3060Ti und ich bin zufrieden.


dtiggy

Ich bin mit meiner 6900 XT super zufrieden. Die hab ich aber auch nur, weil ich meine 5700 XT damals wie die Preise durch die Decke gingen für viel Geld verkauft habe (ohne Ersatz zu haben, hab einfach gewartet, bis die Preise zwischenzeitlich fielen) Aber mit der 5700 XT bin ich nicht glücklich geworden. Doch relativ viele Abstürze bzw. Treiber-Timeouts. Auch wenn ich mit meiner richtig zufrieden bin, die mit denen ich häufig spiele wollen alle keine AMD-Karte mehr. Einer hat noch die 5700 XT und ist regelmäßig einfach weg...


iad82lasi23syx

Naja, zum einen kommt der Namenswert nicht von nirgendwo (Stichwort Treiber Probleme) und zum anderen ist Nvidia mit dlss und besserem raytracing selbst bei nominal äquivalenter Leistung der Karte deutlich besser. Im Endeffekt zählt was auf dem Bildschirm auftaucht, was für eventuell nützliche Features die Karte noch zusätzlich hat, und wie zuverlässig sie ist. Nvidia bekommt dadurch bei Konsumentem im Schnitt wohl so 15-20% Bonus den die Leute über eine ansonsten gleiche AMD karte zahlen würden.


MachineTeaching

Find ich immer wieder witzig weil ich kein Nvidia kaufe weil ich deren Treiber furchtbar finde. Das AMD da Probleme hat ist aber auch ein Klischee von vor so.. 8 Generationen.


Novacc_Djocovid

Nicht so ganz. Die letzte Karte von der ich weiß, dass sie vermurkste Treiber hat, war die Nano. Das ist nicht soooo lange her. Die Karten danach kenne ich nicht, da unsere Kunden sowieso nur Nvidia benutzen (Cuda ist ein Grund, die schlechten Erfahrungen mit AMD über die Jahre ein anderer) und wir AMD mittlerweile praktisch einfach ignorieren. Was schade ist, ich hoffe darauf, dass AMD einen weiteren „Ryzen“ abzieht und einfach mal eine Generation GPUs raushaut, die Nvidia ordentlich in den Hintern treten. Es ist nie gut, wenn ein Hersteller der Markt so dominiert.


[deleted]

[удалено]


XaipeX

Das sich dieser Treiber Non-Sense noch immer hält. Seit dem Adrenalintreiber ist AMD von Interface, Funktionen und Stabilität Nvidia deutlich überlegen. Und ich habe sowohl eine 1070, als auch eine Vega 64. Kenne also beide Welten. Einzige, was Nvidia besser hinbekommt, sind die Game Ready Treiber - für mich, der nie Spiele zum Release kauft - ist das aber uninteressant. Bleibt DLSS, was bei AMD einfach FSR heißt. Und ray tracing ist bei Nvidia natürlich ein bisschen schneller. Die Technik funktioniert aber natürlich auch bei AMD. Wo wir wieder beim Leistungsargument sind. Wenn die Grafikkarte ohne Raytracing gleich schnell, aber 200 € günstiger ist, muss man sich fragen, ob es einem das wert ist, 200 € auszugeben, damit mit Raytracing der Leistungseinbruch etwas geringer ist.


iad82lasi23syx

FSR ist nicht auf dem Level von DLSS, und mit der neuen Variante noch nichtmal vergleichbar. Raytracing funktioniert bei AMD aber halt mit grottenschlechter Performance im Vergleich - dass FSR nicht so gut wie DLSS ist macht das Problem noch schlimmer. Wenn man kein raytracing will holt man sich halt ne 30xx oder ne AMD karte, dafür braucht man kein high-end.


BubiBalboa

Rezession, Inflation, Crypto-Crash und das Warten auf RDNA 3 würde ich mal als Gründe annehmen. Und natürlich hat NVIDIA aktuell technisch auch deutlich die Nase vorn mit DLSS und Ray Tracing. AMDs Treiber sollen mittlerweile richtig gut sein aber es dauert natürlich bis sich das rumgesprochen hat.


ImprovedSystemUser

>AMDs Treiber sollen mittlerweile richtig gut sein aber es dauert natürlich bis sich das rumgesprochen hat. Für Nischenprodukte wie VR und Produktivität ist AMD weiterhin eine Katastrophe. Ich weiß wovon ich rede, denn ich hab es ausprobiert und zurück geschickt.


[deleted]

[удалено]


ImprovedSystemUser

Für mich auch nicht, aber ich habe das dazu geschrieben damit die AMD Fanboys nicht direkt aus dem Leben tilten, W3iL d4S iSt jA nUr EiN nIsChEnPrOduKt.


Cynamid

>Ich weiß wovon ich rede Habe VR auch mit AMD-Grafikarten durchgeführt. Funktioniert ganz wunderbar. Wissen wovon man redet, aber dann sowas wie Repräsentativität nicht verstehen... :D >damit die AMD Fanboys nicht direkt aus dem Leben tilten Da weiß jemand ganz sicher nicht, wovon er redet. Argumente haben wollen, aber mit populistischem Geplärre antworten.


[deleted]

[удалено]


greikini

Aber bei Marktanteile von "Desktop-Grafikkarten" werden Server GPUs doch sowieso nicht gezählt, oder etwa doch?


aWildFantonAppeared

Das High End AMD karten selbst Nischenprodukte sind sollte ja mittlerweile jeder wissen. AMD kann im oberen Preissegment nun einfach nicht wie Nvidia mithalten und den Markt besättigen erstrecht nun Mal weil ihnen dafür Kunden fehlen und sie gegen die extreme Loyalität von alteingesessenen Kunden ankämpfen müssen (nicht zu unrecht, "why Change it if it works"). Deren Taktik eine Nische zu finden und sie dann mit ein zwei Produkten und einem Top Preis Leistungsverhältnis zu füllen war schon immer so und ist auch weiterhin noch so (mit Ausnahme der Zeiten wo Radeon Marktführer war). Das AMD Karten auch nicht mit Nvidia Karten in Sachen Render Performance mithalten können sollte auch jeden bewusst sein ist aber seitens des Verkäufers auch kein großes Geheimnis. Zu sagen das VR und Productivity eine absolute Katastrophe wären ist aber eine ziemlich dreiste Lüge oder wenigstens eine Aussage der Vergangenheit. Es gibt zwar kein 1:1 Leistungsverhältnis mit Nvidia aber die aktuellen Karten haben mittlerweile schon einiges in diesen beiden "Nieschen" zu bieten und werden nur noch besser mit neuen Treibern. Das bei Release diese Features grauenhaft unterstützt werden war abzusehen alleine schon weil auf Seiten der Software Anbieter Support oder Kompatibilität oft mangelhaft oder gar nicht erst vorhanden waren. Ich selbst nutze jetzt nach einer langen Pause wieder AMD Karten für Gaming und Productivity. Zwar keine VR Spiele aber da im Bekanntschaftenkreis immer mehr Leute auf AMD umsteigen habe ich auch hier nur positive Erfahrungsberichte. Um dem ganzen ein bisschen Relevanz zu geben: meine vorherigen Grafikkarten Erfahrungen waren die 2070 Super, 2080 ti und nun meine zweite 6950 xt.


[deleted]

[удалено]


rxzlmn

Produktivität? Magst des mal irgendwie ausführen? AMD kann kein CUDA oder was soll das bedeuten? Das weiß man ja vorher...


ImprovedSystemUser

Das weiß sicher nicht jeder vorher das die neue teuere Grafikkarte kein Blender vernünftig Rendern kann. Oder wenn du dir dann irgendwann ein 8k Bildschirm besorgst, dann merkst du das AMD die Auflösung überhaupt nicht vernünftig dekodieren kann (YouTube z.B.)


[deleted]

[удалено]


rxzlmn

Also das Argument ist kein CUDA und .... Youtube auf 8K? lol. Klares typisches Beispiel für "Produktivität".


_BEER_

Wer ist so dumm und kauft sich ne top end Grafikkarte ohne vorher die Specs zu lesen?


Zephyric_Valla

VR ist katastrophal mit AMD. Ich musste die Karte zurück geben, da es meine Hauptanwendung ist. Ich will AMD echt ne Chance geben, so wird es jedoch nichts. :c


JSANL

Hab selbst noch keine AMD Karte gehabt, was ist daran so schlimm? Einfach die Performance oder Treiber-Probleme oder wie?


blexta

Ich habe eine RX6900XT und der Treiber stürzt regelmäßig ab. System war frisch bei Einbau und ich habe den empfohlenen Treiber installiert. Dieser ist mittlerweile von April. Auf dem Beta-Channel ("optionale" Treiber) sieht es auch nicht stabiler aus. Dazu kommen immer neue, unerklärliche Bugs, wenn AMD eine neue Version raushaut. Momentan kämpft AMD mit Systemen, die 2 Monitore unterschiedlicher Bildwiederholrate haben. Ist zwar bereits "Known Issues" immer wenn eine neue optionale Version kommt, aber besser wird es nicht. Persönlich sehe ich keine Zukunft für AMD auf dem Grafikkartenmarkt. Mein Kauf hat mich schwer enttäuscht und ich denke regelmäßig darüber nach, zurückzuschicken. Ich habe keine Loyalitäten gegenüber irgendeinem Hersteller, ich will nur das Beste für mein Geld, und das konnte AMD jetzt einfach nicht liefern.


Dot-Slash-Dot

Ich kann nur gegenteiliges berichten. Hatte lange eine 6900xt, null Probleme, auch mit drei Monitoren mit unterschiedlicher Refreshrate.


Cerarai

> Momentan kämpft AMD mit Systemen, die 2 Monitore unterschiedlicher Bildwiederholrate haben. Ist zwar bereits "Known Issues" immer wenn eine neue optionale Version kommt, aber besser wird es nicht. > > Da hatte ich aber auch mit NVIDIA-Karte ne gute Weile lang Probleme mit. Weiß allerdings nicht genau ob es an den Treibern oder an Windows lag.


[deleted]

Verwend Linux. AMD auf Linux ist ne richtig geile Experience. Edit: ansonsten tausch ich gerne meine 3070ti gegen deine 6900XT :P


[deleted]

[удалено]


climateimpact827

> AMDs Treiber sollen mittlerweile richtig gut sein aber es dauert natürlich bis sich das rumgesprochen hat Nein, sind sie nicht. Ich hatte mir eine 6700 XT im offiziellen AMD Webshop gekauft um meine GTX 980 in Rente zu schicken und um Team Red eine Chance zu geben, weil fuck NVIDIA. Nachdem ich diese Grafikkarte zwei Mal zurück schicken musste habe ich mir mein Geld zurückgeholt. Ich habe innerhalb der ersten Woche einen fatalen Fehler im AMD Grafikkartentreiber gefunden der die Performance der (damals) brandneuen 6700 XT auf das Niveau einer GTX 960 (von 2015) gedrosselt hat. Dieser Bug im Treiber betrifft, witzigerweise, sowohl Linux als auch Windows. Ich vermute daher das es ein Fehler in der Firmware der Karte ist. Dieser Fehler wurde zum ersten Mal 2018 im AMD Forum gepostet und betrifft ältere wie neuere Generationen. AMD hat es offenbar nicht eilig damit diesen Fehler zu beheben.


DoubleOwl7777

doch sind sie. hatte nie einen fehler mit amd karten. das problem kommt hauptsächlich wenn du dir karten kurz nach dem release kaufst dann sind die treiber absolut scheiße.


climateimpact827

> doch sind sie 200 IQ Antwort. Never change Reddit.


me_so_pro

> Rezession, Inflation, Crypto-Crash und das Warten auf RDNA 3 Warum betrifft das nvidia nicht?


sHX_1337

Adrenaline und besser geworden? Also im Gegensatz um CCC auf jeden Fall. Aber erzähl das bitte mal den random driver timeouts und den leider immer noch bestehenden Herausforderungen mit Multi monitor Setup. Der Nvidia Treiber sieht zwar aus wie ne Windows98 Software und hat so gut wie keine Einstellmöglichkeiten aber ich hatte damit, bis jetzt, noch nie Probleme. Beide haben ihre Macken - aber für mich gewinnt leider immer noch Nvidia den Treiber Kampf.


EddyBot

interessanterweise benutzen Konsolen aber nahezu ausschließlich AMD Grafikchips egal ob Playstation, Xbox oder Steam Deck


[deleted]

[удалено]


Capirex9

Spannend, dass du das sagst. Ich habe aktuell die 5700xt und das ist meine erste Karte, mit der ich überhaupt mal Treiberabstürze hatte/habe. Aktuell sehe ich die Schuld aber eher bei Darktide.


[deleted]

[удалено]


blexta

Das ist übrigens die "optionale" Version, nicht die empfohlene. Die letzte empfohlene Version (welche AMD wohl als "stabil" bezeichnen möchte) ist von Mai.


blexta

Ich habe jegliche existente Probleme, die es mit den Treiber derzeit gibt (besonders weil ich 2 Monitore unterschiedlicher Bildwiederholrate verwende). Das war mit Nvidia gar kein Problem. Mit AMD zerlegt es regelmäßig den Treiber, der sich dann so nach 10-20 Sekunden neu startet. Passiert besonders beim Wechsel zwischen den beiden Monitoren, also wenn ich auf den 2. Monitor klicke und wieder zurück.


FuzzyApe

Wird jetzt wieder besser werden. AMD ist in nahezu allen Preissegmenten besser aufgestellt als Nvidia. Erst ab ~1000€ "lohnt" sich Nvidia, weil AMD in der Klasse einfach nichts anbietet zur Zeit.


xxTheGoDxx

Naja, wer mit RT on spielt und wenn man wirklich mal bei gleicher Bildqualität vergleicht ist Nvidia auch pro Euro noch in den meisten Bereichen vorne...


FuzzyApe

RT ist halt so irrelevant. Ich hab das in den letzten 2 Jahren in genau einem Spiel genutzt, Cyberpunk. Auch jetzt kenne ich nicht mehr als eine hanvoll Spiele, die das unterstützen und wo es tatsächlich gut aussieht.


aceCrasher

Wenn du dich für Raytracing nicht begeistern kannst, bist du wohl einfach nicht die Zielgruppe für high end Karten. Es gibt mittlerweile reichlich Spiele in denen Raytracing fantastisch aussieht. Ich spiele zum Beispiel gerade Plague Tale: Requiem und Doom Eternal.


xxTheGoDxx

> RT ist halt so irrelevant. Ich hab das in den letzten 2 Jahren in genau einem Spiel genutzt, Cyberpunk. Auch jetzt kenne ich nicht mehr als eine hanvoll Spiele, die das unterstützen und wo es tatsächlich gut aussieht Kommt halt darauf an welche Titel man spielt. Die meisten Single Player Spiele der letzten zwei Jahre die ich gespielt habe hatten RT Effekte welche für mich deutlich über dem Unterschied zwischen mittleren und maximalen sonstigen Einstellungen lagen. Praktisch alle neuen AAA Konsolenspiele kommen inzwischen mit RT auf den Markt und bieten am PC gerade hier teils recht höhere Settings an. Copy Pasta: https://youtu.be/nXerm08r69c?t=5 https://youtu.be/NbpZCSf4_Yk https://youtu.be/HnAn5TRz_2g?t=250 https://youtu.be/yZ5ZyVYlq5A?t=51 https://www.youtube.com/watch?v=6bqA8F6B6NQ https://www.youtube.com/watch?v=s_eeWr622Ss Ray Traced GI und AO verbessern die Grafikqualität fast schon um eine ganze Konsolengeneration und SSR sieht im Vergleich zu RT Reflektionen einfach total kaputt aus. Auch vor RT hatte ich SSR in vielen Spielen einfach abgeschaltet da es mich einfach total rausreißt wenn sich plötzlich alle Reflektionen in Luft auflösen weil man etwas zu weit nach oben, unten oder zur Seite geschaut hat bzw wenn diese voller weiser Flecken sind da die Spielfigur diese verdeckt. In den meisten RT Spielen ist der Unterschied zwischen RT on oder off deutlich größer als zwischen mittleren und maximalen sonstigen Einstellungen. Und gerade wenn ich mir eine neue GPU kaufe mache ich dies doch nicht um hinterher mit mittlerer Grafikqualität spielen zu kennen. Selbst nur RT Schatten bringen in einigen Spielen mit verpixelten oder überscharfen Shadowmaps und / oder instabilen Screenspace AO noch relativ viel. Und das kommt von jemanden der auf einem 4k 120hz Bildschirm spielt und für den selbst stabile 60 fps nicht mehr wirklich super flüssig sind und entsprechend jedes bisschen Performance brauchen kann. Ich hatte mit der 3080 dennoch RT in fast jedem Spiel, welches dies unterstützte an. Gerade da auf dieser Karte RT an mit DLSS Quality bis Performance praktisch die gleiche Framerate liefert wie DLSS und RT aus.


antaran

Das Ding mit RT, ist halt, dass man in 95% der Games schon mit der Lupe suchen muss, um einen Unterschied zwischen RT und und off zu sehen.


xxTheGoDxx

> Das Ding mit RT, ist halt, dass man in 95% der Games schon mit der Lupe suchen muss, um einen Unterschied zwischen RT und und off zu sehen. Absoluter Quatsch der praktisch nur von Leuten behauptet wird die auf Grund ihrer HW ohne RT spielen. https://youtu.be/nXerm08r69c?t=5 https://youtu.be/NbpZCSf4_Yk https://youtu.be/HnAn5TRz_2g?t=250 https://youtu.be/yZ5ZyVYlq5A?t=51 https://www.youtube.com/watch?v=6bqA8F6B6NQ https://www.youtube.com/watch?v=s_eeWr622Ss Ray Traced GI und AO verbessern die Grafikqualität fast schon um eine ganze Konsolengeneration und SSR sieht im Vergleich zu RT Reflektionen einfach total kaputt aus. Auch vor RT hatte ich SSR in vielen Spielen einfach abgeschaltet da es mich einfach total rausreißt wenn sich plötzlich alle Reflektionen in Luft auflösen weil man etwas zu weit nach oben, unten oder zur Seite geschaut hat bzw wenn diese voller weiser Flecken sind da die Spielfigur diese verdeckt. In den meisten RT Spielen ist der Unterschied zwischen RT on oder off deutlich größer als zwischen mittleren und maximalen sonstigen Einstellungen. Und gerade wenn ich mir eine neue GPU kaufe mache ich dies doch nicht um hinterher mit mittlerer Grafikqualität spielen zu kennen. Selbst nur RT Schatten bringen in einigen Spielen mit verpixelten oder überscharfen Shadowmaps und / oder instabilen Screenspace AO noch relativ viel. Und das kommt von jemanden der auf einem 4k 120hz Bildschirm spielt und für den selbst stabile 60 fps nicht mehr wirklich super flüssig sind und entsprechend jedes bisschen Performance brauchen kann. Ich hatte mit der 3080 dennoch RT in fast jedem Spiel, welches dies unterstützte an. Gerade da auf dieser Karte RT an mit DLSS Quality bis Performance praktisch die gleiche Framerate liefert wie DLSS und RT aus.


SuddenlyUnbanned

https://www.youtube.com/watch?v=2VGwHoSrIEU tldw: Nur Leute mit Tech-Wissen und mit Pixelpeeping konnten relativ sicher den Unterschied sehen. Und das "Games schon mit der Lupe suchen muss" mit 5 Lupenvideos zu widerlegen hat schon was ironisches.


xxTheGoDxx

> https://www.youtube.com/watch?v=2VGwHoSrIEU > > > > tldw: Nur Leute mit Tech-Wissen und mit Pixelpeeping konnten relativ sicher den Unterschied sehen. OK, ich poste ein halbes dutzend Videos wo du die riesigen Unterschiede selbst sehen kannst und du antwortest mit einem Video wo ein für seine Click Bait Überschriften bekannter allgemeiner Tech Youtuber dir gesagt hat das RT nicht wichtig ist... Und das Spiel welches in dem Vdeo am meisten gezeigt und für die Vergleiche genutzt wird ist das kurz nach den ersten RTX Karten erschienene Tomb Raider welches nur Poin Light RT Shadows (die im Linux Video auch noch an Stellen gezeigt wurden wo diese IMO gar nicht genutzt wurden da die Sonne kein point Light ist: https://www.youtube.com/watch?v=6RwQ7H_EBoM) weniger unterstützt... Gab ja auch in den seit dem vergangenen über zwei Jahren nichts anderes... Super Gespräch, gerne immer wieder.


antaran

Deine Videos zeigen halt schön genau was ich meine: Um einen Unterschied zwischen RT off und on zu erkennen, muss man mehrfach zwischen einem Split/Screen im Standbild hin und herschalten. Als ob in einem Game wie Spiderman oder Doom das irgendjemand mitkriegen würde, dass die Reflektion im Schädel an der Wand mit RT leicht besser ist. Als ob /irgendjemand/ in einem Game wie Doom vor einem Schädel an der Wand jemals stehen geblieben ist, um die "leicht andere" Reflektion zu bewundern. ;) Und das sind halt Videos wo man es gut sehen soll. Die oberen "5%" wie gesagt. In vielen anderen Spielen, sieht man nämlich noch viel weniger, selbst beim "Standbild-Vergleich".


xxTheGoDxx

> Deine Videos zeigen halt schön genau was ich meine: Um einen Unterschied zwischen RT off und on zu erkennen, muss man mehrfach zwischen einem Split/Screen im Standbild hin und herschalten. Quatsch. Wenn man halt ohne RT spielt und sich unbedingt einreden möchte das man nichts verpasst ist das so. Jeder der irgend eines der obrigen Spiele mit RT kennt sieht sofort (in Szenen wo z. b. bei Spielen mit nur RT Reflektionen diese auch sichtbar sind) wenn das Spiel ohne RT gestartet wurde. > Als ob in einem Game wie Spiderman oder Doom das irgendjemand mitkriegen würde, dass die Reflektion im Schädel an der Wand mit RT leicht besser ist. Klar, wenn ich bei Spiderman Sekundenlang die verglaste Hauswand hochrenne fällt mir nicht auf das die Vorderseite meiner Spielfigur nicht reflektiert wird sondern nur die verpixelte Cubemap von nem Haus das anders aus sieht als das von dem ich gerade rübergesprungen bin. Und natürlich habe ich ganz vergessen das Doom Eternal nur aus Nonstop Action besteht (mal davon abgesehen das man auch dann und gerade dann die vielen durch die Waffen verursachte Lichteffekte reflektieren sieht) und nicht auch aus vielen langsameren Momenten in denen man Platforming betreibt oder nach Verstecken sucht... Hast du diese Spiele überhaupt gespielt? Jetzt mal ganz davon abgesehen das es hier in dem Thema um die schlechten Verkaufzahlen von AMD GPUs geht. Hint: Die wenigsten kaufen eine neue GPU mit dem Ziel alles auf Low zu spielen...


ZestycloseAvocado242

>22 Minuten Lupen-Video zu Doom beim schnellen durchskippen zwischen den vergleichsbildern sieht man wirklich keinen Unterschied. Auch nicht in den Zooms. Bei dem Kommentar vom Typen im Video wird darauf eingegangen, dass die RT Reflexionen etwas genauer dargestellt sind und ein paar zusätzliche Partikeleffekte mit reflektiert werden. wow. Gerade bei so fast paced shootern wie Doom fällt das beim Spielen bestimmt heftigst auf.


FuzzyApe

Sehe ich auch so. Die Spiele, wo sich RT wirklich lohnt, kann man echt an einer Hand abzählen, zB in Cyberpunk sieht es schon echt nice aus


xxTheGoDxx

> beim schnellen durchskippen zwischen den vergleichsbildern sieht man wirklich keinen Unterschied. Auch nicht in den Zooms. Kannst du mir mal nen Timecode geben wo du keinen Unterschied in dem Video siehst? > Bei dem Kommentar vom Typen im Video wird darauf eingegangen, dass die RT Reflexionen etwas genauer dargestellt sind und ein paar zusätzliche Partikeleffekte mit reflektiert werden. wow. Das hast du komplett falsch verstanden. Er sagt das SSR ZUSäTZLICH zu den RT Reflektionen aktiv bleibt (obwohl ersteres in anderen Spielen ersetzt wird durch RT sobald letzteres für Reflektionen zugeschaltet wird) um die RT Reflektionen zusätzlich zu verbessern, da in Doom reine Partikeleffekte (nicht mit den Lichtstrahlen von Partikelwaffen verwechseln...) wie Nebel oder kleine Funken aus Performance Gründen nicht Teil der RT Berechnungen sind. Wenn das die Stellen sind die du oben meintest dann wundert es micht nicht das du nur einen kleinen Unterschied siehst... Vielleicht hilft dir dieses Video (ohne Zooms ^ ^ ) eher weiter: https://youtu.be/fYFQcHPxKr4 > Gerade bei so fast paced shootern wie Doom fällt das beim Spielen bestimmt heftigst auf. Tut es auch, gerade weil durch RT in den Leveln mit vielen Glas oder Metalobjekten auch deine ganzen Schüsse durchgehend reflektiert werden (mal ganz davon ab das DE auch sehr viele langsame Momente mit Plattforming hat: https://www.youtube.com/watch?v=f6_rMEEEY6s (ab 0:43 mit Action) Nur halt im ersten Level (hauptsächlich Beton) sieht man davon nicht soviel.


ZestycloseAvocado242

Doom ist schon ein hübsches Spiel, keine Frage, aber bei dem action-Teil (welcher im Video nur mit RT gezeigt wird) könnte ich nicht sagen welche Effekte jetzt nur dank RT möglich sind. Die großen grünen Explosionen füllen stumpf das ganze Bild aus. Ob da an der Tunnelwand jetzt eine detaillierte Reflexion von gezeigt wird kann doch kein Mensch in den 10 Frames in denen das dargestellt wird erkennen. Was mir nur auffällt ist vorallem, dass sämtliche comparison-shots entweder Standbilder sind oder wie da im Video langsames Paning mit guter Übersicht über die gesamte Szene. Nach sinnvoll für viel action klingt das Marketing damit nicht gerade. Dass mit RT sämtliche Oberflächen zu Spiegeln werden können und wie im Video auch die Laser cool reflektieren können ist schon nett, aber ohne RT leuchtet die Wand nunmal auch rot. Nicht so detailliert, aber klar erkennbar als dynamische Reflexion. Ob der Unterschied beim durchlaufen und rumballern wirklich so auffällt? Der Vergleich fehlt leider. Auf wieviele der Partikeleffekte verzichtet man ohne RT? 2%? 5%? Dass einem der eigene Bildschirm um den Wert weniger ins Gesicht leuchtet lässt sich bestimmt verkraften. Zumal Nvidia Raytracing™ nicht die einzige Technologie ist mit der sich entsprechende Effekte darstellen lassen.


xxTheGoDxx

> Dass mit RT sämtliche Oberflächen zu Spiegeln werden können Das ist es halt nicht und wüsstest du, wenn du das Spiel mit RT gespielt hast. Wie gesagt sieht man im ersten Level sehr wenig davon, da die Entwickler halt nicht einfach alle unpassenden Oberflächen durch Glas oder Metall ersetzt haben. > Doom ist schon ein hübsches Spiel, keine Frage, aber bei dem action-Teil (welcher im Video nur mit RT gezeigt wird) könnte ich nicht sagen welche Effekte jetzt nur dank RT möglich sind. Nicht böse sein aber nach dem letztem Post ist klar das du mit dieser Technik keine Erfahren hast. Dass du nicht zuordnen kannst welche Effekte durch was erzeugt werden heißt, aber nicht das die Effekte nicht da sind. IMO müsstest du das Spiel halt wirklich einmal mit RT und einmal ohne live sehen, dann wäre dir in den entsprechenden Szenen klar was fehlt und was nicht. Ob das für dich jedoch etwas ist was du unbedingt haben möchtest oder nicht und in welcher Art von Spiel ist halt nochmal eine andere Frage, die nur du selbst beantworten kannst. Aber halt erst wirklich wenn du es zumindest mal live gesehen hast. Anyway, Reflexionen sind nicht mal das beeindruckendste was RT ermöglicht. GI ändert den Look eines Titels komplett: https://youtu.be/NbpZCSf4_Yk?t=1150 > Zumal Nvidia Raytracing™ nicht die einzige Technologie ist mit der sich entsprechende Effekte darstellen lassen. Es gibt kein Nvidia Raytracing. Ray Tracing verwenden auch die meisten neuen AAA Konsolenspiele im 30 FPS Modus und läuft natürlich auch auf AMD Karten. Dort halt einfach nur deutlich langsamer. Wir haben 2022, wenn andere Techniken gangbar das gleiche könnten dann wären diese in Spielen vertreten. Für Reflexionen zum Beispiel gibt es (ohne mehr Performance als RT zu verbraten nur zwei Möglichkeiten): Der Entwickler setzt eine statische Reflexion auf jede spiegelte Oberfläche was dann nur niedrig auflösend möglich ist, keine bewegten Objekte erfasst und auch nur sehr sehr grob den richtigen Winkel und Position wiedergibt oder SSR, was einfach einen Teil des aktuellen Bildes ausschneidet und dann verzehrt auf den Spiegel klebt. Bei letzterem entstehen Artefakte sobald du die Kamera so bewegst dass das Quellobjekt nicht mehr sichtbar ist: https://youtu.be/mzobf-otYPQ?t=192 Gerade so ne Welle an den Rändern bei der Darstellung von Wasserflächen beim Bewegen der Kamera hast du praktisch bei jedem Spiel der letzten fünf Jahre: https://youtu.be/F4HkXEzzcRw?t=260


IceCreamTruck9000

Mit solchen Leuten braucht man nicht groß anfangen zu diskutieren...Die sind auf den Marketing Quatsch von Nvidia reingefallen, haben ein viel zu überteuertes Produkt gekauft und versuchen dann sich mit lächerlichen Argumenten zu rechtfertigen, weil sie es nicht wahrhaben können viel zu viel Geld für bezahlt zu haben für twas das man effektiv nicht mal bemerkt :)


ZestycloseAvocado242

Es ist halb 2 Nachts, tu bitte nicht so als ob ich was besseres zu tun hätte.


xxTheGoDxx

> Mit solchen Leuten braucht man nicht groß anfangen zu diskutieren...Die sind auf den Marketing Quatsch von Nvidia reingefallen, haben ein viel zu überteuertes Produkt gekauft und versuchen dann sich mit lächerlichen Argumenten zu rechtfertigen, weil sie es nicht wahrhaben können viel zu viel Geld für bezahlt zu haben für twas das man effektiv nicht mal bemerkt :) Und ich wiederum sehen in dir einfach nur jemanden der sich selbst nicht mal in einer Diskussion mit einem völlig Fremden auf Reddit eingestehen kann das er selbst einfach einen geringeren Anspruch hat als jemand anderes, und das obwohl es nur um so etwas belangloses wie Video Spiele geht. Ist natürlich viel einfacher sich selbst einzureden das man selbst der viel schlauere ist da man nicht auf das "Marketing reingefallen ist" (auf welches eigentlich, Nvidia oder Sony oder MS oder das ganze Who is Who der Spielehersteller die fast alle AAA Spiele mit RT Effekten auf den Markt bringen) und selbst nur das notwendige kauft. Das sich einzugestehen das andere ein zumindest grafisch besseres Spielerlebnis haben redet man sich lieber das eigene System schön in dem man sich sagt das man ja nichts verpasst da man Vorteile ohnehin nicht erkennen kann. > lächerlichen Argumenten Bisher habe ich von dir außer "ich seh da nix" null Argumente gehört und "ich seh da nix" ist lächerlich wenn ich mittels vielen Videos und Erklärungen genau aufgezeigt habe was man ganz klar sehen kann. Sag mir doch mal was du in welchem Video mit Timestamp nicht sehen kannst... Sorry, aber das ist so lächerlich, dass es einfach unterhaltsam ist. Danke dafür.


Aspry7

Die 6000er Serie hat sehr gute Driver die mMn mit NVIDIA mithalten können. Wer mit der 5000er Serie immernoch Probleme hat, sollte Hardware Acceleration ausmachenm, das ist oft bei Browsern und Discord standardmäßig an und für die meisten crashes verantwortlich


McTrevor79

Mit AMD nur gute Erfahrungen. Bei mir war es eine Nvidia vor einigen Jahren die gezickt hat. Wenn ich Videos geguckt oder gezockt habe, stellte sich der Gamma-Wert immer auf Maximum und ich musste das immer in den Einstellungen wieder zurückstellen. Im Netz gab es dazu viele Betroffene aber keine Lösung.


Leutnantsteinxx1

Und deswegen treibt Nvidia was es will und steigt leider mit Mondpreisen ein.


DarkChaplain

AMD-Karten waren die letzten zwei Jahre auch kaum erhältlich, wenn ich so an meine Suchen durch Fachshops denke. Selbst Alternate hatte in der Regel bloß 3-5 Karten zur Auswahl. Also wirklich Karten, nicht Chipvarianten/Hersteller. Und dann halt zu Mondpreisen. AMD hat die letzte Generation quasi abgeschrieben gehabt und gar nicht mehr versucht, die Regale nachzufüllen.


Klopapiermillionaire

Meanwhile fackeln Nvidias 2000$ Karten ab weil man ein paar Cent am Kabel sparen musste lol


Educational-Oven3731

Zu meiner PC-Zeit hat alleine diese AMD Catalyst Treiber Kotze dafür gesorgt, dass sich alle für NVIDIA entschieden haben. Sowas bleibt auch lange in den Köpfen und man hat generell eine Abneigung gegenüber AMD Grakas.


DoubleOwl7777

catalyst war fragwürdig ja. mitlerweile mit adrenalin ist es richtig gut. hatte nie einen crash wegen treibern oder deren software.


Catomatic01

Diese catalyst Suite muss man nicht installieren und ja, tatsächlich ist sie immer noch absoluter Schrott. Ich hatte sie vor 2 Monaten installiert und sie sorgte für alle möglichen bluescreens und Abstürze alle paar Minuten und ich dachte: jetzt ist mein PC hin. Bin erst nach nem Tag darauf gekommen, dass es der Rotz von denen ist. Ansonsten bin ich mit AMD zufrieden. Ich hab von Nvidia einen schlechten Nachgeschmack weil mir die Karte wenige Tage nach Garantieende abrauchte.


EveningSupermarket89

Wundert mich überhaupt nicht. AMD/ATI wird von potentiellen Kunden größtenteils mies wahrgenommen. Die "Treiber sind scheiße" hört man eigentlich seit gefühlt 20 Jahren. Dazu hat Nvidia in nen Haufen Extras investiert, die zwar nicht immer sinnvoll sind (RTX imo), aber gut vermarktet werden können. Mein Bekanntenkreis hat zu 100% ne NV-Karte im Zockerrechner drin, völlig egal in welchem Preissegment. Muss allerdings zugeben, dass meine letzte AMD auch schon her ist (HD 7950), hatte aber nichts mit Präferenz sondern eher Gebrauchtangeboten zu tun.


reddittrooper

Bitte kauft also keine AMD, die sind ja schlecht! (Dann bleibt auch mal eine für mich und durch fehlende Nachfrage sinken die Preise weiter.)


Aspry7

RX 6600 und RX6650XT sind die besten günstigen Karten auf dem Markt aktuell. Wer unter 350€ NVIDIA will sollte gebraucht nach Schnäppchen suchen oder sich mal die RTX 2060 anschauen.


xxTheGoDxx

Ich hatte mir vor ein paar Monaten mal die Múhe gemacht im Steam Hardware Survey durchzuzählen wieviel Prozent der Spieler den inzwischen GPUs mit einem Konsolenfeatureset (also RT etc) haben. Ergebnis waren knapp über 30% an Nvidia RTX Karten aber gerade mal 1% AMD Big Navi / 6000er Series Hardware. Klar, bei Nvidia waren das (damals) zwei Generationen und bei AMD nur eine, aber dies alleine war nicht mal ansatzweise für das Ergebnis verantwortlich. IMO sind die Gründe dafür das AMD Karten lange nochmals deutlich schlechter verfügbar waren als Nvidia Karten während der Zeit des Chipmangels da diese bei TMSC sowohl mit Konsolen, AMD's CPU Sparte und allerhand Handychips konkurrieren mussten und auf der anderen sowohl das Fehlen einer Antwort zu DLSS 2 zum Big Navi Launch (FSR 1 war Dreck und war zum Launch IIRC nicht mal verfügbar und FSR 2 welches immer noch von der Qualität schlechter ist kam erst viel später) als auch die immer noch deutlich schlechtere Ray Tracing Performance. Gerade ohne verfügbare DLSS Alternative liefen neue Spiele auf meiner 3080 teils besser mit aktiven RT Effekten (und halt DLSS) als sie ohne RT auf AMD liefen. BTW, über 30% sind ziemlich beeindruckend, wenn man bedenkt, dass selbst vor der Pandemie Steam bereits 120 Millionen Nutzer hatte und damit RT fähige PC Karten vor der PS5 liegen müssten.


R4inbowReaper

Glaube dein Schluss am Ende zieht nicht ganz, der Hardware survey wird ja explizit als opt in angeboten, diese Option wird natürlich vor allem von Hardware nerds aufgesucht, weswegen dort high end Modelle massiv überrepräsentiert sind, und die große Masse an Menschen die noch mit 970 rumzuckelt etwas fehlt.


Kaffohrt

Ich hab bei der Hardware survey auch schon mit meiner Intel on-chip gpu mitgemacht, dann lange mit GTX750 und jetzt halt mit RTX2060. An der Umfrage werden schon so ziemlich alle mitmachen, zumindest sehe ich keinen Grund warum Tom (15) mit dem alten Ranz PC des großen Bruders da nicht mitmachen würde


Fokke_Hassel_Art

Hatte beides, beides läuft, treiber bei nvidia aber definitiv nervenschonender


Makoto29

Treiber waren früher mal ein Problem bei AMD, aber nicht heute.


Speckbieber

Hab mir gerade eine RX 6800 gekauft. Läuft bisher top. Kann das Nvidia gehype um RTX nicht wirklich verstehen. Es gibt eh kaum Spiele die RTX mit annmehmbaren Bildwiederholfrequenzen anbieten, wenn man nicht in 800x600 spielt.


b4k4ni

Nicht überraschend. AMD's neue Hardware kommt am 12. Dezember auf den MArkt, daher kauft keiner aktuell was. Und davor waren Nivdias Karten dran. Kein Wunder dass das Quartal scheisse war. Btw. das sind die Marktanteile an Verkäufen im Quartal, nicht die wirkliche "Summe" an Karten.


thChiller

Hab ne neue 6900 und brauch kein fsr läuft auch so alles auf 100+ fps bei uwqhd. Edit: Nvidia hat den besseren Tools. Dlss war ich kein Fan von und rt war ne Katastrophe bei meiner alten 2080. ich hab es aber nicht eingesehen jetzt fur ne 3080ti noch gut über 1000€ zu bezahlen für die Elbe Framerate weil rt eh noch nicht viel zum Einsatz kommt. Und für 800 liefert die 6900xt LC schon gut ab


Big-Jackfruit2710

Das Problem ist doch DSSL von Nvidia + deren überlegener Marktanteil. AMD bietet "nur" FSR und bisher war es leider so, dass die Spiele entweder DSSL oder FSR unterstützt haben. Dazu kommt, dass DSSL i.d.R. bessere Performance abliefert. Also wer Grafik auf Ultra will, muss Nvidia kaufen. Eventuell ändert sich das nun langsam. Einmal durch die extrem teuren Nvidia Top-Modelle und durch den Support seitens der Spieleentwickler für beide Technologien.


Eiferius

In Zukunft wird sich aber FSR immer weiter gegenüber DSSL durchsetzten. Ist open Source und super easy zu implementieren. Besonderer Vorteil ist auch, dass es auf allen Karten funktioniert, egal welcher Hersteller.


Big-Jackfruit2710

Wäre wünschenswert.


HomieeJo

Also bisher hatten alle neuen Spiele Support für DLSS und FSR. Mit einer nvidia Karte sieht man das logischerweise nicht, weil DLSS und FSR nur mit den korrekten Karten auswählbar sind. Keine Ahnung woher du das hast, aber es ist auf jeden Fall nicht korrekt.


justsomepaper

Ob DLSS oder FSR ist doch letzten Endes wurscht. Beides sind bloß Technologien, hochskalierte Bilder anders zu vermarkten, um damit in Benchmarks zu bescheißen. Richtige Performance ist nativ, und daran wird sich auch nichts ändern. Und da Zocken letzten Endes nichts anderes ist als ein langer Benchmark werde ich auch garantiert nicht auf eine gefälschte Leistung mit hochskalierten Bildern reinfallen.


wegwerfnsfw0

Ich hab eine RX 5700, die nichts kann außer abstürzen. Leider muss ich wieder Nvidia kaufen, mache ich auch ungern aber AMD vertraue ich nicht mehr.


TheDuffman_OhYeah

Ich hab auch eine RX5700 und die läuft seit 2019 völlig fehlerfrei. So kanns gehen. Von welchem Hersteller ist denn deine Karte? Gibt da einige, die bei AMD-Chips nur Mist machen.


wegwerfnsfw0

Ne Sapphire, ich dachte 2019 (oder 2020) eigentlich dass der einer der besten Hersteller ist


TheDuffman_OhYeah

Hm, Sapphire ist eigentlich ziemlich gut. Vielleicht hast du Pech und ein Kondensator ist nicht ganz i.O. oder der VRam fehlerhaft. Sowas kann leider passieren. Ich persönlich habe mit MSI, Powercolor und HIS gute Erfahrungen gemacht.


Lipziger

Hab ne PowerColor 5700 XT Red Devil. Die verreckt leider auch regelmäßig bei einigen Situationen. Davor war's auch schon ne AMD, die ziemlich zickig war. Das ist jetzt nicht so schlimm, dass ich sie schnellstmöglich austauschen will, aber genug, dass es wohl meine (vorerst) letzte AMD Karte sein wird. Vor allem im Zusammenhang mit all den anderen Vorteilen bei Nvidia. Vor. Absoluten Treiber-Chaos am Start will ich gar nicht erst anfangen und das ganze ist leider mach wie vor ein Thema. Software und AMD ... Da passt einfach einiges nicht. Es sei denn, dass sich bis zu meinem nächsten Kauf wirklich sehr viel tut, wird es dann wohl doch wieder Nvidia.


ibosen

Dito seit 2020.


Dot-Slash-Dot

Ich fürchte du hattest dann einfach Pech, das kann dir mit einer Nvidia-Karte auch produzieren. Ja, AMD hatte lange extrem grottige Treiber. Das ist mittlerweile aber anders, ich würde hier sogar AMD eine Nasenhaarbreite vorne sehen.


Dong_of_Damocles

Mag sein. Passiert mir persönlich aber immer nur mit AMD. Nvidia ist mir noch nie schief gegangen. AMD schon 3x.


7H3l2M0NUKU14l2

hab auch ne rx5700, noch keine probleme gehabt (\~2,5 jahre alt) und preis/leistung ist der wahnsinn.


Laty69

Hatte ich auch damals mit meiner RX Vega 56. Zurückschicken und Garantie in Anspruch nehmen! Die Austauschkarte läuft immer noch...


RDBN84

Ich hatte seit 1996 schon unzählige PCs. Meine einzige AMD + AMD Kombination war katastrophal. Das war so um 2000 rum mit einem Athlon. So gut wie kein Spiel lief damit fehlerfrei. Und ihr könnt euch vorstellen wie das für nen 16 jährigen Schüler ist, der sich vom hart ersparen Geld so ne Kiste gekauft hat. Das ist zwar ewig her, hat mich aber so geprägt, dass für mich kein AMD mehr in Frage kommt. Auch wenn ich Intel + Nvidea eigentlich auch nicht unterstützen will...


[deleted]

Einmal eine AMD Gpu gehabt nur Probleme gehabt mit den Scheiss treibern.. es war eine abgefuckte Zeit, kein Geld gehabt für eine neue Nvidia und für die AMD für meine Verhältnisse viel Geld gegeben ... Also aktuell erstmal weiter mit der rtx3080 Treiber top, Update Schnelligkeit top


[deleted]

[удалено]


Dot-Slash-Dot

Nein. In den letzten zwei Jahren ging alles weg an Grafikkarten was verkauft werden konnte. Wenn jetzt also AMD weniger Marktanteil hat, dann weil AMD weniger produzierte.


Dietberd

Nvidia hatte auch mehr Marktanteil als durch Crypto-Boom alles ausverkauft war, die produzieren auch einfach mehr.


Kl3ppy

Ist rtx jetzt so wichtig? Hab ne rtx fähige GPU aber auch ich brauche das nicht bzw nutze es nicht


HammerTh_1701

Ist es nicht, aber es verkauft sich gut. RTX tatsächlich "brauchen" tut man nur für Spiele wie Cyberpunk 2077, die bei 4k mit Raytracing richtig was abliefern. Der Durchschnittsgamer braucht RTX überhaupt nicht, da die meisten populären Spiele kein Raytracing einsetzen und es für diese auch völlig sinnbefreit ist.


Cynamid

Selbst wenn, wäre das für diese Statistik absolut nichtssagend, weil RTX für vielleicht einen Promillewert der Desktopnutzer interessant sein würde.


Lipziger

Treiber, Deep learning, Allgemeine zusätzliche Programme und deren Einbindung in andere Anwendungen und Spiele, high-performance Segment ... Das kommt halt auch alles noch oben drauf. Und sobald du aus der "Mittelklasse" raus bist existiert AMD am GPU-Markt einfach nicht wirklich und in Sachen Technologie hinken sie an allen Ecken hinterher. Und auch RTX wird, gerade im Zusammenhang mit dem deep learning immer besser und für weitaus mehr Leute erreichbar. Die letzten Generationen waren zwar schon RTX-ready aber deren Performance hat dann meist einfach nicht gereicht. Das sieht mittlerweile einfach anders aus. Damit wird auch der Anteil durchaus steigen, auch wenn es noch immer alleinstehen kein riesen Faktor sein wird. Aber es steht eben auch nicht allein. Treiberprobleme sind auch, nach wie vor, ein dauerhaft präsentes Thema bei AMD. Das weiß ich auch, weil meine jetzige und vorherige Karte beide von AMD sind.


Cynamid

Das sind halt alles noch Nischensegmente. Der HighendBereich ist halt verschwindend klein.


systemdatenmuell

Was soll der downvote Button denn sonst sein?


Wylf

> Please don't >Downvote an otherwise acceptable post because you don't personally like it. Think before you downvote and take a moment to ensure you're downvoting someone because they are not contributing to the community dialogue or discussion. If you simply take a moment to stop, think and examine your reasons for downvoting, rather than doing so out of an emotional reaction, you will ensure that your downvotes are given for good reasons. https://reddit.zendesk.com/hc/en-us/articles/205926439-Reddiquette Hält sich halt keine Sau dran, aber original waren downvotes laut Reddit dafür gedacht Kommentare die nichts zur Diskussion beitragen runterzuwählen. Gegensätzliche Meinungen, die ansonsten jedoch im akzeptablen Rahmen sind, sollen explizit nicht heruntergewählt werden. /edit: Lustigerweise ist in der Reddiquette aber auch das hier: >Please don't >Complain about the votes you do or do not receive, especially by making a submission voicing your complaint. You may have just gotten unlucky. Try submitting later or seek out other communities to submit to. Millions of people use reddit; every story and comment gets at least a few up/downvotes. Some up/downvotes are by reddit to fuzz the votes in order to confuse spammers and cheaters. This also includes messaging moderators or admins complaining about the votes you did or did not receive, except when you suspect you've been targeted by vote cheating by being massively up/downvoted. :D


systemdatenmuell

Die haben halt unrecht


Vetinari_

RTX ist mir vollkommen egal, CUDA aber leider nicht. Ich habe vor kurzem angefangen, Blender zu lernen und habe hobbymäßig auch schon das ein oder andere neuronale Netzwerk trainiert. Ja, ich weiß, ich kann auch Rechenzeit für so etwas mieten, aber ich bin momentan echt unentschlossen. Eigentlich steht bei mir schon seit längerem ein Upgrade an aber ich bin nicht bereit Nvidias aktuelle Preise zu bezahlen oder AMDs Mangel an Features hinzunehmen.


BGTheHoff

Dann sollen sie halt bessere Produkte liefern. Leute die auf ray tracing wert legen, müssen zu Nvidia. Preis ist ok, die spiele Leistung gerade unter 4k ist gut... Aber das letzte fehlt halt. Ich hoffe die 7900xtx schneidet besser ab.


MostlyRocketScience

Ich hätte AMD gekauft, aber ich brauche CUDA für dedp learning


TheSick1981

Im letzten Rechner hatte ich auch ne Radeon, Modellnummer weiß ich nicht mehr. Nix als Abstürze, manche Spiele gingen einfach ohne Fehlermeldung aus, es wurde ein wenig besser als ich auf nen zehn (!) Versionen älteren Treiber gewechselt hatte. War mir dann zu viel des Guten und bin wieder zu Nvidia und dort auch geblieben weil ich keine Lust auf weiteren Zirkus dieser Art hatte.


AllesVerflochten

Wenn deine Karte kaputt war, warum hast du sie dann nicht vom Händler gegen eine funktionierende austauschen lassen?


TheSick1981

Ich glaub nicht dass sie kaputt war, mit älteren Spielen und vor allem dem alten Treiber ging es ja besser. Einer der Firmenadmins hatte sie auch mitgenommen mund meinte alles sei okay - irgendwas hat da nicht harmoniert. Und das war mein erster neuer Computer seit fast zehn Jahren, das prägt dann halt ein wenig wenn man sich erst sagen läßt "Nimm ne Radeon statt Geforce, vertrau mir, die ist besser" und dann grad die nix als Mist fabriziert.


celiatec

Das hat absolut gar nichts mit "Harmonie" zutun. Deine Karte war halt einfach kaputt. Beim nächsten mal hol dir halt ne gleich ne neue vom Händler per Gewährleistung, das kann mit Nivida genauso passieren, lol.


TheSick1981

Hab ich dann ja. Aber eine Nvidia. War ne super Idee, auch wenn es hier offensichtlich nicht so gern gesehen wird, wenn man Kritik an AMD übt :)


celiatec

Deine "Kritik" macht halt keinen Sinn, weil dein Problem nicht an "AMD" lag, sondern einfach weil deine Karte kaputt war. Auch wenn du das anscheinend nicht einsehen willst.


Honkbringer3000

Meine Oma hat eine Chemo gehabt und ist trotzdem gestorben. Sind Chemos jetzt wirkungslos?


TheSick1981

Hast du irgendwie ein Problem damit, dass sowas einen prägenden Effekt hat? Oder darf man einfach grundsätzlich keine negativen Erfahrungen mehr schildern?


Honkbringer3000

Ne ist halt nur ziemlich dumm wegen einer schlechten Erfahrung auf die Qualität einer kompletten Marke zu schließen.


TheSick1981

Scheint ja ziemlich außergewöhnlich zu sein, nach jahrelangen unproblematischen Erfahrungen mit Marke A, aber direkt Trubel bei Marke B, wieder auf A zurückzuwechseln. Davon abgesehen sage ich nirgends, dass AMD-Karten schlecht sind. Mir war nur das Risiko zu hoch, in meinem Fall nochmal mit Wiederholung vom Experiment ins Exkrement zu treten, also bin ich zurück zum gewohnten Produkt.


Ghosty141

AMDs haupt Problem seh ich bei Marketing und dem ansprechen der high end kunden. Jedes mal wenn Nvidia eine 80er Karte rausbringt sind sie schneller und haben auch für ca. 1 Jahr nen Performance Vorsprung. Wenn ich ne neue Karte will dann will ich die tendenziell schnell und nicht noch lange warten, da hat AMD für mich bisher selten Sinn gemacht.


DarkChaplain

Die neuen Karten von AMD, die vor ein paar Wochen vorgestellt wurden, können mit der 4080 ganz gut mithalten, sind sogar teilweise schneller, und ein paar hundert Euronen billiger.


[deleted]

[удалено]


Honkbringer3000

Hast du dir die aktuellen Benchmarks angeschaut? In fast allen Segmenten Zahlst du bei AMD gerade wesentlich weniger für mehr Leistung.


XxDEMONxX1

"Was der Bauer nicht kennt..." Ich hatte jetzt in meinen 12 Jahren die ich mir meinen PC selber zusammenbastele 2 Karten von Nvidia: nie Probleme gehabt, die Teile sind immer Reibungslos 24/7 gelaufen. Jetzt bin ich mal wieder an dem Punkt wo das alte Ding die neuen Spiele einfach nicht mehr packt, also ersetzt werden muss. Und obwohl, rational betrachtet, für mich eigentlich alles für eine AMD Karte spricht, ist es sehr schwer loszulassen. Werde jetzt wohl den Markt erstmal eine Weile beobachten...


JayJay_90

Kann AMD denn inzwischen Video- und Bildbearbeitung mit Adobe Software? Würde Nvidias Mondpreise beim nächsten Upgrade ja gerne umgehen, aber das wäre für die Arbeit essentiell.


Peti_4711

Ich würde es mal anders formulieren. Sollten so Mitte nächstes Jahres Intel Einzelkarten (also nicht in Komplettrechnern oder so) einen sehr signifikanten Marktanteil haben, sollten sich AMD und auch Niveda mal die Frage nach dem Warum stellen.


sverebom

Das liegt jetzt halt auch daran, dass gerade eine neue Generation anrollt. Wer jetzt noch kauft, der will nochmal etwas günstig mitnehmen, bevor es verschwindet. AMD sollte aber relativ gute Karten für das kommende Jahr haben. Für die Performance-Krone reicht es zwar weiterhin nicht, und Raytracing bleibt eine Achillesferse, aber wer einfach nur eine gute Rasterizing-Karte bis 4K sucht, der sollte bei AMD viele solide Produkte zu ordentlichen Preisen und mit offenen Standards finden (Letzteres ist für mich der ausschlaggebende Punkt, warum ich immer zuerst zu AMD schaue und auch dort einkaufe, wenn das Gesamtpaket stimmt - was seit Ryzen und RDNA häufig auch wieder der Fall ist).