Ich bin von einer 3070 auf eine 7800XT gewechselt und jetzt haben Spiele, die noch nie Shader Cache-Stottern hatten, plötzlich Shader Cache-Stottern? Ich bin sehr verwirrt. Dieses System ist auch ziemlich leistungsfähig, ich habe einen 7800X3D 32GB DDR5, ein 1000W BeQuiet-Netzteil und Windows 11. Jedes Spiel hat Stotterer, bis die Shader gecacht sind. Mir ist klar, dass dieser Vorgang normal ist, es sei denn, der Entwickler zeigt vor dem Start des Spiels einen Shader-Kompilierbildschirm an. Spiele wie Deep Rock, Subnautica, Guardians of the Galaxy, No Man's Sky, sie alle stottern verrückt, wenn du das Gebiet zum ersten Mal besuchst. Das Problem war so schlimm, dass ich dachte, mit meiner GPU stimmt etwas nicht.
Ich weiß ganz sicher, dass ich mit meiner 3070 in diesen Spielen keinerlei Stottern oder Freezes hatte. Es führt zu vollständigen 1-Sekunden-Freezes, bis der Shader gecacht ist, und das Erlebnis ist absolut schrecklich.
Ich bin ein PC-Enthusiast, also bin ich absolut kein Anfänger oder Neuling in Bezug auf PCs. Das ist die erste AMD-Karte, die ich seit 2013 habe.
Warum haben AMD-Karten das Shader Cache-Stottern, wenn Nvidia das nicht hat? Wird die CPU durch Texturen ausgebremst, die zu groß sind, um schnell genug gecacht zu werden, was zu einem vorübergehenden Anstieg der Framezeit führt? Die Framezeit-Spitzen betragen über 150+ und mehr.
Ich habe tatsächlich das Dxanvi-Ding ausprobiert, den Shader Cache "eingeschaltet", MPO deaktiviert, SAM ein- und ausgeschaltet. Was ist da los?