Grafikkarten unleistbar?

  • Nvidia hat heute den ersten Schwung der neuen Karten vorgestellt:

    • 4090 24GB kommt am 12. Oktober für $1.599
    • 4080 16GB kommt voraussichtlich im November zu $1.199
    • 4080 12GB kommt voraussichtlich im November zu $899

    Die 12GB Variante ist wohl erstmal als der 3070 Nachfolger zu verstehen.


    Als Preisindikation für die 30x0-Serie: die 3060, als Einstieg, soll bei $329 starten.

  • US-Preise sind ja prinzipiell ohne Steuer, insofern kommt das schon hin.

    Trotzdem viel Geld...

    Wann kommen denn die Ti Versionen?


    Hab mal ausgerechnet: wenn die 4080 16GB 5 Jahre hält, würde mich jede Stunde spielen 1,- kosten, denn ich komm zwischen 2017 und 2021 auf ca. 1500h zocken... (wobei das ungenau ist, weil da auch Spielzeit auf Konsolen mitgerechnet ist).

    Ich glaub, ich bin wohl kein Core Gamer mehr.
    :rolleyes:

  • Gehört das jetzt in den Fun Thread?!

    "3.75 Slots", "Bionic Shark Fins", "Anti-Gravity-Heatpipe"... oida, was rauchen die Werbefritzen?


    Ich würd ja sofort so eine depperte 4080 vorbestellen, wenns einfärbig und ohne LEDs, aber dafür 200,- billiger wäre...


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Gehört das jetzt in den Fun Thread?!

    "3.75 Slots", "Bionic Shark Fins", "Anti-Gravity-Heatpipe"... oida, was rauchen die Werbefritzen?


    Ich würd ja sofort so eine depperte 4080 vorbestellen, wenns einfärbig und ohne LEDs, aber dafür 200,- billiger wäre...

    [...]


    Damit du dann den "Design"-Aufschlag zahlen darfst, nur damits schwarz ist und nicht blinkt? :D:D:D:D

  • Ich frag mich ja, wie das alles sein kann.

    Die Fertigungstechnik wird immer kleiner. Die neuen Karten sind 4nm. Eigentlich sollte das Energieverbrauch und Abwärme reduzieren. Was wieder bedeutet, wenn die 40x0-Karten doppelt so schnell sind, wie die 30x0 Serie, sollte Wärme und Energieverbrauch ca. gleich sein. Aber nein! Die brauchen jetzt teilweise 600W (!) Was soll das bitte alles? Ist das echt noch zeitgemäß?

    Abgesehen davon, benötigen die Karten offenbar ATX 3.0 Netzteile, weil die irgendeinen speziellen Kommunikationsanschluss haben, wo Netzteil und Graka den Stromverbrauch aushandeln. Es gibt auf Geizhals grad genau vier Netzteile (alle von Thermaltake), die das unterstützen. D.h. zu den eh schon exorbitant hohen Preisen der Grakas kommt dann noch locker-flockig ein 200,- Netzteil dazu.

    Alles zum Kotzen, echt...

  • Ich schau mir wie gesagt an, wie sich meine 2070 Super schlägt, wenn ich mir ein neues System bastle .. ansonsten Mal abwarten was AMD noch bringt .. ich war ja bisher eigentlich immer mit Intel in Nvidia unterwegs, außer früher mal bei einem Rechner.


    CPU mäßig wird sich das aber wohl fix ändern bei mir und Graka-technisch auch evtl.

  • Ich frag mich ja, wie das alles sein kann.

    Die Fertigungstechnik wird immer kleiner. Die neuen Karten sind 4nm. Eigentlich sollte das Energieverbrauch und Abwärme reduzieren. Was wieder bedeutet, wenn die 40x0-Karten doppelt so schnell sind, wie die 30x0 Serie, sollte Wärme und Energieverbrauch ca. gleich sein. Aber nein! Die brauchen jetzt teilweise 600W (!) Was soll das bitte alles? Ist das echt noch zeitgemäß?

    Wird die Öko Se…… dann wohl zukünftig eh verbieten.

    PC gaming ist nicht mehr Zeitgemäß…..

  • Ist ja am Ende nicht nur ein PC-Problem: die Konsolen haben ja auch nur noch PC-Komponenten drin und wenn sie Leistung künftig nurmehr mit Watt erkaufen, wirds bei PS6 und Geschwistern auch nochmal heißer unter der Haube. Klar nutzen die nicht immer den Spitzenchip, aber das zieht sich ja durch die komplette Generation.


    Aber warten wirs mal ab: die 3090/4090 würde ich eh nicht als Referenz ansetzen. Ja die 4k Jünger möchten möglichst rasch alle Spiele mit vollem Eye Candy, aber das gibt die Technik halt immer noch nicht her. Digital Foundry hat sich vor kurzem die 4090 angesehen. Da hieß es, mit DLSS 3 ist 4k auf 120Hz bei vielen Spielen möglich. Also nüchtern gesprochen zahle ich 2.000+ Euro das ich mit "Cheattechnologie" das gewünschte Ergebnis erreiche. Ist eh schon spannend, wie sich DLSS und FSR zu Selbstverständlichkeit entwickelt haben, weil native Auflösung zu Anspruchsvoll für die Karten ist. Aber freilich ist es einem am Ende egal, wenn man die Einbußen mit bloßem Auge nicht mehr wahrnimmt.


    Schauen wir mal, wieviel Leistung die neuen AMD-Karten bereitstellen und wie hoch die Wattzahlen dort sind...

  • Schon klar, darauf spielte ich mit dem "nutzen nicht den Spitzenchip" an. Dennoch, sie nutzen ja immer einen möglichst aktuellen Chip beim Konsolenbau und wenn der eben nur Leistung über Watt generiert wirds halt da auch wieder verschärft.


    Ja bei den Slims optimieren sie freilich wo es eben geht. Die neueste Generation PS5-Chips ist wohl schon 1nm kleiner und damit Kühler etc.. Da kommt dann Martins Frage wieder ins Spiel: die 40x0-Chips sind gleich mehrere nm kleiner als die 30x0-Chips und die Karten ziehen dennoch ordentlich mehr Saft. Wird auch freilich so sein, dass das bei den Grafikkarten nicht allein der Chip zu verantworten hat.


    Aber betreiben wir mal keine Wahrsagerei. Keine Ahnung, wie effizient Grafikkarten/-chips sind, wenn die PS6, Xbox xyz etc. gebaut werden.

  • Nur mal als Vergleich.

    Die PS5 genehmigt sich bei rechenintensiven Spielen ca. 200 Watt.


    Das ist im Prinzip ca. der selbe Verbrauch wie die PS4 Pro bei rechenintensiven games hat.


    Und das für das ganze System!


    Schon klar das eine 4090 deutlich mehr Power hat aber das ist schon eine Hausnummer das hier die Graka alleine schon 3x soviel Strom verbrät.

    Der Rest vom System kommt ja noch dazu.


    Wenn sich zukünftig jemand an euren PC klebt dann sagt nicht ihr wurdet nicht gewarnt! :blue20: