NVIDIAs GT300 im ersten Quartal 2010 - Was haben die Spieler von der neuen Fermi?

  • derzeit ist die situation für pc-spieler im grafikkartenmarkt sehr unbefriedigend.
    einerseits sind aktuelle ati- und nvidia-grafikkarten kaum lieferbar bzw. zu teuer und andererseits ist bis jetzt nur wenig bezüglich der nächsten nvidia-kartengeneration bekannt. ati ist noch auf überholkurs, aber spätestens im märz wird nvidia kontern.


    folgende fakten stehen allerdings fest:
    die neue fermi getaufte karte wird für den wissenschaftlichen bereich optimiert bzw. produziert. dies wird auch durch die implentierte ECC-Technologie untermauert. ECC ist für die Wissenschaft zwar von Bedarf, für den Spieler steigt allerdings dadurch nur der Preis und die Karte wird auch ausgebremst, also kein wirklicher vorteil.
    Wie werden die Gamer berücksichtigt? Sind die Spieler in Zeiten der XBOX360 und der PS3 überhaupt noch ein ernstzunehmender Markt?


    Leider muss man sich als Spieler noch eine Weile gedulden, eh Preise und Vorteile gegenüber z.B. einer GTX 285 oder 295 feststehen.
    Voraussichtlich wird die neue Fermi relativ teuer, dafür wird aber auch DX11 an Board sein, aber was bringt's für den Gamer?
    Noch gibt es nur wenige DX11-Spiele, aber in Zukunft, soll es schon ein Vorteil sein, anscheinend wurden Wasser- und Physikberechnungen noch weiter optimiert. Meiner Meinung nach wird DX11 aber einfach ein ausgereifteres DX10 und kein Meilenstein.


    Was sagt ihr dazu?

    • Offizieller Beitrag

    Welche Dx war denn ein meilenstein ? :D


    bei fermi kann man atm nur sagen, abwarten und tee trinken, sie wird zwar ein wirkliches rechenmonster, aber was und wieviel das für uns gamer bringt steht noch in den sternen, ich sehs halt so, mit der leistung die die neuen gpu im fp bereich haben, wird endlich die leistung da sein um raytraycing wirklich interessant zu machen (und das ist was realitätsnahe beleuchtung und so anbelang die zukunft).


    und es ist ganz klar das nvidia für das gpu computing entwickelt, da sind einfach ganz andere margen drinnen als bei gamerkarten



    was mich aber interssiert warum ist ecc für die wissenschaft interessant ? mir is zwar der sinn von ecc voll und ganz klar nur nicht wie die wissenschaft davon profitiert

  • Zitat

    was mich aber interssiert warum ist ecc für die wissenschaft interessant ? mir is zwar der sinn von ecc voll und ganz klar nur nicht wie die wissenschaft davon profitiert

    naja direkt profitieren ist vielleicht ein bisschen übertrieben gesagt.bei ecc geht es einfach um mehr sicherheit. es wäre wohl ziemlich blöd, wenn mit einem nvidia-chip für eine medizinisch wissenschaftliche studie aufgrund eines rechenfehlers falsche statistiken, die eventuelle maßnahmen für die bevölkerung nach sich ziehen, veröffentlicht werden.

    Wo die Sonne des Intellekts tief steht, werfen selbst Zwerge lange Schatten.

    • Offizieller Beitrag

    Da wir momentan eh nicht mit neuen, anspruchsvollen Engines konfrontiert werden, hat man doch im Grunde "alle Zeit der Welt". Aktuell gibts so gut wie kein Spiel, dass die HighEnd-DX10-Karten nicht mindestens gut spielbar auf den Monitor zaubern können und das bisserl DX11-Geplänkel, dass in den nächsten Monaten kommt, ist zu vernachlässigen.


    Freilich werden die FPS-Junkies immer etwas unruhig, wenn neue Karten erscheinen, aber ich seh die aktuelle Situation schon fast als Atempause.


    Der "Gamer-Fermi" kommt bestimmt erst Q2-2010 und da wird ATI wohl auch mindestens mit einer überholten 5870 an den Start gehen. Auch wenn ich ATI natürlich ein gutes Geschäft mit der 1st Gen DX11-Serie wünsche, sehe ich im 1. Halbjahr 2010 kaum Bedarf, eine neue Karte zu kaufen.

  • Ich mag ja Nvidia Karten. Dauert aber ja noch ewig bis die neuen kommen.


    Über die Preise möcht ich erst gar nicht nachdenken bzw. den Stromverbrauch. Da gefallen mir immom die ATI irgendwie besser.


    Wie Coffin sagte. Bis dahin wird ATI überarbeitete Karten haben.
    Evtl. werden diese dann nur 50% von dem kosten was die NVIDIA Dinger kosten werden.

  • danke coffindnc für dein gutes posting, dem ich im großen und ganzen voll zustimmen kann.


    ich habe "nur" eine 8800gtx im system, dennoch kann ich fast alle spiele mit 1920x1200 und durchschnittlichen details recht flüssig spielen.
    nur bei crysis und crysis warhead wünschte ich mir mehr fps, denn die schwanken leider sehr.


    edit:
    kann mir wer übrigens sagen, was denn der unterschied, abgesehen vom preis, folgender grafikkarten ist, was bedeutet backplate?


    EVGA e-GeForce GTX 285, 1024MB GDDR3, 2x DVI, TV-out, PCIe 2.0 (01G-P3-1281-ER)
    Chiptakt: 648MHz, Speichertakt: 1242MHz, Shadertakt: 1476MHz • Chip: GT206 (GT200b) • Speicherinterface: 512-bit • Stream-Prozessoren: 240 • Textureinheiten: 80 • Fertigung: 55nm • Maximaler Verbrauch: 183W • DirectX: 10.0 • Shader Modell: 4.0 • Besonderheiten: unterstützt HDCP, 3-Way-SLI • Bauweise: Dual-Slot



    EVGA e-GeForce GTX 285 Backplate, 1024MB GDDR3, 2x DVI, TV-out, PCIe 2.0 (01G-P3-1180-ER)
    Chiptakt: 648MHz, Speichertakt: 1242MHz, Shadertakt: 1476MHz • Chip: GT206 (GT200b) • Speicherinterface: 512-bit • Stream-Prozessoren: 240 • Textureinheiten: 80 • Fertigung: 55nm • Maximaler Verbrauch: 183W • DirectX: 10.0 • Shader Modell: 4.0 • Besonderheiten: unterstützt HDCP, 3-Way-SLI, werkseitig übertaktet • Bauweise: Dual-Slot

    Wo die Sonne des Intellekts tief steht, werfen selbst Zwerge lange Schatten.

    2 Mal editiert, zuletzt von burning_STAR ()

  • Auf die Gamer wird geschissen.


    PC interessiert keine Sau mehr, zumindest von den Herstellern aus gesehen.


    Ihr seid eine arme verschwindende Minderheit, findet euch damit ab.



    Das geht soo schnell das euch der MArtin irgendwann in einer Ausgrabung ausbuddeln wird.



    Armes Völkchen, hab euch aber trotzdem lieb.


  • Das letzte mal habe ich das bei der Einführung der PS3 gehört, und was ist heute? Achja... es hat sich gar nichts geändert.


    Es wird sich auch in Zukunft nichts ändern und die nächste Grafikgeneration übersteht man immer noch mit ner neuen Graka für 200-300€


    Das ganze DX11 Tamtam lasst mich derzeit noch relativ kalt, da ich mir ohnehin keine ATI Karte mehr kaufe und mich mit der derzeitigen Performance meines PCs zufrieden bin.


  • :amen: :D

    • Offizieller Beitrag

    meine erfahrungen beziehen sich primär auf die firma:


    ich hab ein programm, das mit den original ati-treibern einfach NICHT mit ati-karten funktioniert! erst nach installation der omega-treiber gings ordnungsgemäß.


    ich hab eine rekonstruktionssoftware für computertomographische daten, die nur nvidia-chipsätze hardwaremässig unterstützt.


    ich hab notebooks mit ati-chips, und die user brauchen für eine spezialanwendung linux. leider werden prä-HD-chips in den neuen ubuntu-distros nimmer unterstützt!!! und zwar WEIL ATI KEINE TREIBER MEHR ANBIETET!
    Ditto für Win7-64bit .. nur noch treiber ab der HD-serie .....


    DARUM is Ati für mich gestorben! Auch privat ....

    • Offizieller Beitrag

    Na ok, bei Spezialanwendungen kann ich natürlich nicht mitreden (auch wenn die Anwendungsbastler da selbts teils auch nicht ganz unschuldig dran sind).


    Und dass es für eine Firma suboptimal ist, wenn es für das ein oder andere Setup keinen Treiber mehr gibt ist eh klar (grad wenn man bedenkt, dass ATI früher fast in jedem Bürocomputer zu finden war).


    Ich seh das ganze natürlich aus der Zockerperspektive und da gibst imo eben keine Gründe für eine ATI-Verteufelung.

    • Offizieller Beitrag

    Jein .. auch aus der Zockerperspektive wär ich nicht rundum glücklich, weils z.b. heißen kann, daß man sich zu jedem Windows (und M$ will die Zyklen ja jetzt kürzer halten) jedesmal ne neue Graka kaufen muß, weils für die alte keine Treiber mehr gibt :-/
    Klar - Als High-End Zocker kauft man dann eh immer neue PC's wenn ein Spiel nimmer auf Full Details mit 8xFSAA in 1920x1200 flüssig läuft, aber als Midrange-Zocker tuts so ne Karte schon einige Jahre .... umso ärgerlicher, wenn der Treibersupport eingestellt wird.


    Bzgl. Softwareentwicklung is Nvidia halt auch weiter vorn als Ati, weil nv ein SDK habt, was Ati nicht hat .. und umso leichter programmiert sichs halt für nv-chipsätze ..

  • Zitat

    Original von CoffinDNC
    *kopfschüttel*


    Was ihr immer für seltsame Erfahrungen mit ATI habt, ist mir ehrlich ein Rätsel.


    Es sieht einfach scheisse aus, start mal z.B. Empire Total War auf ner nVidia Karte und dann auf ner ATI Karte, da glaubst du brauchst ne Brille weil die Schrit so unscharf ist.
    Bei ATI ist alles irgendwie verschmiert, das pack ich voll nicht.


    Hab das aber inzwischen auch schon 10x erwähnt.

    • Offizieller Beitrag

    Dann ist das aber sicher entweder ein Fehler des verwendeten Treibers, vergessene Aniso oder etwas in die Richtung.


    Dass ATI generell schelchter aussieht als Nvidia, lässt sich auf keinen Fall sagen. Im Grunde nehmen sich beide Hersteller in der Disziplin nicht viel. Bei dem Spiel scheint mal der vorn, beim anderen jener.


    Crysis ist ein Beispiel, wo Nvidia zu Beginn wegen Treiberproblemen z.B. schlechter aussah.


    Gibt bei beiden Ausreißer.