![]() |
HalliHallo,
hab grad unter http://wcm.tri.at/news.asp?nnr=4769 gelesen, daß die Voodoo4 Ös 2.400,-- kosten soll. Nur wo kriegt man die um diesen Preis bzw. wer sagt das ? Hab gerade unter http://www.geizhals.at nachgeschaut. Da ist nur der Pgv und der Vds eingetragen. Bei Pgv kriegens das Ding in ca. 3 Wochen und beim Vds bin ich gestern nicht mehr durchgekommen. Mich interessiert das ganz besonders, weil ich genau jetzt so eine Karte brauch. Thx. |
Zu dem Preis: Ich hab leider nur den ungefähren Dollar Preis ~150 US-Dollar.
Da ich als Umrechnugsfaktor in diesem Fall immer 16 nehm... Preise in den News sind oft nur Richtpreise (sollte eigentlich klar sein) - Doch sieht man sich die Preise der 3dfx Karten an - somit wird der Preis mit 2.400,- bis 3.000,- (der Dollar is jetzt wirklich sehr "ungünstig"...) nicht so falsch liegen... Am Tag der Meldung, sprich gestern, hat 3dfx die Karten weltweit auszuliefern begonnen- somit dauerts halt noch ein Weilchen...) Das Händler Produkte im Geizhals reinstellen die sie erst in 3 Wochen - so wie du es sagst - erhalten, lasse ich mal so stehen... PS: Lord ich dachte du hast eh eine V5 5500... |
Ja, ist auch nicht direkt für mich. Thx, damit ist alles klar. Hab grade eine Antwort vom Vds bekommen, daß die Karte in einem Tag lieferbar ist.
[Dieser Beitrag wurde von The_Lord_of_Midnight am 13. September 2000 editiert.] |
Hab grade mit Vds telefoniert. Die Mail mit der Voodoo4 war ein Mißverständnis. Gemeint war die Voodoo3. Die 4er kommt wahrscheinlich nächste Woche in Österreich in den Handel.
[Dieser Beitrag wurde von The_Lord_of_Midnight am 13. September 2000 editiert.] |
Wer braucht eigentlich eine Voodoo 4? Die ist doch saulangsam. Is ja schon eine V5 5500 nicht besonders hyperschnell. Und wie wird es wohl mit nur einem vsa-100 Chip aussehen? Traurig meine ich. Und da helfen mir die schönsten Bilderln nichts, wenn es ruckelt wie die Sau.
Schon mal Ultima 9 gespielt? Dafür ist eine Geforce 256 fast zu schwach. Wie wird es da mit einer Voodoo ohne T&L Einheit aussehen? |
Diese Meldung war überhaupt nicht cool, Zerocool ;) Na, Spaß beiseite. Mach Dir keine Sorgen um die Performance, das hat alles seine Gründe. Ich werd das Ding auf jeden Fall man antesten und bin gerne bereit, diese Infos auch der Wcm-Gemeinde zukommen zu lassen. Leider hab ich das Ultima 9 nicht und ich möchts mir auch nicht kaufen. Denn ich hab mometan ausreichend Games liegen, da brauch ich noch eine Weile, bis ich die alle durch habe. Auch wenns mich wirklich interessieren würde, also wenns mir irgendjemand schicken würde, nehm ichs gern und werd auch dazu meine Erfahrungen abliefern ;) .
Hast Du vielleicht meine Postings zum Thema Voodoo-Karten beobachtet ? Ich hab nie behauptet, daß diese die Performance-Killer sind. Deswegen kauft man auch keine Voodoo-Karte. Deren Vorteil ist die höchstmögliche Kompatibilität und Problemlosigkeit. (und sag nicht, mit Grafikkarten kanns keine Probleme geben) Ich kann Dir sagen, daß ich auf einem Athlon 500 selbst mit einer Voodoo3 2000 jedes mir bekannte 3D-Spiel mit 1024*768 in höchstmöglichen Qualtitätsstufen ohne ein einziges Ruckeln gespielt habe. (hab nicht mehr probiert, weil da hatte ich noch einen 17-Zöller) |
ZeroCool:
Ultima 9 ist selbst auf der Voodoo 3 einer Geforce 256 deutlich überlegen da Ultima 9 Glide optimiert ist und bei installierter 3dfx Karte die Glide Version statt Direct3D verwendet. LOM: Ich habe festgestellt das es bei der Voodoo 3 nahezu keinen Unterschied zwischen 1024*768 und 1600*1200 gibt. Beides ist absolut flüssig. [Dieser Beitrag wurde von Philipp am 13. September 2000 editiert.] |
Wenn man diversen Spieletest Glauben schenken darf, so ist die Voodoo5 eindeutig die beste Karte für Ultima 9 (Gamstar 10/2000 S.224).
Habe weder das eine noch das andere, aber wird schon stimmen, oder ? |
Nochwas zerocool:
Bevor wir weiterdiskutieren, solltest Du Dir unbedingt den Artikel auf folgendem Url durchlesen, damit Du vollständig infomiert bist: http://www.3dfx.com/3dfxTechnology/fsaa_article.html Anti-Aliasing vs. Transform and Lighting What You Probably Don't Know... ... The important point to remember is that once acceptable frame rates have been achieved, as is now the case, the goal should be to increase the quality of the scene as opposed to providing yet more frames per second. ... Some people have suggested that higher resolutions do not require FSAA. This is just plain false. That is unless you are talking about ultra-high resolutions such as 4096x4096 that are not yet technically feasible. While it is true that aliasing is less noticeable at higher resolutions, such as 1600x1200, it is also true that aliasing is still present and can be very distracting. In addition, using a higher resolution to reduce aliasing significantly affects performance. Thus higher resolutions should be viewed similarly to FSAA--both require additional fill-rate and memory bandwidth to support, and both increase image quality. However, only FSAA can truly eliminate aliasing. Therefore, FSAA at a lower resolution is more desirable than aliasing at a higher resolution. ... Unlike current hardware T&L solutions, which have created a significant disappointment with many gamers, FSAA will not disappoint! Und hier noch ein paar kritische Anmerkungen, um die Sinnhaftigkeit der aktuellen Leistungs- und Preisexplosion zu relativieren: http://209.197.102.68/graphic/00q3/0...eon256-03.html Aber auch die Anwendung muss die T&L-Einheit des Chips erkennen. Ansonsten liegt der Rechenpower der T&L-Unit einfach brach. Leider besitzen in der Praxis derzeit nur wenige Anwendungen eine T&L-Unterstützung für Grafikchips. http://209.197.102.68/graphic/00q3/0...eon256-12.html Haben Sie sich nie gefragt, warum ihre GeForce2-Grafikkarte nicht die doppelten Frameraten erzielt wie das Vorgängermodell GeForce 256? http://209.197.102.68/graphic/00q3/0...eon256-13.html Doch geradezu kläglich steht eine handelsübliche GeForce2-Karte da. Die Gainward-Karte bei 100 MHz Chiptakt liegt erzielt bessere Ergebnisse als die Standardkarte bei 200 MHz. Und das alles nur wegen dem hohen Speichertakt. Wir schließen daraus, dass der GeForce 2 GTS nur 300 MPixel/s anstelle der "offiziellen" 800 MPixel/s bei 32 Bit Farbtiefe liefern kann. ... Die Speicherbandbreite ist der wichtigste Faktor für heutige Highend-3D-Chips. Sicherlich kennt dieses Problem jeder in der 3D-Chipindustrie, doch keiner will darüber sprechen. Wir haben soeben bewiesen, dass Chips mit höchsten (theoretischen) Füllraten grundsätzlich nie zur Hochform auffahren können. |
Freut mich, daß die Voodoo-Karten so gut mit Ultima9 laufen. Daran sieht man mal wieder, daß solche Sprüche wie "Geforce=schnell", "Voodoo=langsam" in der Praxis nicht so einfach sind.
Ich denke, die Geschwindigkeit der aktuellen Voodoo-Karten ist ausreichend. Und die Voodoo4 ist eine Karte, die auch preislich sinnvoll ist. Denn nur wenige Leute sind bereit, für eine Grafikkarte 5 Tausender oder mehr auszugeben. Was der durchschnittliche Konsument braucht, sind in erster Linie funktionierende Produkte. Das geht nur dann, wenn die Entwicklung Schritt für Schritt vorangeht und die Produktzyklen nicht unnötigerweise verkürzt werden, denn wie man aus obigen Ausführungen erkennen kann, kann man diese Monster-Grafikkarten heute sowieso noch nicht ausnützen. Man sollte bei all der Freude an der technischen Finesse den praktischen Nutzen nicht aus den Augen verlieren. Immer das teuerste zu kaufen ist genauso falsch wie immer das billigste zu nehmen. [Dieser Beitrag wurde von The_Lord_of_Midnight am 13. September 2000 editiert.] |
Na da hat dich The_Lord_of_3dfx aber zugepflastert, was? *bg* :D
|
:D
Übrigens Bit: Ich schließ nicht aus, daß ich mir auch mal eine Geforce oder wie sie dann heißen wird, zulegen werde. Aber zum jetzigen Zeitpunkt sehe ich keinen Sinn darin. Und solange mich die Voodoo-Karten nicht enttäuschen, werd ich wahrscheinlich dabei bleiben. Machen doch die meisten Leute so: Wenn man mit einem Produkt oder einer Firma zufrieden ist, kauft man immer wieder. Das sollte man nie vergessen, bevor man wissentlich einen Kunden frustriert. (zumindest wenn einem die Zukunft "seiner" Firma nicht egal ist). [Dieser Beitrag wurde von The_Lord_of_Midnight am 13. September 2000 editiert.] |
so jetzt habe ich mir das marketing bla bla auch mal durchgelesen *schwitz*, und stelle folgendes fest:
v5 5500 mag ja eine hohe bandbreite haben, aber da die v4 nur einen chip hat, verfügt sie leider auch nur über einen speicher, dessen sdram bandbreite auch begrenzt ist. selbes problem wie bei einer geforce mx also: der speicher ist viiieeel zu langsam. das mit ultima ist klar. glide optimiert ist eben glide optimiert :D ein diesel fährt ja auch schlecht mit benzin ;) ich pers. würde niemals 5000,- für eine gk ausgeben. wozu auch? in einem halben jahr kostet die neue wieder soviel (oder mehr), und 5000,- sind für den a. framerate 40 reicht mir auch. also hinke ich immer eine generation hinterher, und spiele auch ganz gut, und spare nebenbei geld. hatte heute ein lustiges problem mit einer v5 5500. nach dem einbau in ein epox mainboard waren beim start von ut nur streifen zu sehen. -> nicht lustig. mit anderem mobo probiert -> selber effekt. karte defekt? überhaupt kommt mir das ding wie eine arge heizkanone vor. wieviel leistung verbrät dieses ding eigentlich? 35Watt oder so? irgendwie schaut die sache so aus, als hatte 3dfx ein bissal den zug verpasst. den 0,25µm sind nicht mehr ganz zeitgemäß. naja hoffen wir, dass 3dfx nochmal die kurve kriegt, denn eine diktatur von nvidia wäre sehr traurig (und auch teurer für die kunschaft). vielleicht wird ja mit der x-box alles besser und billiger |
Na ich werds probieren und schreib dann, obs in der Praxis ausreichend ist. Ich hatte zumindest noch nie ein Problem mit einer Voodoo-Karte, und mittlerweile hab ich schon einige gesehen. Ich hoffe, Du hast die Faqs gelesen (v5settings) ? Und die ganzen Via-Treiber sind ordnungsgemäß installiert ? Denn aufgrund einer nicht sachgemäßen Installation auf die Qualtität eines Produktes zu schließen, ist einfach falsch. (Das hat sicher schon eine unendliche Schar an Computer-Technikern leidvoll erfahren) Ob diese Karte defekt ist, kann ich nicht sagen, aber das kanns bei jedem Produkt geben. Ich hatte zumindest noch keinen einzigen diesbezüglichen Garantiefall und mir ist auch noch keine einzige eingegangen. (da sind schon welche dabei, die länger ihren "Dienst" tun).
Das 3dfx den Zug verpasst hätte, ist eine starke Vereinfachung der Realität. Du versuchst quasi durch Herausgreifen eines einzigen Merkmales ein hochkomplexes Produkt zu disqualifizieren, das eine Fülle von Komponenten und Eigenschaften hat. Das ist einfach falsch, denn jedes Produkt hat Vor- und Nachteile. Ich denke übrigens nicht, daß da oben nur Marketing steht. (Zumindest ist es nicht meine Absicht, hier Marketing zu machen). Willst Du alle diese Argumente jetzt einfach mit dem Worten "Marketing-Bla-Bla" vom Tisch wischen ? |
ist schon tw wahr was dort steht nur etwas übertrieben, wie es jeder hersteller tut.
ich habe sie nicht schlecht gemacht, sondern nur bemerkt, dass 3dfx rein fertigungstechnisch hinerherhinkt. denn die hitze, die dieses trum erzeugt macht mich genausowenig fröhlich, wie die "thermischen" quallitäten einer geforce I. diese streifen kommen sicher nicht von fehlerhaften treibern, schließlich mache ich ja sowas nicht zum ersten mal. ich denke eher, dass der zweite chip was hat. btw wenn ich zur installation eines produktes eine faq lesen muss ist es nicht mehr einfach und problemlos. ;) ich hüte mich strengstens davor irgendeinen modernen 3D beschleuinger als problemlos zu betrachten. ist in etwa wie ein rennwagen. hochgezüchtetund giftig. die einzigen karten mit nvidia chip, die ich als problemlos betrachten würde, sind die mit einem riva128. die elsa vicory erazor pci läuft einfach überall und immer. inzwischen schon seit 2,5 jahren. |
Ja, das heißt ja nur Faqs, ist aber Teil der Installationsanleitung. Ist noch vor dem Treiberdownload oder vor der Installation zu lesen. Wenn man in der Kundenunterstützung arbeitet sind Leute, die die Installationsdoku nicht lesen, das täglich' Brot. Aber in diesem Fall ist Kritik einfach nicht angebracht und ungerecht. Leute, die nicht lesen können, werden immer scheitern, egal was sie tun.
Soll jetzt nicht heißen, das ganz speziell Deine Grafikkarte nicht defekt sein kann. Klar ist auch, das kein Produkt absolut perfekt sein kann. Die optimale Entscheidung kann man aber nur treffen, wenn man über die jeweiligen Vor- und Nachteile bescheid weiß. Ich steig voraussichtlich dann auf Geforce um, wenn die meisten neuen Games darauf optimiert bzw. in erster Linie damit entwickelt und getestet worden sind. (Oder ist es eh schon soweit ?) Wennglich es schmerzlich ist, auf so manches alte aber gute Game verzichten zu müssen. Heute empfehle ich sie nur dann, wenn jemand Performance über alles wünscht. Dann muß sie oder er aber auch bereit sein, den entsprechenden Preis zu bezahlen. Denn Spitzentechnologie war immer noch teuer und teilweise unsicher. [Dieser Beitrag wurde von The_Lord_of_Midnight am 14. September 2000 editiert.] |
Btw: Heut ist die Message im Orf-Teletext auf Seite 108.
Was ich nicht ganz begreif ist der Satz "Die Grafikkarten sind zwar nicht mit allen Features der Voodoo5 ausgerüstet, sind dafür aber auch deutlich billiger". Soweit ich es verstanden habe, sind die Features exakt gleich. Der einzige Unterschied ist, daß die 5er zwei Vsa100 Chips mit jeweils 32 MB Memory hat und die 4er nur einen. |
soweit ich weis (habe es aber nicht nachgelesen) kann die 4 4500 nur 2x fsaa, da sich die beiden chips sonst das 4x fsaa teilen (jeder 2, da zeilenweise gerendert)) dadurch kommt es auch zu dem beobachteten performance einbruch, wenn man bei der 4500 das fsaa 2x aktiviert, da sie sich ebenso schwertut, wie die 5500 mit 4x fsaa.
|
Tolles Ding - halb so schnell wie ne V5500 und dann auch noch ein qualitativ schlechters Bild...
3000 Ischlinge wär mir das net wert - Lord hab ein einsehen und kauf die ne Geforce2 MX - die kannst wunderbar übertakten -- obwohl das willst ja nicht... Trotzdem is die in diesem Fall die wirklich bessere Wahl. Die Detonator 3 Trieber sind auch ausgereift - was will man mehr. |
Wie bereits angekündigt, ich werds mir anschauen und euch das Ergebnis bekanntgeben.
Das mit halb so schnell kann ich mir nicht vorstellen, denn wenn das alles in der Praxis so linear wäre, hätte ja die Voodoo5 mit "Fastest Performance" einen 3D-Mark 2000 Wert von 7000 !!! haben müssen. Weitere Erklärungen und Background-Informationen wären am passendesten in meinem Beitrag im Bereich Hardware "Voodoo5 5500 und 3D-Mark 2000" vom 19. August 2000 um 16:33 Uhr. Bist Du Dir sicher, daß die Bildqualität ohne Fsaa qualitativ schlechter als bei der Mx ist und nicht doch besser ? Bist Du Dir sicher, daß die Performance einbricht, ohne das Du es getestet hast ? Übrigens wird der Preis wahrscheinlich doch deutlich unter 3 Tausendern sein und nach dem ersten Run noch weiter sinken. Aber das kann man ja dann schön auf dem Geizhals beobachten. Ich hab auch schon oft genug gesagt, daß das Ziel der Voodoo-Karten nicht die größtmögliche Performance, sondern die größtmögliche Kompatibilität ist. Und das muß man auch einsehen. Aber nichts desto trotz: Ich werd das Ding auf praktische Tauglichkeit hin testen. Wenn der Preis noch weiter sinkt, wäre das der optimale Kompromiss. |
http://www.viahardware.com/v44500.htm
von da habe ich das mit dem "einbruch" bei verwendung von 2x fsaa und q3. schaltet man es aus sind mx und 4500 scheinbar fast gleich schnell. |
Ja, ist ein sehr interessanter Bericht. Hab mir auch die Bilder angeschaut, und die von der MX schauen grauslich aus. Da ist aber die Voodoo4 auch ohne Anti-Aliasing wesentlich besser. Wenn man sich diesen Lichteinfall unter der Tür anschaut, wo man die "Zähne" sehen soll: Bei der Mx ist alles so verschwommen, dass man überhaupt nichts erkennen kann. Egal warum das jetzt ist, aber dieser Vergleich ist für die Fisch. Ich kann mir beim besten Willen nicht vorstellen, das eine Mx so schlechte Grafiken bringt.
Die Framerate beim Fsaa erscheint mir gar nicht so schlecht. Ein Ruckeln würde man damit noch nicht bemerken. Soll doch jeder selbst einstellen, was er meint. Was mich bei diesem Test stört, sind die unrealistitischen Werte bei der Auflösung. Was für einen Sinn macht eine Einstellung von 800*600*16 bit Farbtiefe ? Ist doch sinnlos, wenn die Voodoo4 sowieso immer in True Color arbeitet. Oder ist das deswegen, weil die Mx dann nicht mehr so gute Werte bringen würde ? (Wer das testen kann, würd mich schon interessieren). Außerdem sehe ich überhaupt kein Problem in einer Auflösung von 1024*768*32bit. Ich denke sogar, daß 1280*1024*32bit ohne Probleme laufen wird, sowohl mit Unreal Tournament als auch mit Quake3. Und höhere Werte sind meiner Einschätzung nach uninteressant. |
Bei dem ganzen Pro und Contra sollte man einen Aspekt nicht vergessen: Nvidia hat im Moment schon eine derartig dominierende Rolle im Graka-Markt, und 3dfx sind die einzigen, die noch dagegen ankommen könnten, die aber auch schon mit dem Rücken zur Wand stehen. Etliche andere Firmen haben sich aus dem Geschäft zurückgezogen oder sind pleitegegangen. Vielleicht sollte man beim auf einer neuen Karte auch mal bedenken, was passiert, wenn 3dfx auch noch aus dem Rennen ist, und nicht immer nur auf die höchsten Frameraten schielen. Wenn nur noch Nvidia übrig ist, haben wir eine Situation wie bei den Betriebssystemen, wo es zu Microsoft für den ONU keine Alternative gibt. Und nicht gleich wieder anfangen mit Linux, und anderen. Das ist doch für Leute, die sich schon einigermaßen (oder vielleicht auch sehr) auskennen, sicher nicht für ONUs. Auf Microsoft schimpft seit Jahr und Tag jeder, weil die Produkte teuer und unzuverlässig sind und weil die Firma so dominiert, dass keiner mehr dagegen ankommt. Das blüht uns bei den Grakas im Falle dass Nvidia wirklich allein übrigbleibt. Vielleicht ist das für viele kein Kaufargument, für mich schon. Natürlich würd ich die 3dfx-Karten nicht kaufen, wenn sie ein Dreck wären. Aber sie sind ja eh gut und auch nicht teurer als die mit Nvidia-Chip. Vielleicht sollten alle, die immer von Geforce 2 GTS Ultra.... schwärmen auch mal daran denken , wie diese Geschichte weitergeht!
------------------ MfG. wol ------------------------- |
ATI gibts ja auch noch (radeon) und matrox wird sicher auch nach der g450 wieder was hübsches bringen. vielleicht bringen sogar die bitboys mal was heraus. maybe wird ja sogar die karte von videologic was gescheitet. alleiniger robin hood ist also 3dfx auch nicht.
|
IM DEZWMBER kommt die 3dfx rampage. schauen wir dann mal weiter. auch g800 schaut net so schlecht aus.
spunz |
dezember welches jahr ist die frage :D
die v 5 6000 müsste ja auch schon längst da sein. |
Zu einem nicht eingehaltenen Termin gehört aber mehr Kraft als ein unfertiges Produkt vorschnell auszuliefern ! Mir ist es lieber etwas weniger Performance zu haben und alles passt. Das ist wie bei einem Administrator. Der ist nur gut, wenn man gar nicht merkt, daß es ihn gibt. Und alle sagen: Was macht der den ganzen Tag, nur weil sie keine Ahnung haben. Diese Sprüche hört man doch jeden Tag, oder ?
|
Alle Zeitangaben in WEZ +2. Es ist jetzt 12:48 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag