![]() |
Unterschied zwischen 16 und 32bit??
Hab jetzt mal verschiedene vergleichs Benchmarks gemacht um zu wiessen wie meine Karte so dasteht. Jetzt täten mich eure Werte interessiern.
Also 3DMark2001se unter Win98se unübertaktet :D Standard: 3058 16bit: 3451 AA2, 16bit: 2762 AA4, 16bit: 1763 Und ob Trippel oder Double Z-Buffer is bei mir wurscht (warum? -was is das überhaupt??) und unter 800x600 bei 16bit: 3552 und bei 32bit: 3420 |
Hab bei meinen Sys. mit Standarteinstellungen(1024*768 32Bit) 7020 Punkte.
mfg auma |
das ist zwar schön für dich, hat aber nix mit diesem Thread zu tun ;)
|
ahh nicht?
|
Mich interrestier der Unterschied zwischen den enzelnen Features, nicht die gesamt Punkte zahl.
|
aso, najo die ATI zb is sogar in 16bit lahmer als in 32 bit, des is einfach graka abhängig!
|
es gibt sicher eine hilfe beim 3dmark, es gibt google, warum muss es immer das wcm-forum sein??
gruss, snowman |
Ihr verstet mich nicht ganz: Mich tät Interessieren, WIE groß der UNterschied bei andern Karten ist. ATI ist 16 langsamer als 32?? Das verwundert mich. Gleich gut lass ich mir einreden... aber langsamer??
|
Zitat:
|
Zitat:
dass du die unterschiede 16bit und 32bit bei anderen karten wissen wolltest, kam nicht wirklich raus. gruss, snowman |
Tut mir leid, ich hab mein bestes gegeben :D Aber jetzt ist es klar oder??
|
das steht für die farbtiefe...
die rechnung sieht so aus: 16 bit = 2^16 zustände 32 bit = 2^32 zustände das wären bei 16 bit 65536 zustände bzw. farben und bei 32 bit sinds so um die 16,5 millionen farben habs auch erst vor kurzem in digitaltechnik gelernt ;) hoffe, damit is dir weitergeholfen LG |
Zitat:
|
schon irgendwie komisch...
in der überschrift redest du von ganz was anderem als von benchmarkergebnissen... laut überschrift siehts so aus, als wolltest du den unterschied zwischen 16 und 32 bit wissen, im inhalt wolltest du andere benchmarkergebnisse hören... wenn man zu unfähig is, seine threads vernünftig zu formulieren (ich habs mittlerweile auch schon gelernt :D), dann braucht man sich gar nicht aufregen, wenn das ergebnis verfehlt wird ! |
Da ich bermekt habe, dass der Titel nicht eindeutig formuliert wurde, hab ich versucht innerhalb der Threades klar zu stellen was ich wissen will, denn den Titel kann man im Nachhinein nicht mehr ändern. Ich mach ja auch niemandem einen Vorwurf, und weil anscheinend nur der Titel durchgelesen wird, und nicht die Beiträge, mir der Unterschied zwischen 16 und 32 aber eh bekannt ist, können wir diesen Beitrag beenden!!
|
ati karten sind in 16 bit nur ein wenig schneller als in 32 bit, weil die treiber gleich auf 32 bit optimiert sind.
bei nvidia is das anders da is 16 bit um a eck schneller.... theoretisch ist 16 bit schneller weil weniger zu berechnen... und da rest is abhängig vom treiber und der hardware (jaja ganz schlau bin ich) und wieviel 3dmark punkte ich hab ist wurscht, weil das ja eh nix aussagt _(bähhhhhhh) ;-) |
Double Buffer Doppelt vorhandener Bildspeicher. Mit Hilfe des Double Buffers kann die Grafikkarte das nächste Bild erstellen, während sie das aktuelle anzeigt. Sobald das aktuelle Bild aufgebaut ist, holt sich die Karte das Bild aus dem Buffer und bereitet das nächste vor. Das sichert eine flüssige Darstellung.
http://www.overclocking-power.de/projects_gf2mx.htm http://www.chip.de/produkte_tests/un...sts_77437.html und hier der nachweis das das eigentlich grossteils treiberabhängig ist http://www.3dcenter.de/artikel/nvidi....81/index7.php |
@Ulic:"und wieviel 3dmark punkte ich hab ist wurscht, weil das ja eh nix aussagt _(bähhhhhhh) ;-)"
Der Vergleich, und darum geht es hier, zwischen 16bit und 32bit würde schon etwas aussagen, wenn es dir peinlich ist, kannst ja auch nur eine Prozentangabe machen ;) @LF: Super Seiten, jetzt bin ich schon wieder um einiges schlauer... nur leider befrchte ich hast du eine rießen Welle des Treiber testens bei mir ausgelöst :D Da rüst ich extra auf, und jetzt muss ich schon wieder jedem Frame nachrennen. :D |
Zitat:
16.7 Mio Farben wären 24Bit Farbtiefe, 2^32 sind ~4Milliarden /neunmalklugmode Werde heute mal benchen und morgen meine Unterschiede zwischen 16/32Bit posten... Allerdings sind die Unterschiede meist nicht so gross weil die Karten teilweise immer mit 32Bit rendern und dann bei Bedarf auf 16Bit runterrechnen. Da fallen dann nur noch die unterschiedlichen Texturgrössen bei 16/32Bit ins Gewicht... mfG Clystron |
Also hier mal meine Benchergebnisse, leider nur jeweils ein Durchlauf 3dMark 2001 mit Defaulteinstellungen (32Bit/16Bit)
Getestet hab ich das 1. und 2. Sys ausm Profil: 1. Sys 32Bit 3550 3dMarks 16Bit 3569 3dMarks 2.Sys 32Bit 3150 3dMarks 16Bit 3189 3dMarks Die Framerates der einzelnen Tests unterscheiden sich nur im 1-2 Frame-Bereich und das ist praktisch die Messungenauigkeit. Ev mach ich heute noch n Test mit reduzierter Auflösung wenn ich Lust habe... Man sieht dass bei meinen ATIs die Farbtiefe eigentlich egal ist. mfG Clystron |
Na die ATI san net schlecht :)
|
also ich hab seit meiner ersten radeon keine unterschiede mehr zuwüschen 16 und 32 bit die alte hatte immer um 3300 die neue hat jetzt so um 8500 oder waren es 9500 na egal wird ehh noch auf 10000+ aufgebohrt :)
|
hab gestern noch Tests in anderen Auflösungen gemacht, das Ergebnis ist das selbe...
hab nur festgestellt dass die Framerates kaum mit der Auflösung skalieren -> die Graka hat genug Saft für den Prozzi :) mfg Clystron |
| Alle Zeitangaben in WEZ +2. Es ist jetzt 08:06 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag