![]() |
Tut mir leid, ich hab mein bestes gegeben :D Aber jetzt ist es klar oder??
|
das steht für die farbtiefe...
die rechnung sieht so aus: 16 bit = 2^16 zustände 32 bit = 2^32 zustände das wären bei 16 bit 65536 zustände bzw. farben und bei 32 bit sinds so um die 16,5 millionen farben habs auch erst vor kurzem in digitaltechnik gelernt ;) hoffe, damit is dir weitergeholfen LG |
Zitat:
|
schon irgendwie komisch...
in der überschrift redest du von ganz was anderem als von benchmarkergebnissen... laut überschrift siehts so aus, als wolltest du den unterschied zwischen 16 und 32 bit wissen, im inhalt wolltest du andere benchmarkergebnisse hören... wenn man zu unfähig is, seine threads vernünftig zu formulieren (ich habs mittlerweile auch schon gelernt :D), dann braucht man sich gar nicht aufregen, wenn das ergebnis verfehlt wird ! |
Da ich bermekt habe, dass der Titel nicht eindeutig formuliert wurde, hab ich versucht innerhalb der Threades klar zu stellen was ich wissen will, denn den Titel kann man im Nachhinein nicht mehr ändern. Ich mach ja auch niemandem einen Vorwurf, und weil anscheinend nur der Titel durchgelesen wird, und nicht die Beiträge, mir der Unterschied zwischen 16 und 32 aber eh bekannt ist, können wir diesen Beitrag beenden!!
|
ati karten sind in 16 bit nur ein wenig schneller als in 32 bit, weil die treiber gleich auf 32 bit optimiert sind.
bei nvidia is das anders da is 16 bit um a eck schneller.... theoretisch ist 16 bit schneller weil weniger zu berechnen... und da rest is abhängig vom treiber und der hardware (jaja ganz schlau bin ich) und wieviel 3dmark punkte ich hab ist wurscht, weil das ja eh nix aussagt _(bähhhhhhh) ;-) |
Double Buffer Doppelt vorhandener Bildspeicher. Mit Hilfe des Double Buffers kann die Grafikkarte das nächste Bild erstellen, während sie das aktuelle anzeigt. Sobald das aktuelle Bild aufgebaut ist, holt sich die Karte das Bild aus dem Buffer und bereitet das nächste vor. Das sichert eine flüssige Darstellung.
http://www.overclocking-power.de/projects_gf2mx.htm http://www.chip.de/produkte_tests/un...sts_77437.html und hier der nachweis das das eigentlich grossteils treiberabhängig ist http://www.3dcenter.de/artikel/nvidi....81/index7.php |
@Ulic:"und wieviel 3dmark punkte ich hab ist wurscht, weil das ja eh nix aussagt _(bähhhhhhh) ;-)"
Der Vergleich, und darum geht es hier, zwischen 16bit und 32bit würde schon etwas aussagen, wenn es dir peinlich ist, kannst ja auch nur eine Prozentangabe machen ;) @LF: Super Seiten, jetzt bin ich schon wieder um einiges schlauer... nur leider befrchte ich hast du eine rießen Welle des Treiber testens bei mir ausgelöst :D Da rüst ich extra auf, und jetzt muss ich schon wieder jedem Frame nachrennen. :D |
Zitat:
16.7 Mio Farben wären 24Bit Farbtiefe, 2^32 sind ~4Milliarden /neunmalklugmode Werde heute mal benchen und morgen meine Unterschiede zwischen 16/32Bit posten... Allerdings sind die Unterschiede meist nicht so gross weil die Karten teilweise immer mit 32Bit rendern und dann bei Bedarf auf 16Bit runterrechnen. Da fallen dann nur noch die unterschiedlichen Texturgrössen bei 16/32Bit ins Gewicht... mfG Clystron |
Also hier mal meine Benchergebnisse, leider nur jeweils ein Durchlauf 3dMark 2001 mit Defaulteinstellungen (32Bit/16Bit)
Getestet hab ich das 1. und 2. Sys ausm Profil: 1. Sys 32Bit 3550 3dMarks 16Bit 3569 3dMarks 2.Sys 32Bit 3150 3dMarks 16Bit 3189 3dMarks Die Framerates der einzelnen Tests unterscheiden sich nur im 1-2 Frame-Bereich und das ist praktisch die Messungenauigkeit. Ev mach ich heute noch n Test mit reduzierter Auflösung wenn ich Lust habe... Man sieht dass bei meinen ATIs die Farbtiefe eigentlich egal ist. mfG Clystron |
Alle Zeitangaben in WEZ +2. Es ist jetzt 20:15 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag