Ich muss ehrlich sagen, ich finde das gar nicht so schlimm - 'pseudo-trilinear' ist doch sinnvoll. Die Kunst bei Grafikkarten besteht seit langen schon darin, nicht 'verlustfrei' jeden Blödsinn anzuzeigen (der ja auch oft mehr oder weniger "pi mal daumen" berechnet wurde), sondern sinnvolle Ergebnisse auf den Bildschirm zu zaubern.
Was habe ich von mitunter vollkommen unnötiger trilinearer Filterung, wenn ich sie nicht sehen kann ? Was nützt mir theoretisches 16faches anisotropes Filtern, wenn ich das bei 0 oder 90° ersatzlos wegoptimieren kann ?
In meinen Augen ist das wirklich nicht einfach, zu sagen, was 'das richtige' (im Kundeninteresse) wäre - evtl. wäre ja ein abschaffen von allen technischen Kunstgriffen hin zu einer Skala von 0..100 (ungefähr bis so gut wie's geht) sinnvoller ?
Auf jeden Fall macht es Sinn, unterschiedliche Treiberversionen nicht so wie bisher zu vergleichen - Grafiktreiberentwicklung ist eben mehr als triviales Assembler-Optimieren. Wenn ich nur dieselben Pixel auf dem Bildschirm sehen will, brauche ich keine neuen Treibergenerationen.
HansJürgen
|