Zitat:
Zitat von FranzK
Nein, du bist es, der seine Unwissenheit öffentlich kundtut  . Natürlich muss ein TFT-Schirm sinnvollerweise immer mit der nativen Auflösung angesteuert werden. Das ist aber Sache der Graphikkarte, die auf die richtige Auflösung eingestellt werden muss.
In Windows hat man aber auch die Möglichkeit, die optische (und nicht physikalische!!!) Auflösung der Ausgabeeinheit einzustellen. Wenn man bei einem 1920x1200-Schirm statt des Standards von 96dpi aber z.B. 192dpi einstellt, entspricht die Anzeige einem Schirm von 960x600 Punkten. Da aber zur Darstellung viermal so viele Pixel zur Verfügung stehen (und zwar richtig gerendert und nicht vergröbert, wie wenn man die Pixelanzahl herunterdreht!!!), hat man ein unvergleichlich besseres Bild! Schriften wirken wie gedruckt und die meisten Programme können heute mit der geänderten optischen Auflösung gut umgehen (was eigentlich bei richtigem Design vorausgesetzt werden sollte; es war aber vor 10 Jahren eher die Ausnahme; da gab es viele Programme, die unbrauchbar wurden).
Klarerweise übertreibt man in der Praxis nicht derart (oder nur in Ausnahmefällen). Aber eine Einstellung von 120-130dpi rückt die Größenverhältnisse wieder in gewohnte Dimensionen und man hat für die Darstellung fast doppelt so viele Pixel zur Verfügung, was ausschließlich in eine bessere Bildqualität einfließt.

|
Ich lasse mich gerne belehren.
Sollte ja auch der Hauptzweck derartiger Diskussionen sein, daß man versucht was neues zu lernen
Jetzt mal ganz langsam zum Nachverfolgen.
Also was genau wäre der Vorteil wenn ich einen Schirm von 1920 * 1600 nehme.
Oder ich nehme einen gleich großen Schirm der z.b. nur eine Auflösung von 1600 * 1333 hat ?
Grundsätzlich ist mal alles größer auf dem Schirm mit der kleineren Auflösung.
Was genau stellst du ein, damit du auf einem Schirm mit einer offensichtlich viel zu hohen Auflösung alles stufenlos regeln kannst ?
Und wie vermeidet man dann Interpolierungseffekte durch die "ungeraden Auflösungsumrechnungen" ?
Denn du wirst ja niemals den Fall haben, daß du physikalisch exakt quadratisch genau 4 mal so viele Punkte zur Verfügung hast, wie du Pixels auf der Grafikkarte darstellst ?
Und was bringt es wenn ich viel mehr Pixel auf dem Monitor haben, als ich dann auf der Bildschirmauflösung darstelle ?
Ist doch eher ein Nachteil, wenn die Grafikkarte dann wesentlich mehr Daten verarbeiten muss ?