ZeHa hat geschrieben:
Das einzige, was ich bestätigen kann, ist daß TFTs oft ein schärferes Bild haben als CRTs. Aber das liegt oft halt auch am Alter. Und auch bei TFTs gibt es irgendwann Alterserscheinungen, da z.B. die blauen LEDs am schnellsten an Leuchtkraft verlieren und man irgendwann einen Gelbstich hat.
Welche blauen LEDs? Soweit ich das Prinzip eines TFT-Monitors verstanden
habe, ist es eine Kombination aus Taschenrechner-Display und einer
Leuchtplatte.
Was gleichmäßig weißes helles Licht betrifft, kann man als Foto interessierter
Mensch mal einen Blick auf die Produkte von Just Normlicht werfen.
Über dieser Lichtplatte befinden sich mehrere schichten von diesen
Taschenrechner-Displays. Sagen wir mal 255 Stück.
Damit unser Normlicht Rot, Grün und Blau darstellen kann,
wird das weiße Licht einfach mit einer Farbfilterfolie in die drei Grundfarben
geteilt.
Wenn ein Pixel heller sein soll, zeigen die Taschenrechner-Displays
halt nix an. Und soll ein Pixel dunkler werden, werden sie unter Strom
gesetzt, das Gas darin dadurch zum Dunkelwerden gezwungen und
so wird verhindert, dass das Licht hindurch dringt.
Bei Kontrastarmen TFTs liegt es an nicht ganz durchsichtigen Taschenrechner-Displays
oder an zu schwachem Licht von Hinten (Backlight)
@Falo
Möchte dich doch mit dir nicht über Bildschirme streiten.
Ich weiß nur, dass ein 19" CRT von ALDI und Co. nach zwei Jahren
einfach zu sehr flimmert und das Bild matschig wird.
Und ein TFT ohne digitale Signalansteuerung ähnlich
matschige Bilder zeigt wie alte CRTs. Schlieren und Schatten.
Farbverfälschungen und Farbverläufe. Unscharfes Bild und
merkwürige Bildzuckungen. Beeinflusst von Radio, Handy und Lautsprechern.
Und gute CRTs haben auch ihren Preis.
Hab mal vor 3 Jahren einen für 10.000,- $ gesehen von IBM.
Der hatte 4 x HDTV-Auflösung.
Als 3880 x 2048.
Dsa Problem bei relativ günstigen Monitoren ist einfach,
dass die selten gleichmäßiges Licht im Hintergrund haben und
dadurch die Ränder um einiges dunkler sind als teurere.
Und durch weniger Taschenrechner-Display-Schichten,
weniger Farben darstellen können. Keinen Prozessor für
besseren Kontrast integriert haben und die bekannten Störbilder
durch das analoge Signal erzeugen.
Ich will damit nicht alle Monitore über einen Kamm scheren.
Aber es gibt einen Grund, wieso die jetzt kurz vor Weihnachten
und vor dem neuen Jahr alle Monitore ohne DVI loswerden wollen.
Die werden stehen bleiben, wenn der Kunde die Wahl hat zwischen:
140,- Euro analog mit leicht matschigem Bild,
vielleicht nur 1440 x 900 Pixeln
und einem 160,- Euro Monitor mit DVI und 1680 x 1050
oder einem 180,- Euro mit HDMI und HDCP* und großen Brüsten etc.
und 1920 x 1080.
(*wollte erst DHCP schreiben)
Analog geht soweit ich weiß auch nur bis zu einer bestimmten Größe.
Die Frage für Stargate wäre ja dann auch, ob er nicht etwas spart
und sich dann ein Apple Cinema Display zulegt
Wäre jetzt für den langen Code das beste. Oder einen Beamer.
Die kann man auch Lücken los erweitern, wenn man genügend
Grafikkartenanschlüsse hat
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
Kurz. Mein SuperMonitor hat auch Analog und Digigal als Anschluss.
Und wenn ich ihn über VGA betreibe, macht Code-Kucken keinen Spaß.
Über DVI hab ich die ersten Monate schon beim Anblick fast Dinge erlebt,
die hier nicht jugendfrei sind.
