Tobi Becq
Tone Mapping I
Moderne Kameras bieten heute eine stufenlose Dynamikbereichskorrektur an, die eigentlich ganz gut funktioniert. Die Kamera, egal ob in manuellem oder einem Automatikmodus ausgelöst, beaufschlagt dann intern einfach zu dunkle Bildbereiche mit einem höheren ISO-Wert, resp. dem Helligkeits- und leider auch dem Rauschäquivalent des entspr. höheren ISO-Wertes. Das macht sie dynamisch, je nachdem wie sie eine Szene einschätzt und welche Stufe der Nutzer vorwählt.
Im Grunde mache ich hier nichts anderes. Ich belichte zuerst im Histogramm relativ weit nach links, bzw. ausschließlich für die hellen Bildbereiche. Dann später am Computer reiße ich einfach nach Lust und Laune oder Bedarf die Tiefen auf, um so einen insgesamt genehmen, der Dynamik eines modernen Monitors angemessenen Bildeindruck zu vermitteln. Besonders bei dynamisch sehr delikaten Szenen, etwa im Gegenlicht, an Sonnentagen im Wald oder eben in engen schattigen Gassen, mit den jeweils sehr grellen Sonnenlichtspotts, ist diese Technik das Mittel der Wahl. Alles was man nachträglich aufhellt ist nicht schlechter, als hätte man es zuvor bei gleicher Belichtungszeit, aber einem entspr. höheren ISO-Wert fotografiert. Würde man mittig oder gar rechts belichten, so hätte man sich sehr wohl bessere Tiefen erkauft, aber nur um den Preis von ausgebrannten Lichtspots. Genau das gilt es aber zu vermeiden, möchte man aus einem RAW die mögliche Sensordynamik umfänglich nutzen, ohne zuviel Qualität in den Tiefen einzubüßen und diese Technik reicht heute auch für die meisten Situationen. Sie hat darüber noch den Vorteil, dass man etwaige Verwackler durch längeres Rechtsbelichten vermeidet.
Da hier ja wegen der unberechenbaren Lichtverteilung in den Motiven auch ein Verlaufsfilter überfordert wäre, hätte man früher bei diesem schwierigem Licht noch Belichtungsreihen gebraucht, so man denn abgeschnittene Höhen und Tiefen hätte vermeiden wollen, weiße und schwarze Bereiche in einem tolerablen Rahmen können ja auch ein Stilmittel sein. Aber seit ein paar Jahren, seit es iso-invariante Sensoren gibt, die die Signalwandlung noch vor der Signalverstärkung auf dem Sensor implementiert haben, sind Belichtungsreihen weitgehend obsolet, da man beim händischen, nachträglichen Nachbelichten nicht länger Gefahr läuft, das Verstärkerrauschen mit aufzuziehen und damit zu potentieren. Allerdings ist das stark vereinfacht dargestellt, denn es gibt noch andere Störquellen in jedem Prozessschritt von der Fotozelle bis zur fertigen RAW-Datei.
Es ist trotzdem zumindest näherungsweise möglich, von der Postproductiongängigkeit und Tone Mapping Toleranz einer RAW-Datei auf die Qualität eines Sensors und Bildprozessors zu schließen. Es gibt im Sensorlayout wohl immer Zielkonflikte zwischen einem guten Signalrauschabstand und hohem Basis-ISO-Dynamikumfang, guter Hoch-ISO-Stabilität für den Sport und der entspr. Auslesegeschwindigkeit, die ja bei Sportkameras auch nicht ohne ist und ebenfalls thermische Frickeleien macht. Wenn man mit 4k über die ganze Sensordiagonale filmen, 10 Bilder in der Sekunde bei immerhin gut 40MP auslesen, 15 Stops Basisdynamikumfang haben und trotzdem bei ISO6400 noch verwertbare Bilder erhalten will, dann fordert das eine Fab ganz schön heraus, dann wird die Produktion eines Sensors schnell sehr, sehr teuer und aufwändig.
Oder man macht es einfach wie Canon. Man verbaut wesentlich schlechtere Sensoren, die nur einen Bruchteil kosten, dafür um Potenzen mehr ausgemappte Defekte mitbringen und macht dann alles über die 'Skintones' und 'Menues' wieder gut. Das kann man tun, wenn der Markt es mit sich machen lässt. Ja, man wäre vielleicht sogar blöde, würde man das Geld der Shareholder in zu guten Sensoren verbrennen, die der Markt augenscheinlich gar nicht vermisst oder einfordert. Gute Sensoren sind was für Toycams wie meine.
Tone Mapping I
Moderne Kameras bieten heute eine stufenlose Dynamikbereichskorrektur an, die eigentlich ganz gut funktioniert. Die Kamera, egal ob in manuellem oder einem Automatikmodus ausgelöst, beaufschlagt dann intern einfach zu dunkle Bildbereiche mit einem höheren ISO-Wert, resp. dem Helligkeits- und leider auch dem Rauschäquivalent des entspr. höheren ISO-Wertes. Das macht sie dynamisch, je nachdem wie sie eine Szene einschätzt und welche Stufe der Nutzer vorwählt.
Im Grunde mache ich hier nichts anderes. Ich belichte zuerst im Histogramm relativ weit nach links, bzw. ausschließlich für die hellen Bildbereiche. Dann später am Computer reiße ich einfach nach Lust und Laune oder Bedarf die Tiefen auf, um so einen insgesamt genehmen, der Dynamik eines modernen Monitors angemessenen Bildeindruck zu vermitteln. Besonders bei dynamisch sehr delikaten Szenen, etwa im Gegenlicht, an Sonnentagen im Wald oder eben in engen schattigen Gassen, mit den jeweils sehr grellen Sonnenlichtspotts, ist diese Technik das Mittel der Wahl. Alles was man nachträglich aufhellt ist nicht schlechter, als hätte man es zuvor bei gleicher Belichtungszeit, aber einem entspr. höheren ISO-Wert fotografiert. Würde man mittig oder gar rechts belichten, so hätte man sich sehr wohl bessere Tiefen erkauft, aber nur um den Preis von ausgebrannten Lichtspots. Genau das gilt es aber zu vermeiden, möchte man aus einem RAW die mögliche Sensordynamik umfänglich nutzen, ohne zuviel Qualität in den Tiefen einzubüßen und diese Technik reicht heute auch für die meisten Situationen. Sie hat darüber noch den Vorteil, dass man etwaige Verwackler durch längeres Rechtsbelichten vermeidet.
Da hier ja wegen der unberechenbaren Lichtverteilung in den Motiven auch ein Verlaufsfilter überfordert wäre, hätte man früher bei diesem schwierigem Licht noch Belichtungsreihen gebraucht, so man denn abgeschnittene Höhen und Tiefen hätte vermeiden wollen, weiße und schwarze Bereiche in einem tolerablen Rahmen können ja auch ein Stilmittel sein. Aber seit ein paar Jahren, seit es iso-invariante Sensoren gibt, die die Signalwandlung noch vor der Signalverstärkung auf dem Sensor implementiert haben, sind Belichtungsreihen weitgehend obsolet, da man beim händischen, nachträglichen Nachbelichten nicht länger Gefahr läuft, das Verstärkerrauschen mit aufzuziehen und damit zu potentieren. Allerdings ist das stark vereinfacht dargestellt, denn es gibt noch andere Störquellen in jedem Prozessschritt von der Fotozelle bis zur fertigen RAW-Datei.
Es ist trotzdem zumindest näherungsweise möglich, von der Postproductiongängigkeit und Tone Mapping Toleranz einer RAW-Datei auf die Qualität eines Sensors und Bildprozessors zu schließen. Es gibt im Sensorlayout wohl immer Zielkonflikte zwischen einem guten Signalrauschabstand und hohem Basis-ISO-Dynamikumfang, guter Hoch-ISO-Stabilität für den Sport und der entspr. Auslesegeschwindigkeit, die ja bei Sportkameras auch nicht ohne ist und ebenfalls thermische Frickeleien macht. Wenn man mit 4k über die ganze Sensordiagonale filmen, 10 Bilder in der Sekunde bei immerhin gut 40MP auslesen, 15 Stops Basisdynamikumfang haben und trotzdem bei ISO6400 noch verwertbare Bilder erhalten will, dann fordert das eine Fab ganz schön heraus, dann wird die Produktion eines Sensors schnell sehr, sehr teuer und aufwändig.
Oder man macht es einfach wie Canon. Man verbaut wesentlich schlechtere Sensoren, die nur einen Bruchteil kosten, dafür um Potenzen mehr ausgemappte Defekte mitbringen und macht dann alles über die 'Skintones' und 'Menues' wieder gut. Das kann man tun, wenn der Markt es mit sich machen lässt. Ja, man wäre vielleicht sogar blöde, würde man das Geld der Shareholder in zu guten Sensoren verbrennen, die der Markt augenscheinlich gar nicht vermisst oder einfordert. Gute Sensoren sind was für Toycams wie meine.