Die Kamerasensoren werden stetig verbessert. Mit jeder neuen Kamerageneration wird auch der Dynamikbereich, den der Sensor abbilden kann, größer. Braucht man heutzutage dann eigentlich noch HDR-Bilder oder liefert die Entwicklung einer modernen RAW-Datei Bilder, die einen vergleichbaren Dynamikumfang besitzen wie getonemappte HDR-Aufnahmen?
Unser Auge kann Kontraste in einem Verhältnis von 10.000:1 erfassen, das sind ca. 14 LW (Lichtwerte, engl. EV = exposure value). Da das Auge aber kein starres System ist, kann es sich Lichtsituationen anpassen, außerdem ist unser Gehirn ein leistungsstarkes Rechenzentrum, das die vom Auge gelieferten Bildinformationen blitzschnell verarbeitet und interpretiert. Deshalb können wir Kontraste bis 1.000.000.000:1 unterscheiden. Umgerechnet in LW sind dies fast 30 LW. (Für Interessierte: Um das Kontrastverhältnis in Lichtwerte umzurechnen muss der dekadische Logarithmus des Kontrastverhältnisses mit dem Faktor 3,32 multipliziert werden.) Fairerweise muss man berücksichtigen, dass in einer konkreten Situation der von uns zu einem genauen Zeitpunkt wahrgenommene LW-Umfang trotzdem geringer ist, da sich das Auge sehr schnell adaptiert, wenn man den Blick vom Schatten in einen sonnigen Bereich einer Szene schweifen läßt. Ein einzelnes (RAW-)Foto muss diesen gewaltigen Kontrastumfang ohne Adaption auf ein Mal abbilden!
Eine typische Tagesszene hat einen Dynamikumfang von 18-22 LW. Um alle Details zu erfassen genügen also die 8,5 LW des Sensors meiner Nikon D800 nicht. Moderne Filme können 5 bis 8 LW darstellen.
Will man also den tatsächlichen Dynamikumfang einer Szene mit starken Kontrasten abbilden, muss man mehrere Fotos der Szene (am besten vom Stativ aus!) bei verschiedener Belichtung aufnehmen und diese dann per entsprechender Software geeignet zusammensetzen. Damit erhält man ein sogenanntes HDRI (high dynamic range image). Viel nutzt einem das noch nichts, da es momentan kaum (bzw. nur unbezahlbare) Ausgabemedien gibt, die dieses Kontrastverhältnis darstellen können. Zum Beispiel kann ein guter alter Röhrenmonitor nur ca. 9 LW darstellen. Deshalb müssen HDR-Bilder durch das Tonemapping wieder in ein darstellbares Bild „heruntergerechnet“ werden.
Lohnt sich jetzt der Aufwand beim Erstellen von HDR-Bildern oder kann man durch das Entwickeln der Kamerarohdaten moderner Sensoren ain ähnlich gutes Ergebnis erreichen? Dazu hier mal zwei Beispiele:
Der erste Vergleich zeigt zwei Bilder derselben Abendszene. Das HDR-Bild wurde mit Nik HDR Efex Pro 2 aus einer Belichtungsreihe von 9 Raw-Dateien (jeweils ein LW Belichtungsabstand) einer Nikon D800 erstellt. Das RAW-File mit der mittleren Belichtung wurde mit Lightroom entwickelt.
Zunächst das HDR-Bild:

und hier die entwickelte RAW-Datei:

Die Bilder wurden manuell beschnitten, weshalb die Ausschnitte leicht variieren.
Der Unterschied beider Bilder ist meiner Meinung nach nicht besonders groß. Die Wolken beim HDR zeigen etwas mehr Struktur.
Das zweite Beispiel zeigt eine Tages-Landschaftsaufnahme. Das HDR wurde aus einer Belichtungsreihe mit 5 Aufnahmen (ein LW Belichtungsabstand, ebenfalls Nikon D800) mit Nik HDR Efex Pro 2 erzeugt.
Auch hier zunächst das HDR-Bild:

und die entwickelte RAW-Datei:

Hier ist der Unterschied nun deutlich sichtbar. Dies liegt zum Teil aber auch am verwendeten Tonemapping. Die Einstellungen beim Tonemapping sind Geschmackssache und deshalb sehr subjektiv. Von einem realistisch/natürlichen bis zu einem stark surrealen Bildlook ist beim Tonemapping alles möglich. Die Details im Schatten sind bei der HDR-Version deutlich besser sichtbar. Dafür gibt es aber auch deutlich sichtbare Halos, besonders in der linken oberen Ecke. Das entwickelte RAW-Bild entspricht viel mehr dem, was wir seit über 100 Jahren Photografie gewohnt sind zu sehen. Bei starken Helligkeitskontrasten werden die Schattenpartien deutlich dunkler (bis zum Absaufen) oder die hellen Bereiche brennen aus. Ganz so schlimm wie sich das jetzt anhört ist es nicht, aber Ansätze davon sind im letzten Bild schon erkennbar. Dennoch zeigt das RAW mehr Details als es zu analogen Filmzeiten ohne aufwendige Nacharbeit mit Abwedeln und anderen Dunkelkammertechniken möglich war darzustellen.
FAZIT:
Durch die gestiegene Abbildungsleistung moderner Kameras ist es nicht mehr so häufig nötig, HDR-Belichtungsreihen aufzunehmen. Durch die Möglichkeit der RAW-Entwicklung erreicht man bei vielen Belichtungssituationen ein gutes bis sehr gutes Ergebnis. Natürlich gibt es nach wie vor extreme Belichtungssituationen, bei denen der Dynamikbereich eines RAW-Fotos nicht ausreicht, hier kommt man ohne die HDR-Technik nicht aus. Die Situationen, in denen das aber so ist, sind weniger geworden.
Seit ich die Nikon D800 besitze mache ich wesentlich weniger HDRIs. Zum einen, weil mir der Dynamikumfang des Sensors ausreicht, zum anderen aber auch einfach aus dem praktischen Grund, dass es mit der D800 wegen der langsamen Bildfolge (und der erzielbaren Schärfe aus der Hand) schwierig bis unmöglich ist, längere Belichtungsreihen ohne Stativ aufzunehmen.