Schlagwort-Archive: Vergleich

Foto Basics: Die Blende

Dies ist der erste Artikel, der sich mit fotografischem Grundlagenwissen beschäftigt. Er richtet sich an Einsteiger, die ihr Wissen erweitern wollen und so ihre Bilder auf das nächste Level bringen möchten. Umsteiger, die von einer einfachen Point-and-Shoot-Kamera, bei der man nur den Auslöser drücken konnte, sonst aber keine Eingriffe in den Bildentstehungsprozess möglich waren, auf eine Spiegelreflexkamera oder eine Systemkamera aufgerüstet haben, werden mit vielen Zahlen konfrontiert: Blende, Verschlußzeit, ISO oder Brennweite. Erst die Kenntnis, was diese Werte bei einem Foto bewirken und der bewußte Umgang damit ermöglicht eine geplante Bildwirkung. Die teuere Spiegelreflex- oder Systemkamera einfach auf Totalautomatikstellung zu betreiben bringt keine besseren Bilder als beim „Knipsen“ mit einer einfachen Point-and-Shoot-Kamera.

Erklärungen zu den Grundlagen der Fotografie werden hier im Blog in loser Folge immer mal wieder erscheinen. Los geht’s mit der Blende, die jedes moderne Objektiv besitzt.

Die Blende steuert die Bildhelligkeit des aufgenommenen Gegenstandes auf dem Sensor (bzw. Film). Dank einer Irisblende kann man die Öffnung der Blende verändern. Eine Irisblende hat viele überlappende Blendenlamellen, so dass sich die Blendenöffnung pupillenartig vergrößern und verkleinern lässt. Je größer die Blendenöffnung, desto mehr Licht fällt auf den Bildsensor. Dabei ist es für den Anfänger oft verwirrend, dass eine große Blendenöffnung  einer kleinen Blendenzahl entspricht. Dies ist in den nächsten Bildern an einem Samyang 85mm-Objektiv verdeutlicht. Blende 1.4 (Offenblende) zeigt eine große Lichtöffnung, bei Blende 8 ist sie deutlich kleiner.

Samyang 85mm/1.4

Blendenvergleich

Blendenöffnungsvergleich beim Samyang 85mm/1.4: Offenblendig und bei Blende 8

Wie kommt nun der Zahlenwert der Blende zustande? Wäre es nicht einfacher, den Öffnungsdurchmesser der Blende als Zahlenwert in Millimeter anzugeben? Nein, das geht deshalb nicht, da die Blende die Helligkeit des Bildes auf dem Sensor regelt und diese hängt auch noch von der Brennweite des verwendeten Objektivs ab. Vergleicht man die Bildhelligkeit eines Gegenstandes, der mit einem  Weitwinkel- und einem Teleobjektiv bei gleichem Öffnungsdurchmesser der Blende aufgenommen wurde, dann ist das vom Teleobjektiv erzeugte (größere) Abbild des Gegenstandes dunkler. Die verwendeten Blendenzahlen berücksichtigen dies, so dass die Bildhelligkeit eines aufgenommenen Gegenstandes bei gleicher Blendenzahl stets die gleiche ist. Dies ist für die Belichtungsmessung wichtig.

Die nächste Abbildung demonstriert die verschiedene Bildhelligkeit bei verschiedenen Blendenwerten. Die restlichen Aufnahmeparameter (ISO, Verschlußzeit und Brennweite) wurden dabei nicht verändert. Bei Blende 5.6 ist das Foto zu hell, bei Blende 10 ist es richtig belichtet und bei Blende 16 ist es unterbelichtet.

Für den Anfänger mag der Zusammenhang zwischen der Blende und der Schärfentiefe noch interessant sein. Unter der Schärfentiefe versteht man den Bereich vor und hinter der genauen Einstellebene, der noch als ausreichend scharf wahrgenommen wird. Die Schärfentiefe wird um so größer, je mehr man abblendet (die Blendenöffnung verkleinert), also je größer die Blendenzahl wird. Die folgenden Bilder veranschaulichen dies (aufgenommen mit dem Walimex 85mm/1.4-Objektiv an einer Nikon D300).

Die Schärfentiefe hängt auch noch von der Brennweite des Objektivs ab. Bei gleicher Blende und Entfernungseinstellung ist die Schärfentiefe bei Weitwinkelobjektiven größer als bei Telebrennweiten.

Normalerweise ist die Blende beim Blick durch den Sucher vollständig geöffnet und wird erst direkt vor der Belichtung nach dem Drücken des Auslösers auf den eingestellten Wert (=Arbeitsblende) geschlossen. So hat man ein helles Sucherbild, kann aber den endgültigen Schärfeverlauf nicht kontrollieren. Bessere Spiegelreflexmodelle bieten hier Abhilfe mit einer sogenannten Abblendtaste. Solange diese gedrückt wird schließt sich die Blende auf den voreingestellten Wert, der Sucher verdunkelt sich entsprechend und man sieht den Schärfeverlauf so, wie er auf dem Foto sein wird.

Gestalterisch ist es oft nicht sinnvoll, alles von vorne bis hinten im Bild völlig scharf zu haben. Bildwichtige Details können über einen gezielt gesetzten Schärfeverlauf hervorgehoben werden. Bei Portraits lässt man z.B. den Hintergrund bewußt in der Unschärfe verschwinden, dafür verwendet man dann eine große Blende.

Leider sind lichtstarke Objektive mit einer großen Anfangsblendenöffnung sehr teuer. Generell gilt: je größer die Anfangsblende, desto teuerer (und auch schwerer) das Objektiv. Ein Tipp ist hierbei ein 50mm/1.8-Normalobjektiv. Alle Spiegelreflexkamerahersteller bieten ein solches Objektiv zu einem günstigen Preis an.

Fotografiert man mit ganz kleinen Blendenöffnungen, so kommt es trotz der großen Schärfentiefe zu einem allgemeinen Schärfeverlust. Hervorgerufen wird dieser durch die Beugung der Lichtstrahlen an den Rändern der Blende. Besonders fällt das bei Lochkameraaufnahmen auf, da hier mit extrem kleinen Blendenöffnungen gearbeitet wird. Das folgende Bild, aufgenommen mit einer Lochblende an einer Digitalkamera zeigt diesen Effekt deutlich.

Lochkameraaufnahme – große Schärfentiefe aber allgemeine Unschärfe

 

 

Sigma 150mm/2.8 APO MACRO EX DG OS vs. Sigma 100-300mm/4.5-6.7 DL

Diesmal möchte ich zwei Teleobjektive von Sigma für das Vollformat vergleichen. Obwohl ich als Wissenschaftler ausgebildet bin hat dieser Test keinerlei wissenschaftliche Ansprüche und wird rein qualitativ bleiben.

Hier die beiden „Kontrahenden“: In der linken Ecke das Sigma 100-300mm/4.5-6.7 DL.  In der rechten Ecke das Sigma 150mm/2.8 APO MACRO EX DG OS.

Sigma TeleobjektiveMir ist schon klar, dass ich hier Äpfel mit Birnen vergleiche. Schon allein der Preisunterschied von 900 Euro lässt vermuten, welches der Beiden die bessere Abbildungsleistung liefert. Außerdem, ein einfaches Zoomobjektiv gegen ein mit Bildstabilisator ausgestattetes, lichtstarkes, apochromatisch korrigiertes Makrobjektiv antreten zu lassen, liefert eine sichere Wette. Makroobjektiven wird von Hause aus eine bessere Abbildungsleistung abverlangt. Allerdings war ich neugierig darauf, wie sehr sich die Unterschiede im Fernbereich und ohne Nachbearbeitung der Bilder mit bloßem Auge bemerkbar machen.

Deshalb testete ich die beiden Objektive an der Nikon D800 am Vollformat mit der vollen Auflösung von 36MP auf einem stabilen Stativ. Eine Herausforderung für jedes Objektiv.

Hier nun die Ergebnisse (Klick macht groß!):

Zuerst ein Bild mit dem Zoomobjektiv (ISO200, f/8, 1/500s bei 155mm):

DSC_2259 Sigma100-300mm kleinUnd hier vom Makroobjektiv (ISO200, f/8, 1/500s, 150mm):

DSC_2257 Sigma150mm klein

Beide Bilder wurden nur verkleinert, ansonsten sind sie JPGs direkt aus der Kamera (SOOC = so out of cam). Der Unterschied fällt sofort auf. Das Makroobjektiv besticht durch einen vieeel besseren Kontrast.

Noch deutlicher wird der Unterschied, wenn man sich einen 100%-Ausschnitt vom linken oberen Bildrand betrachtet:

Auch hier zunächst wieder das Zoomobjektiv:

DSC_2259 Sigma100-300mm CropUnd hier das Makroobjektiv:

DSC_2257 Sigma150mm CropDas Zoomobjektiv zeigt deutlich weniger Details und geringeres Auflösungsvermögen. Kein wirklich überraschendes Ergebnis!

Ein zweites Beispiel bestätigt das Offensichtliche. Zunächst die beiden verkleinerten JPGs SOOC, zuerst das Zoomobjektiv wieder, dann das Makroobjektiv:

DSC_2260 Sigma 100-300mm DL kleinDSC_2261 Sigma150mm kleinUnd jetzt die 100%-Crops, diesmal von der rechten oberen Ecke:

DSC_2260 Sigma 100-300mm DL CropDSC_2261 Sigma150mm CropDer Sieger steht glasklar fest. Hier gilt: Das Geld lügt nicht. Braucht man Top-Qualität, so muss man tiefer in die Tasche greifen und wird mit wesentlich besseren Ergebnissen belohnt.

Den Kontrast kann man nachträglich in der Bildverarbeitung noch anheben, das Auflösungsvermögen nicht. Keine Software kann nicht erfaßte Details extrapolieren.

Hier noch ein paar Bilder vom Sigma 100-300mm-Objektiv selbst:

Für den kleinen Geldbeutel liefert das 100-300mm-Zoomobjektiv aber durchaus brauchbare Ergebnisse. Vorausgesetzt, man schraubt es nicht gerade an ein Pixelmonster wie die Nikon D800 und möchte keine riesigen Wandprints machen lassen. Einen Wermutstropfen gibt es allerdings beim 100-300mm Zoomobjektiv noch: Es besitzt keinen eingebauten AF-Motor. Um den Autofokus zu nutzen, muss man das Objektiv an einem Gehäuse mit eingebautem AF-Motor betreiben. Die „kleineren“ Nikon-Modelle besitzen leider keinen, so dass hier manuell am Objektiv fokussiert werden muss. Man kann sich dabei aber nach den Schärfeindikatoren im Sucher richten, die funktionieren trotzdem. Für mich war das kein Problem, da sowohl die Nikon D300 als auch die D800 über einen eingebauten AF-Motor verfügen.

Das Sigma 100-300mm-Objektiv habe ich zwischenzeitlich ohne Wertverlust (war ein Gebrauchtes) wieder verkauft (ich hatte es ca. ein halbes Jahr) und mir stattdessen ein nur unwesentlich teuereres altes Nikon Nikkor AF 4.5-5.6/75-300mm gesteigert. Dieses zeigt nach ersten Aufnahmen einen wesentlich besseren Kontrast als das 100-300mm von Sigma. Außerdem ist das Nikkor aus solidem Metall gefertigt und vermittelt schon deswegen haptisch ein solideres und wertigeres Äußeres. Durch die Metallbauweise ist es natürlich auch wesentlich schwerer als der Plastikbomber von Sigma.

RAW vs. HDR

Die Kamerasensoren werden stetig verbessert. Mit jeder neuen Kamerageneration wird auch der Dynamikbereich, den der Sensor abbilden kann, größer. Braucht man heutzutage dann eigentlich noch HDR-Bilder oder liefert die Entwicklung einer modernen RAW-Datei Bilder, die einen vergleichbaren Dynamikumfang besitzen wie getonemappte HDR-Aufnahmen?

Unser Auge kann Kontraste in einem Verhältnis von 10.000:1 erfassen, das sind ca. 14 LW (Lichtwerte, engl. EV = exposure value). Da das Auge aber kein starres System ist, kann es sich Lichtsituationen anpassen, außerdem ist unser Gehirn ein leistungsstarkes Rechenzentrum, das die vom Auge gelieferten Bildinformationen blitzschnell verarbeitet und interpretiert. Deshalb können wir Kontraste bis 1.000.000.000:1 unterscheiden. Umgerechnet in LW sind dies fast 30 LW. (Für Interessierte: Um das Kontrastverhältnis in Lichtwerte umzurechnen muss der dekadische Logarithmus des Kontrastverhältnisses mit dem Faktor 3,32 multipliziert werden.) Fairerweise muss man berücksichtigen, dass in einer konkreten Situation der von uns zu einem genauen Zeitpunkt wahrgenommene LW-Umfang trotzdem geringer ist, da sich das Auge   sehr schnell adaptiert, wenn man den Blick vom Schatten in einen sonnigen Bereich einer Szene schweifen läßt. Ein einzelnes (RAW-)Foto muss diesen gewaltigen Kontrastumfang ohne Adaption auf ein Mal abbilden!

Eine typische Tagesszene hat einen Dynamikumfang von 18-22 LW. Um alle Details zu erfassen genügen also die 8,5 LW des Sensors meiner Nikon D800 nicht. Moderne Filme können 5 bis 8 LW darstellen.

Will man also den tatsächlichen Dynamikumfang einer Szene mit starken Kontrasten abbilden, muss man mehrere Fotos der Szene (am besten vom Stativ aus!) bei verschiedener Belichtung aufnehmen und diese dann per entsprechender Software geeignet zusammensetzen. Damit erhält man ein sogenanntes HDRI (high dynamic range image). Viel nutzt einem das noch nichts, da es momentan kaum (bzw. nur unbezahlbare) Ausgabemedien gibt, die dieses Kontrastverhältnis darstellen können. Zum Beispiel kann ein guter alter Röhrenmonitor nur ca. 9 LW darstellen. Deshalb müssen HDR-Bilder durch das Tonemapping wieder in ein darstellbares Bild „heruntergerechnet“ werden.

Lohnt sich jetzt der Aufwand beim Erstellen von HDR-Bildern oder kann man durch das Entwickeln der Kamerarohdaten moderner Sensoren ain ähnlich gutes Ergebnis erreichen? Dazu hier mal zwei Beispiele:

Der erste Vergleich zeigt zwei Bilder derselben Abendszene. Das HDR-Bild wurde mit Nik HDR Efex Pro 2 aus einer Belichtungsreihe von 9 Raw-Dateien (jeweils ein LW Belichtungsabstand) einer Nikon D800 erstellt. Das RAW-File mit der mittleren Belichtung wurde mit Lightroom entwickelt.

Zunächst das HDR-Bild:
Abendstimmung HDR
und hier die entwickelte RAW-Datei:
Abendstimmung RAW
Die Bilder wurden manuell beschnitten, weshalb die Ausschnitte leicht variieren.

Der Unterschied beider Bilder ist meiner Meinung nach nicht besonders groß. Die Wolken beim HDR zeigen etwas mehr Struktur.

Das zweite Beispiel zeigt eine Tages-Landschaftsaufnahme. Das HDR wurde aus einer Belichtungsreihe mit 5 Aufnahmen (ein LW Belichtungsabstand, ebenfalls Nikon D800) mit Nik HDR Efex Pro 2 erzeugt.

Auch hier zunächst das HDR-Bild:
landscape HDR
und die entwickelte RAW-Datei:
landscape RAW

Hier ist der Unterschied nun deutlich sichtbar. Dies liegt zum Teil aber auch am verwendeten Tonemapping. Die Einstellungen beim Tonemapping sind Geschmackssache und deshalb sehr subjektiv. Von einem realistisch/natürlichen bis zu einem stark surrealen Bildlook ist beim Tonemapping alles möglich. Die Details im Schatten sind bei der HDR-Version deutlich besser sichtbar. Dafür gibt es aber auch deutlich sichtbare Halos, besonders in der linken oberen Ecke. Das entwickelte RAW-Bild entspricht viel mehr dem, was wir seit über 100 Jahren Photografie gewohnt sind zu sehen. Bei starken Helligkeitskontrasten werden die Schattenpartien deutlich dunkler (bis zum Absaufen) oder die hellen Bereiche brennen aus. Ganz so schlimm wie sich das jetzt anhört ist es nicht, aber Ansätze davon sind im letzten Bild schon erkennbar. Dennoch zeigt das RAW mehr Details als es zu analogen Filmzeiten ohne aufwendige Nacharbeit mit Abwedeln und anderen Dunkelkammertechniken möglich war darzustellen.

FAZIT:

Durch die gestiegene Abbildungsleistung moderner Kameras ist es nicht mehr so häufig nötig, HDR-Belichtungsreihen aufzunehmen. Durch die Möglichkeit der RAW-Entwicklung erreicht man bei vielen Belichtungssituationen ein gutes bis sehr gutes Ergebnis. Natürlich gibt es nach wie vor extreme Belichtungssituationen, bei denen der Dynamikbereich eines RAW-Fotos nicht ausreicht, hier kommt man ohne die HDR-Technik nicht aus. Die Situationen, in denen das aber so ist, sind weniger geworden.

Seit ich die Nikon D800 besitze mache ich wesentlich weniger HDRIs. Zum einen, weil mir der Dynamikumfang des Sensors ausreicht, zum anderen aber auch einfach aus dem praktischen Grund, dass es mit der D800 wegen der langsamen Bildfolge (und der erzielbaren Schärfe aus der Hand) schwierig bis unmöglich ist, längere Belichtungsreihen ohne Stativ aufzunehmen.