Erstellen von HDR Bildern (Canon Eos)

Begonnen von kaktux, Mai 18, 2024, 10:38:31 VORMITTAG

Vorheriges Thema - Nächstes Thema

kaktux

Hallo zusammen,


ich bin gerade über das Thema HDR Fotografie gestolpert und wollte mal in die Runde fragen, ob dies hier jemand für seine Bilder anwendet.

Einige Kameras können das ja scheinbar automatisch - meine Canon Eos 650 allerdings nicht.
Dafür findet man nur Anleitungen, das man Reihenaufnahmen (3Bilder) mit verschiedenen Belichtungszeiten machen soll und die dann per Software kombiniert.

Macht das jemand ? Könnt ihr Tips für Software und Einstellungen geben? Ich bin hauptsächlich Linux Nutzer - mache Aufnahmen mit Entangle und Bildbearbeitungen mit imagej. Allerdings konnte ich da bisher nicht finden, wie man dort am besten Bilder kombinieren kann. Automatisiert wäre natürlich am schönsten ;)

Habt Ihr Erfahrungen mit dem Thema?

viele Grüße
Matthias

M59

Hallo,

für Mikroskopbilder habe ich HDR nicht angewendet, finde die Bilder werden oft sehr plakativ. Ist Geschmackssache.
Für Linuxer bietet sich u.A. 'Darktable' an, da gibt es diverse Anleitungen im Netz. Man kann aus einer Aufnahme ja auch Pseudo HDRs machen.

Viel Erfolg/M59

Lupus

Hallo Matthias,

HDR-Bilder direkt aus Kameras halte ich nicht für sehr sinnvoll für die Mikrofotografie. Meist kann man da wenig bis nichts einstellen. Außerdem sind so hohe Kontrastumfange, für die HDR-Technik Sinn macht, bei Mikrobildern recht selten. Eher beschränkt auf besondere Makroobjekte mit Spitzlichtern oder bei bestimmten Kontrastverfahren oder Polarisation.

Ich habe gelegentlich schon mit der Kombination von 2-3 Fotos unterschiedlicher Belichtung experimentiert, es in der Praxis bei Mikrofotos aber noch nie benötigt. Das Prinzip ist aber sehr einfach. Ich arbeite mit 8-Bit Bildbearbeitung (irgend wann muss man es bei Verwendung von JPG, z.B. um es im Forum zu veröffentlichen, ja sowie auf diesen geringeren Dynamikumfang komprimieren). Man kann dann problemlos z.B. 2 JPG-Fotos mit max. etwa 3-4 Blendenstufen unterschiedlicher Belichtung in zwei Ebenen übereinander kopieren, und die Transparenz der oberen Ebene variieren (meist in diesem Beispiel optimal bei 50%). Wichtig ist dabei die Einstellung, auf welche Weise die Bildpixel der überlagerten Bilder addiert werden.

Man kann alternativ eine Belichtungsreihe mit dem RAW-Format auch aus einem einzigen Foto erzeugen, das ist bei bewegten Objekten die beste Möglichkeit. Meine Kamera hat z.B. einen Dynamikumfang von etwas mehr als 12 Bit (bei geringster ISO-Empfindlichkeit). D.h. daraus kann man theoretisch noch Fotos mit max. ±2 Blendenstufen mit je 8 Bit als JPG-Bild extrahieren - das dürfte für die meisten Anwendungen reichen.

Hier ein plakatives Beispiel einer Gegenlichtaufnahme aus dem dunkleren Innenraum gegen teilweise bedecktem Himmel. Aus dem RAW-Bild wurden 2 maximal noch sinnvoll unter- und überbelichtete Fotos entwickelt. Darunter dann das Ergebnis der übereinander teiltransparent kopierten Fotos. Das Bild ist nicht so differenziert wie mit Hilfe echter HDR-Software, weil die auch örtlich innerhalb des Bildes unterschiedlich die Transparenz gewichtet. Dafür geht es auf diese Weise sehr einfach und nachvollziehbar. Bei einer Belichtungsreihe mit 3 Fotos habe ich keinen besonderen Vorteil erkannt. Der Vorteil gegenüber optimierter HDR-Software ist auch, dass dieser so synthetisch wirkende Bildeindruck hier nicht entsteht.

Unterbelichtung Überbelichtung 3 Blenden.jpg

Überlagerung 2 RAWBilder x.jpg

Hubert


mhaardt

Grundsätzlich geht das mit jeder Kamera, aber man muss zwischen zwei Verfahren unterscheiden: Einer Belichtungsreihe zur Erzeugung des HDR-Bilds mit anschließendem Tonemapping, um wieder ein LDR-Bild zu erhalten, und Fusion, was aus ein paar verschieden belichteten Bildern direkt ein LDR-Bild erzeugt.

Je nach Tonemapping- oder Fusion-Algorithmus werden die Bilder eher natürlich oder dramatisch.

Das HDR-Bild selbst ist am Bildschirm wegen seines beschränkten Dynamikumfangs nicht darstellbar. Es wird erzeugt, indem man die Pixel der Belichtungsreihe gewichtet kombiniert. Sehr beliebt ist eine Dreiecksfunktion, deren Maximum beim halben Sättigungswert liegt. Die Eingabedaten sind kalibrierte RAW-Bilder, d.h. das HDR-Bild ist ein lineares Bild.

Fusion-Algorithmen verwenden fertige Bilder. Für Linux gibt es z.B. enfuse. Dessen Ergebnisse sind oft gut.

Bei Durchlicht wird der Dynamikumfang eher gering sein. Bei Auflicht kann es Spiegelungen geben, aber da ist HDR nicht die Antwort, sondern besser Kreuzpolarisation. Bei Dunkelfeld bin ich unsicher. Manche Objekte leuchten da schon sehr stark, aber eigentlich will man genau das.

Michael

Lupus

#4
Hallo,

ZitatIch bin hauptsächlich Linux Nutzer - mache Aufnahmen mit Entangle und Bildbearbeitungen mit imagej. Allerdings konnte ich da bisher nicht finden, wie man dort am besten Bilder kombinieren kann.
die beschriebene Methode, zwei verschieden belichtete Bilder zu überlagern, kann man übrigens auch mit ImageJ ganz einfach durchführen. Man muss nur die beiden Bilder gleichzeitig öffnen (die müssen natürlich identische Bildgröße und Format besitzen), und dann unter Image/Overlay/Add Image beide Bilder mit z.B. 50% Transparenz zusammenführen.

Das Problem ist dass ImageJ (zumindest in der einfachen Plugin-Ausstattung wie ich es verwende) keine gute ergänzende Bildbearbeitung ermöglicht die man für diesen Zweck bräuchte. Ich habe mein obiges Beispiel ohne jede weitere Bildbearbeitung erzeugt um das Prinzip zu zeigen. Wenn man dann z.B. die durch die Bildaddition hinzugefügten Wolkenstrukturen gut sichtbar machen möchte kann man die Gradationskurve mit einem geeigneteren Bildbearbeitungsprogramm anpassen:

Überlagerung 2 RAWBilder Gradationskorrektur x.jpg

Beim unterbelichteten Bild, das hier in den hellen Bereichen die Wolkenstrukturen enthält, habe ich die Gradation der Lichter steiler gemacht (Gradationskurve rechts unten), dadurch wurde das Bild im mittleren Helligkeitsbereich dunkler. Zum Ausgleich wurde beim überbelichteten Bild die mittlere Bildhelligkeit, in der die Pflanzenblätter enthalten sind, erhöht und gleichzeitig dessen Gradation steiler gemacht (Gradationskurve rechts oben).

Hubert

purkinje

#5
Hallo Hubert,

Zitat von: Lupus in Mai 19, 2024, 15:56:01 NACHMITTAGSDas Problem ist dass ImageJ (zumindest in der einfachen Plugin-Ausstattung wie ich es verwende) keine gute ergänzende Bildbearbeitung ermöglicht die man für diesen Zweck bräuchte
Zumindest in der "all-batteries-on" version von ImageJ, die sich FIJI nennt, gibt es plugins um den Kontrast zu bearbeiten, am interessantesten und auch in die High definition gehend, ist CLAHE  Contrast Limited Adaptive Histogram Equalization
(Bei einigen der hochauflösenden Profi-Mikroskopikern durchaus beliebt, wie man mir sagte)
mal auf die Schnelle deine beiden Bilder
unbearbeitet
unbearb.jpg
CLAHE slope3
CLAHE.jpg
Beste Grüße Stefan

Lupus

#6
Hallo Stefan,

das Plugin CLAHE ist ganz interessant, aber auch mit Vorsicht zu genießen weil es einen ziemlichen Eingriff in das Foto darstellt und der Vorgang im Detail nicht sehr transparent ist. Im Prinzip ist es eine Art HDR-Programm. Aber die gezielte Bildbearbeitung wie sie selbst einfache Programme wie "mein" Paint_net beherrschen ist dann doch ziemlich eingeschränkt und gewöhnungsbedürftig weil ImageJ und entsprechend auch Fiji sehr auf die Bildanalyse fokussiert ist. Für viele Plugins gibt es leider keine ausführlichere Anleitung, vor allen Dingen keinen Überblick über die Möglichkeiten. Man muss sich jedes der schätzungsweise 500 Plugins einzeln herausgreifen um die Funktion zu erfassen.

Hubert

purkinje

#7
Hallo Hubert,
ich kann nur voll bestätigen was Du sagtest: Kein bequemes Bearbeitungs- sondern ein Bildanalyseprogramm, das Einarbeitung erfordert. Für Leute in der Wissenschaft, welche dutzende, hunderte Bilder auswerten sollen ein Schatzkistlein, aber vor das bequeme "batch processing" muss man sich reinfuxen.
Unübersichtlich, ja sicherlich; aber so intransparent finde ich es nicht, immerhin ist der Code ja offen. Dürfte mittlerweile das längstdauerndste Opensource Projekt der Biomed-Welt sein, ich kenne es ca seit 25 Jahren (NIH Image hieß es ja früher).
In unseren Reihen wird es eine überschaubare Nutzerzahl geben, das ist mir klar, kann mir aber z.B. in der Gewässerökologie oder Pollenanalyse falls Partikel unterschieden und gezählt werden sollen Anwendungen denken.
Oder man nutzt es ganz gezielt als Zusatz zum Bildbearbeitungsprogramm für Hintergrundsbearbeitung, -subtraktionen, Fast fourier Transformationen (Gradientenretouche  ;) ), spezielle Filterungen. Für Nicht-Matlab-kundige sicher auch eine Alternative.
 Ich liebe das CLAHE plugin zum "aufhübschen" für Bilder teils sehr alter und ausgeblichener Histologie-Präparate, wie dies hier im zweiten Teil gezeigt wird:
Der Youtube Kanal von Johanna M. Dela Cruz bietet übrigens haufenweise Tutorials für alle die sich mit Fiji /ImageJ befassen (müssen), man kann ja bei YT die Geschwindigkeit des Videos drossel wenn einem ihre Geschwindigkeit nicht zusagt 😅)
Beste Grüße Stefan

Lupus

Hallo Stefan,

das "Problem" liegt darin, dass hier zahlreiche Leute für ihre z.T. sehr spezielle Aufgabe ein jeweils eigenes kleines Programm gestrickt haben, und ImageJ ist sozusagen das Sammelbecken dafür. Ich meinte nicht dass es vollkommen intransparent ist, aber man muss sich bei jedem Plugin ziemlich umfangreich einlesen und die wesentlichen Elemente von ImageJ bereits gut kennen um alles zu verstehen. ImageJ ist gut um sich einzelne speziellen Anwendungen gezielt heraus zu picken, auf die man mehr oder weniger zufällig gestoßen ist.

Für Anwender, die nicht schon wieder ein neues Programm auf dem PC installieren wollen wäre übrigens die bezüglich der Plugins relativ abgespeckte Online-Version sehr einfach zu verwenden.

Das CLAHE Plugin hat den Nachteil dass es, ähnlich wie bei der Kamera-Konvertierung von RAW in JPG im Bereich benachbarter Pixel, die Farben je nach Einstellung des lokalen Bereiches ziemlich "ausbleicht". Der alternative Weg zur Farberhaltung über die RGB-Kanäle ist natürlich etwas umständlich.

Hubert

Lupus

#9
Hallo Stefan,

ich habe mir das im zweiten Videoteil gezeigte Präparat genauer angesehen, ich bin ziemlich skeptisch dass die durch starke kleinräumige Kontrastierung hervorgehobenen Details alle real sind. Hier ein Vergleich beider Bilder nebeneinander. Bei der angegebenen Pixelauflösung können im Original eigentlich auch nicht mehr Informationen stecken als im Video zu sehen sind. Das würde ich nur glauben wenn ich ein unbearbeitetes Original mit höherer Auflösung vergleichen könnte. Durch unvermeidliches Rauschen können leicht solche vermeintlichen "Details" erzeugt werden. Ein regelmäßiges Problem in der Wissenschaft ist die mangelnde kritische "Messfehlerbetrachtung".

Vergleich ImageJ Original.jpg

Hubert

purkinje

#10
Hallo Hubert,

also in diesem Fall, das ist eine Immunhistochemie, Antikörper unbekannt, mit Detektion mittels Diaminobenzidin (DAB)-Farbreaktion. Es wird also irgendein Protein nachgewiesen. Dass es dort zu dunkler braunen Ansammlungen kommt wo die Proteinsynthese in der Zelle verstärkt abläuft ist in der Regel so zu beobachten. (Korrektur hierzu unten)

Du hast sicher recht mit deiner Mahnung zur Vorsicht, falls man derartig bearbeitete Bilder überhaupt (semi-)quantitativ auswerten will.
Mich würde eher das flaue original Hellfeldbild beunruhigen (schlecht entwässert / zu frisch eingedeckt) und wie die Kontrollen der Immunhistochemie aussehen (manchmal sieht die Farbreaktion ohne Antikörper recht ähnlich aus, DAB reagiert nämlich mit allen möglichen Gewebsperoxidasen und nicht nur mit der des Antikörpers  >:( ) Also der Fehlerquellen sind reichlich, will man Immunhistochemie halbwegs quantifizieren.
Beste Grüße Stefan 

Lupus

Hallo Stefan,

Du hast natürlich Recht, ich habe aus dem Video mehrere Varianten kopiert und falsch nicht das Original sondern eine Zwischenstufe eingefügt (jetzt korrigiert). Ich hatte auch vergeblich getestet, ob man in einem normalen Bildbearbeitungsprogramm aus dem Original mehr heraus holen kann. Jedenfalls sieht man deutlich dass aus dem Original kaum die dargestellten Details in dieser Form originalgetreu entstehen können - unabhängig ob das Original technisch schlecht ist präpariert wurde.

Mir ging es allgemeiner darum, dass dieses Plugin bei unkritischer Verwendung (und zu starker Kontrasteinstellung) die gleichen Artefakte erzeugen kann wie die beliebte starke Nachschärfung durch Kantenkontrastfilter in Bildbearbeitungsprogrammen.

Hubert

purkinje

Hallo Hubert,
auch ich muß mich korrigieren, das sind ja Endothelzellen, also ist das sehr wahrscheinlich ein direkter Peroxidasenachweis mit DAB, keine Immun- sondern "nur" Histochemie. Die braunen rundlichen Strukturen würden dann auch besser zu den Peroxisomen in Endothelien passen.
Ja, man sollte heutzutage nicht der Versuchung erliegen alles digital auszubügeln was das Präparat nur ansatzweise hergibt, da geb ich dir recht, auch wenn ich die Strukturen für real vorhanden halte, würde ich nach einer solchen Prozedur nicht auf die Idee kommen deren Größe /Volumen zu bestimmen.
Beste Grüße Stefan

mhaardt

Wenn man die Bilder selbst macht, bietet es sich an, das SNR durch Durchschnittsbildung zu erhöhen, bevor man Filter benutzt. Eine Flatframe-Korrektur ist dann auch sinnvoll, um die individuell abweichenden Pixeleffizienzen zu korrigieren, die um so mehr hervortreten, je besser das SNR ist. Die Bilder nimmt man dann natürlich als RAW auf und entwickelt sie zu linearen 16 Bit Bildern. Ich benutze als Bildformat gerne PPM/PAM oder noch lieber FITS mit Fließkommapixeln.

Mit mehr SNR und durch Flatframes korrigiert geht ziemlich viel, aus einem Bild mit geringem Dynamikumfang durch einfache Streckung mehr Details hervorzulocken, die tatsächlich vorhanden, aber visuell im Rohbild kaum wahrnehmbar sind.

Einfach ein Bild als JPG aufnehmen und dann in die Algorithmen werfen ergibt dagegen sehr schnell Artefakte.

Michael

Holger Adelmann

Es dreht sich zwar in meinem Post nicht um die EOS aber ich dachte der folgende Workflow (den ich mal vor Jahren in Hagen vorgestellt hatte) ist dennoch nützlich.
Ich verwende ihn z. B. bei Durchlicht-POL Aufnahmen mit der Moticam, wo der Dynamikbereich des Bildes meist den der Kamera deutlich übersteigt.

Bild 1 zeigt so einen Problemfall.

Bild 2 wurde mit einem reduzierten Gamma (s. gelbe Box) aufgezeichnet. Das resultierende Bild ist zwar flau, hat aber kein Clipping sondern konserviert die Bildinformation bestmöglich.

Bild 3, 4 zeigen dann das flaue Bild nach Anwendung von CLAHE. Das resultieren Bild 4 entspricht dem, was ich im Okular sah.

Probiert es mal aus, es bringt wirklich gute Ergebnisse bei Bildern mit hohem Dynamikumfang.

Viele Grüße,
Holger