Digitale Bildbearbeitung - Flatfield-Korrektur und Kontrastierung

Begonnen von Michael Müller, Mai 13, 2025, 16:02:59 NACHMITTAGS

Vorheriges Thema - Nächstes Thema

Michael Müller

Hallo in die Runde,

in einem anderen Thread wurde ich gefragt, wie man den typischen Helligkeitsgradienten bei DIC aus Bildern entfernt. Deshalb möchte ich hier meine digitale Nachbearbeitung von Mikrobildern vorstellen.

Bei meinen Bildern führe ich im Allgemeinen eine sog. Flatfield-Korrektur und eine Kontrastspreizung durch.
Flatfield-Korrektur:

Bei mikroskopischen Bildern (speziell bei DIC) lässt sich eine ungleichmäßige Beleuchtung nicht vermeiden. Auch der allgegenwärtige Dreck auf Linsen und Sensor führt zu einer "unebenen" Ausleuchtung des Bildes.
Diese Beleuchtungsfehler sind unabhängig vom Objekt und können aus dem Bild mit einer Flatfield-Korrektur herausgerechnet werden. Dazu macht man vor der Aufnahme (beim Objektivwechsel) einmalig ein Foto eines "leeren" Bildausschnitts. Dazu sucht man sich im Präparat eine leere Stelle (ggf. defokussiert man etwas) um ein Flatfield-Foto aufzunehmen. Dieses Bild beinhaltet dann alle Beleuchtungsfehler, die bei den folgenden Aufnahmen des Objektes das Bild verfälschen und kann zur Korrektur des Fotos verwendet werden.
Für die Entstehung von Fotos gilt allgemein:

Bei diesem idealen Foto wird jedes Hintergrundpixel für jeden Farbkanal auf einen festen Wert von 128 (Mitte zwischen 0...255) gesetzt. Das Objekt trägt zu dieser Hintergrundhelligkeit entsprechend seines Absorptionsvermögens bei.
Diese Berechnung des Idealen Fotos führe ich mit ImageJ (in der "Version" Fiji) mit dem Befehl "Process -> Calculator Plus" durch. Wenn dieser Befehl in der verwendeten ImageJ-Version nicht zru Verfügung steht, kann er nachinstalliert werden.
Dieses Tool führt pixel- und farbkanalweise Berechnungen durch. Hier wählt man das Flatfield-Bild und das zu korrigierende Bild und die durchzuführende Operation (Divide). Die in der Formel verwendeten Konstanten setzt man auf 128 bzw. 0:

ImageJ erzeugt nun ein korrigiertes Bild, aus dem das "unebene Flatfield" herausgerechnet ist.
Andere Bildbearbeitungsprogramme bieten diese Funktionen wahrscheinlich auch.
Als Beispiel habe ich mal einige gruselige Bilder gewählt. Es handelt sich um Fotos, die mit einem Zeiss DIC (alt) und schlecht passendem Objektiv PlanApo 63/1.4 gemacht wurden. Dadurch ergibt sich ein ziemlicher Helligkeitsgradient. Außerdem war die Optik verdreckt und ich hatte einen unschönen Hotspot. Auch der Weißabgleich ist ungenügend:
Flatfield:

Rohbild:

Korrigiertes Bild:

Dreck, Hotspot und ungleichmäßiger Hintergrund sind verschwunden. Ebenso ist der Weißabgleich ideal.
Das Bild ist aber noch viel zu flau. Was jetzt noch fehlt, ist die
Kontrastspreizung

Wenn man sich die Helligkeitsverteilung des obigen Bildes im Histogram ansieht, erhält man:

Der Helligkeitsschwerpunkt liegt zwar recht ideal in der Mitte der Verteilung, aber der mögliche Helligkeitsbereich (0...255) wird bei weitem nicht ausgenutzt. Der Kontrast (also der Unterschied zwischen hellem und dunklem Objektpunkten) ist viel zu klein. Um die Einzelheiten im Bild mit maximaler Deutlichkeit zu sehen, muss man das obige Histogram so dehnen, dass es den gesamten Helligkeitsbereich abdeckt.
Dabei sollten natürlich keine Informationen verloren gehen. Wie weit man das Histogram strecken kann, wird also durch den hellsten Bildpunkt und dem dunkelsten vorgegeben. Ohne Informationsverlust kann man den dunkelsten Bildpunkt aus 0 und den hellsten auf 255 setzen. Leider sind aber durch Bildfehler in jedem Bild Punkte mit der Helligkeit 0 und 255 vorhanden. Wenn man diese beibehalten möchte, dürfte man den Kontrast nicht strecken. Diese Extrempunkte werden aber meist durch Sensorfehler erzeugt und müssen nicht berücksichtigt werden. Deshalb legt man bei der Kontrastspreizung fest, auf wieviel Prozent der extremsten Bildpunkte man notgedrungen verzichten möchte. Dieser Wert sollte sehr konservativ gewählt werden, um möglichst keinen Informationsverlust zu riskieren. Ich wähle diesen Wert meist mit 0,35%:

Mit dieser Einstellung erhält man dann als Endresultat:

mit folgendem Histogram:

Ich denke, das Resultat kann sich bei diesen Ausgangsbildern doch sehen lassen!
Die obige Nachbearbeitung läuft bei mir automatisch bei jedem neuen Foto ab. Wenn man wirklich hochwertige Fotos machen möchte, ist es meist notwendig, nochmals von Hand nachzuarbeiten.

Viele Grüße

Michael
Gerne per Du

SNoK / Stephan Krall

Lieber Michael,

ich teile deine Aussage nicht:

ZitatBei mikroskopischen Bildern (speziell bei DIC) lässt sich eine ungleichmäßige Beleuchtung nicht vermeiden. Auch der allgegenwärtige Dreck auf Linsen und Sensor führt zu einer "unebenen" Ausleuchtung des Bildes.

Ich habe dieses Problem beim meinem Leica DMRB nicht oder kaum. Es hängt also sicherlich auch vom Mikroskop ab. Damit kann ich mir das ganze von dir vorgeschlagene Prcedere sparen. Aber mich interessiert, wie das bei anderen ist.

Grüße und bis demnächst,
Stephan

Mikroskope: Leica DMRB, Leitz Dialux (beide mit DIK)
Stemis: Zeiss 508, Wild Heerbrugg M5
Kameras: Sony alpha 6500 und 6400
Webseite: https://kralls.de
Vorstellung: https://www.mikroskopie-forum.de/index.php?topic=41749.msg308026#msg308026

Peter V.

#2
Lieber Stephan,

ob und wie stark ein Gradient beim DIK vorhanden ist, hängt davon ab a) welches DIK System man verwendet b) ob die Prismen optimal justiert sind und c) ob ggf. nicht vorgesehene Prismen-Objektiv-Kombinationen verwendet werden.
Ältere DIK-Systeme von Zeiss endlich haben unter Umständen von sich aus einen etwas deutlicher wahrnehmbaren Gradienten als moderne Systeme. Nach meiner Erfahrung ist zum Beispiel der DIK von Reichert unendlich (am Polyvar) in diesem Pukt einer der besten DIKs aus seiner Zeit.
Auch der Olympus-DIK endlich (z.B. BH2 hat praktisch keinen Gradienten, wenn die richtigen Objektive genutzt werden. An Unendlich-System aller Hersteller ist der Gradient eigentlich kein großes Problem mehr.
Besonders deutlich ist oft der Gradient, wenn Optiken verwendet werden, für die der DIK nicht gerechnet ist. Damit gibt es manchmal einen ganz hervorragenden DIK, aber oftmals auch einen stärkeren Gradienten. Gerne werden zum Beispiel Fremdoptiken am alten Zentralschieber-DIK von Zeiss verwendet. Auch der manchmal etwas stärkere Gradient in Annes Bildern ist darauf zurückzuführen, dass sie an ihrem Olympus-System gerne Optiken einsetzt, für die das System nicht gerechnet ist. Ob der Gradient stört, ist Geschmacksache und hängt meiner Ansicht nach auch sehr vom Motiv ab. Nicht selten (wie bei Annes Bildern) kann der Gradient auch durchaus positiv zur Bildästhetik beitragen.

Sensorstaub und sonstige Flecke sind ein anderes Thema... ;)  8)

Herzliche Grüße
Peter
Dieses Posting ist frei von kultureller Aneigung, vegan und wurde CO2-frei erstellt. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

Michael Müller

Hallo Stephan,

ich bin da ja nicht missionarisch unterwegs  ;)  - wenn Du mit Deinen Fotos zufrieden bist, gibt es ja keinen Grund, weiteren Aufwand zu treiben.

Vielleicht ist der Eindruck entstanden, dass sich eine Flatfield-Korrektur nur bei schlechten Fotos lohnt. Ich habe das grausige Beispiel eigentlich nur gewählt, um das Verfahren zu verdeutlichen. Im Allgemeinen sind meine Ausgangsfotos dann doch etwas besser.
Aber auch bei sauberen Ausgangsfotos lohnt der Aufwand, da auch hier die Bildqualität entscheidend verbessert werden kann. Selbst wenn der meist schwache Helligkeitsgradient nicht sehr stört, verhindert er doch

- das nachträgliche Verstärken des Kontrastes, da dabei auch der Gradient verstärkt wird
- das Zusammensetzen mehrerer Fotos zu einem Gesamtfoto, da hier durch den Gradienten immer die Grenzen der Fotos im Gesamtbild sichtbar bleiben

Wenn man auf die nachträglich Kontrastieren verzichten möchte, muss man bereits bei der Aufnahme den Kontrast des Bildes durch den DIC oder die Aperturblende entsprechend gut wählen. Das fällt mir ohne Auflösungsverlust bzw. Sättigung der Lichter und Schatten schwer. Ich stelle lieber den Kontrast etwas flau ein und konzentriere mich auf die maximale Auflösung. Den Kontrast kann ich dann hinterher optimieren (wenn ich den Gradienten etc. vorher beseitige).

Oft sind die Objekte zu groß, um sie mit einem hochauflösenden Objektiv insgesamt aufzunehmen. Dann ist es nötig, mehrere Ausschnittsbilder zu machen und diese zu einem hochauflösenden Gesamtbild zusammenzusetzen. Das ist aber nur dann sinnvoll möglich, wenn man gleichmäßig ausgeleuchtete Bilder verwendet. Jeder Gradient (auch wenn er noch so klein ist) führt dazu, dass man im Gesamtbild die Grenzen der Ausgangsbilder sieht. Ein Bild wie dieses (zusammengesetzt aus 3 Einzelbildern mit dem 100er) wäre dann nicht möglich:



Wie bei allem ist es halt eine Frage, was man zeigen möchte und wie gut die Ausrüstung ist.

Wenn Du willst, können wir ja am Pillersee mal versuchen, eines Deiner Bilder entsprechend nachzubearbeiten. Dann kannst Du direkt vergleichen, ob sich der Aufwand lohnt.

Der beschriebene Aufwand fällt übrigens nur an, wenn man die Einzelschritte von Hand ausführt. Ich habe mir ein kleines (na ja - inzwischen etwas größeres) ImageJ-Makro geschrieben, dass die Speicherkarte der Kamera überwacht und bei jeder Aufnahme direkt das Foto auf den Laptop kopiert. Das Foto wird dann automatisch bearbeitet und das Ergebnis dann gespeichert. Von daher ist bei meiner Konfiguration kein zeitlicher Aufwand nötig. Der entsteht erst, wenn man mit dem "automatischen" Ergebnis nicht zufrieden ist.

Viele Grüße

Michael
Gerne per Du

Peter V.

Hallo Michael,

der Nachteil der Flatfieldkorrektur sind die Umstände, die sie macht und bei der man bei einer Vergrößerung und nur einer Einstellung alle Parameter am Mikroskop (Helligkeit, DIK-Einstellung Blende) vorher festlegen muss und nicht verändern kann. Außer dem Motiv selbst darf sich ansonsten gegenüber dem zu Verrechnung verwendeten "Leerbild" nichts ändern.
Das ist im praktischen Tümplerleben doch eigentlich gar nicht möglich (?). Man arbeitet sich von Vergrößerung zu Vegrößerung, mal macht man ein Foto mit dem 40er, weils es gerade passt, dann vielleicht mit dem 63 er, dabei "spielt" man doch auch ggf. mit den Blenden, der Helligkeit und vor allem auch mit der DIK-Einstellung. Gerade bei Zentralschieber-DIKs kann man nicht immer die exakte Position der Schieberstellung festlegen, da man diese von Vergrößerung zu Vergrößerung verstellen muss und es keine "Rastpositionen" etc. gibt.
Wenn ich mir allerdings vornehme, ein bestimmtes Objekt mit nur einer Vergrößerung und nur einer Einstellung aufzunehmen, ist die FF-Korektur in meinen Augen praktikabel. Aber vielleicht siehst oder machst Du das anders? Jeder hat ja seine eigenen Techniken und Workflows.

Herzliche Grüße
Peter
Dieses Posting ist frei von kultureller Aneigung, vegan und wurde CO2-frei erstellt. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

mhaardt

Solange die Korrekturen nicht riesig sind, kann man das so machen und es ist visuell oft befriedigend. Aber JPGs sind keine linearen Bilder, darum ist die Formel oben so nicht richtig. Man muss eigentlich aus einem RAW ein lineares Bild machen, das korrigieren und danach erst die Gammakodierung o.ä. anwenden, bevor man dann ein JPG draus macht. Damit fällt auch das Quantisierungsrauschen durch nur 8 bit kaum noch ins Gewicht.

Es gibt da schon ein paar versteckte Tücken. So sollte das Flatfield entrauscht werden, z.B. mit Durchschnittsbildung, weil es natürlich Rauschen hinzufügt. Starke Bildabschwächungen haben ein schlechtes SNR und ggfs. Beugungseffekte, und Flatfields können nichts dagegen tun.

Ich will es nicht schlechtreden. Man kann die Bildqualität erheblich steigern, aber man muss sich mit der Bildgebung befassen, sonst kann man auch leicht eine Verschlechterung bekommen und sucht ewig den Fehler.

Michael

rlu

#6
Hallo Michael,

vielen Dank für deine Einsichten. Und ich glaube es ist ein wichtiges Thema,
insbesondere für die Qualität der Bilder aber auch schwierig...

Kannst du dein ("negativ")-Beispiel: Bild + Staubkarte(Gradientenkarte) ablegen?


Habe versucht das mit Bordmittel(Affinity Photo 2, Helicon, Picolay) nachzubauen und bin bis jetzt gescheitert.
ImageJ das Programm ist komplex und was für Profis.

Kontrastspreizung ist für mich die "Tonwertkorrektur"
STRG - L; für fast alle Programme
Tipp: drückt man in Affinity Photo die ALT-Taste und bewegt man den Schwarz- bzw. Weißregler in die Mitte, dann sieht man irgendwann Struktuen, kurz davor, also ohne Strukturen, soll die perfekt Einstellung sein. Im Histogramm wäre man dann noch im Flachen.


Affinity Photo
hat den Blendmode "Division"
Erste Beobachtung es wird zu hell. Eine Möglichkeit ist es, die Staubkarte heller zu machen, dann wird das Ergebnis dunkler. Komisch.
REMOVE COLOUR CAST FROM UNDERWATER OR LANDSCAPE PHOTO USING AFFINITY PHOTO "DIVIDE BLEND MODE"

Mit Blendmode "Division"
2025-05-14 11_42_21-Affinity Photo 2.jpg

Man drückt die ALT-Taste und schiebt die Schwarzstufe nach rechts.
Dann auch noch für die Weißstufe, die nach links.
Affinity_Tonwertkorrektur.gif



Helion Focus
kann eine Staubkarte einbinden. Will aber mindestens zwei Fotos haben. 2xFoto + Staubkarte.
Die Staubkarte ist tatsächlich eine Staubkarte, weil nur Punkte entfernt werden, aber keine Gradienten. Komisch.
Animation
Helicon_Staubkarte.gif


Picolay
kann das erste Bild abziehen: Mittels  "Divide by 1st Image" oder
"Set background/flat-field"
dazu braucht es auch zwei Bilder Staubkarte + Bild
Background Flat Field geht besser.
Picolay_Flatfieldkorrektur.jpg


2025-05-14 11_46_21-Manual_PICOLAY_EN.pdf und 12 weitere Seiten - Profil 1 – Microsoft​ Edge.jpg

Die Stitching-Funktion von Affinity kann manchmal die Übergänge ausgleichen.
Aber auch nicht perfekt.

Man bräuchte dazu deinen Workflow in einem Standard-Programm.
Was mir aufgefallen ist. Schraube ich danach wieder am Kontrast, dann fange ich mir wieder den Gradienten ein.



Liebe Grüße
Rudolf

Schuhmicro

#7
Hallo Michael, Stephan, Peter und Rudolf,
das ist schön dass du das so klar formulierst Michael, vielen Dank.
Ich habe auch eine Methode um den Hintergrund gleichmässig zu machen.
Anstatt der Division benutze ich Subtraktion das Ergebniss hat viel weniger Rauschen, es scheint auch das numerisch stabilere Verfahren zu sein, aber das muss ich erst noch testen.
Composite (RGB).jpg
Kurzbeschreibung:
Das Bild wird mit image - color - "Split Channels" in 3 Bilder geteilt danach werden die einzelnen Farbkanäle voneinander abgezogen. Am Schluss vereinigt man die 3 Bilder wieder und wandelt in RGB um.
Wichtig ist wohl auch das es eine 32 Bit float Subtraktion ist ,sonst gehen womöglich Farben verloren.
Clipboard.jpg
Hier Die Ecke Rechts oben im Vergleich Subtraktion der Farbkanäle links, Division rechts, man achte auf das Rauschen. Bei beiden Bildern wurde der Kontrast nach der Operation gespreizt.
SubDiv.jpg
Gruss
Martin

Michael Müller

Hallo in die Runde

@Peter: Du hast Recht: Immer wenn man (signifikante) Änderungen der Einstellungen vornimmt, ist eine neue Flatfield-Aufnahme nötig. Meistens ist das bei mir aber nur nach Objektivwechsel und entsprechenden hierbei nötigen Einstellungen nötig. Ich bewege dann das Präparat kurz auf einen leeren Bereich und fertig. Das finde ich nicht sehr störend. Aber letztendlich lohnt es sich für gezielte Aufnahmen natürlich mehr als für einen Zufallsfund bei einem Spaziergang durchs Präparat...

@Michael: Leider hast Du da natürlich Recht. JPEG komprimiert und lässt im Allgemeinen andere Merkmale bei der Flatfield-Aufnahme weg als dann beim Rohfoto. Diesen Effekt fand ich aber bisher in der Praxis nicht störend. Wie Du treffend sagst, könnte man das bei einer Verwendung von RAW-Dateien vermeiden.
Schlimmer ist das schlechte Signal-Rausch-Verhältnis bei starken Gradienten / dunklen Flatfield-Bereichen. Beim obigen Beispiel erkennt man dann ja auch das starke Rauschen im End-Foto in den ehemals dunklen Bereichen. Da habe ich noch keine vernünftige Lösung gefunden. Tröstlich ist, das ein so starker Gradient, wie bei diesem Beispiel in der Praxis nicht vorkommt bzw. vermieden werden sollte.

@Rudolf: Zu den einzelnen Programmen kann ich nichts beitragen. Die vorgestellten Bildbearbeitungs-Algorithmen sind aber Standard und sollten so oder so ähnlich eigentlich in allen vernünftigen Programmen vorhanden sein.
Wenn ich mir aber ansehe, wie viele Menü-Punkte und Toolbars etc. Programme wie Affinity / Photoshop / Gimp anbieten, kann ich Dir nicht zustimmen, dass ImageJ komplexer und nur was für Profis ist. Letztendlich bietet ImageJ sehr viele Funktionen an, von denen man aber nur eine Handvoll in der Praxis verwendet. Das ist, glaube ich, kein großer Unterschied zu so Flaggschiffen wie Photoshop. Lediglich die Benutzeroberfläche ist bei ImageJ etwas angestaubter als bei moderneren, kommerziellen Programmen.

Was meinst Du mit
ZitatKannst du dein ("negativ")-Beispiel: Bild + Staubkarte(Gradientenkarte) ablegen?
? Du kannst die Bilder doch einfach vom Beitrag herunterladen.

@Martin: Deine Methode bringt ein sehr gutes Ergebnis - das Rauschen bei mir stört mich immer wieder.
Warum funktioniert das denn? Theoretisch sollte doch eine Subtraktion falsch sein, da die Transmission des Objektes doch multikativ bei der Bilderzeugung eingeht. Wenn Du da eine Erklärung hast, würde mich das stark interessieren.


Viele Grüße

Michael

Gerne per Du

Muschelbluemchen

Hallo,

sowas habe ich mal in der Programmiersprache Python gemacht.
Gerade in Python gibt da viele Bibliotheken und Projekte um Darkfield-Korrektur oder Flatfiel-Korrektur
zu machen.

Hier ein Blog von mir dazu:
Flatfield-Korrektur bei Mikroskopaufnahmen mit Hilfe von Python

Ist super praktisch wenn man Staubkörner, Hotspots, Pixelfehler, ... aus hundert Fotos,
die unter gleichen Bedingungen gemacht wurden, automatisiert entfernen will.

Leo

Schuhmicro

#10
Hallo Michael,
Zitat von: Michael Müller in Mai 14, 2025, 18:33:39 NACHMITTAGSda die Transmission des Objektes doch multikativ bei der Bilderzeugung eingeht
Beim Dik kannst Du einen Pechschwarzen Hintergrund haben aber dann ein Helles Objekt, auch im Dunkelfeld ist das so. Im Phasenkontrast ist es auch wieder anders. Das Bild ist also nur im Hellfeld zumindest theoretisch "multiplikativ" mit Dem Hintergrund verknüpft.
Das Subtrahieren funktioniert zumindest im Hintergrund auch im Hellfeld man müsste das mal ganz genau Vergleichen was jetzt bessere Ergebnisse bringt.

Division ist numerisch instabil in dunklen Bereichen, ich will auch mal annehmen , dass die Null im Nenner nicht auftaucht.
(Schwarz/Schwarz)*128=Weiss(Weiss) select me 8)
(2 / 1)  *128=255
(Schwarz/Schwarz)*128=Schwarz
(0 / 1)  *128=0

Subtraktion ist überall stabil rauscht weniger
(Schwarz-Schwarz)+128=Grau
(1-2)+128=127
(Weiss - Weiss)+128=Grau
Bei der Subtraktion können natürlich auch negative Werte rauskommen, z.B. -255 deswegen auch Vorzeichenbehaftete Fliesskomma Farbwerte genau hier verstehe ich (noch) nicht was die Software macht da könnte durchaus auch ein Rechenfehler sein.

Gruss
Martin

Michael Müller

Hallo

@Leo:
Vielen Dank für den Hinweis auf Deinen Blog - das Python-Skipt kann ich sicher bei Gelegenheit mal brauchen!
Nur eine Frage: Du dividierst das Rohbild durch das Flatfield. Was ich aber nicht sehe, ist dass Du die das Ergebnis mit einer "Durchschnittshelligkeit" oder 128 multiplizierst. Macht das Python automatisch?

@Martin:
Ich habe mir Deine Methode nochmals genauer angesehen. Prinzipiell ist es sicher so, dass bei einer Verdopplung der Beleuchtungshelligkeit auch die Helligkeit jedes Punktes des Objekts verdoppelt wird - unabhängig von Hellfeld / DIC / Dunkelfeld / schiefe Beleuchtung. Deshalb kann man mit Deiner Methode die Helligkeitsfehler im Objekt nicht vollständig korrigieren, sondern bestenfalls vermindern. Der Hintergrund dagegen wird vollständig korrigiert, da er ja zu 100% dem Flatfield entspricht. Das Ergebnis sieht also gut aus, da die verbleibenden Helligkeitsfehler im Objekt nicht mehr auffallen, der Hintergrund aber perfekt aussieht.
Zusätzlich hast Du natürlich Recht: bei der Subtraktionsmethode geht nur der Absolute Fehler des Flatfields in das Ergebnis ein, beim Dividieren aber der Relative Fehler. Das führt dann bei Dir zu einer deutlich sichtbaren Reduktion des Rauschens. Aus ästhetischer Sicht finde ich deshalb Deine Methode bei Flatfields mit sehr dunklen Bereichen besser. Es kommt halt darauf an, wie schlecht das Ausgangsbild ist.
Deine Methode macht aber keinen Weißabgleich (nur beim Hintergrund). Deshalb sollte man - anders als bei meinen Beispielbildern - bereits bei der Aufnahme auf einen korrekten Weißabgleich achten.
Bei Deiner Berechnung verwendest Du den ImageCalculator von ImageJ. Du kannst Dir eine Menge Zwischenschritte sparen, wenn Du den "Calculator Plus" verwendest (ggf. Nachinstallieren). Dieses Tool bearbeitet die Farbkanäle gleichzeitig und verwendet Floating-Point-Zahlen in den Zwischenergebnissen.
Ich hänge an den Beitrag das Ergebnis-Bild und die Einstellungen des "Calculator Plus" an, die ich verwendet habe. Vor der Bearbeitung habe ich beim Flatfield und beim Rohbild jeweils einen Weißabgleich durchgeführt (das ist etwas problematisch, da ich nicht sicher bin, ob der Weißabgleich bei beiden Bildern 100% gleich ausgefallen ist). Ich denke, bei diesem Rohbild ist Deine Methode ästhetisch besser!
Vielen Dank für Deine Anregung.

Viele Grüße

Michael


 
Gerne per Du

rlu

#12
Hallo Michael,

ich habe die Bilder verkleinert für die Gifs, deshalb die grottige Qualität. My fault.

Hier mit Picolay FlatFieldKorrektur und leicht nachgeschärft und Tonwertkorrektur.
Das sieht gut aus.

Picolay_FlatField_entrauscht_nachgeschärft_005.jpg


Habe auch versucht in Affinity mit Differenz und Division rumzuspielen.
Die Ergebnisse sind noch mau.

Division_Affinity
Division_Affinity.jpg

Differenz_Affinity
Differenz_Affinity.jpg

Lupus

#13
Hallo,

der Vergleich der Methoden "Division" und "Subtraktion" des Hintergrundes mit dem Bild ist ganz interessant, beide sind nicht fehlerfrei (unabhängig von dem Problem des unterschiedlichen Rauschens).
Hier ein idealisierter Vergleich mit zwei Helligkeitsgradienten als Testbilder (oben links die ersten beiden Bilder, vertikaler und horizontaler Verlauf). Rechts oben erst die Division beider Bilder, dann die Subtraktion. Man sieht dass die Subtraktion den nach Verrechnung der Bilder theoretisch idealen Bildverlauf (eine homogen diagonal verlaufende Helligkeitsverteilung) etwas besser erfüllt.

Darunter das gleiche aber mit einer definierten Helligkeitsabstufung (Helligkeitswerte 0, 64, 128, 192, 255). Hier sieht man besser was das Programm bzw. die Rechenverfahren machen:

Division (3. Bild untere Reihe)
Zahl/0 = 0 als Definition (Schwarz) - siehe linker schwarzer vertikaler Balken im Ergebnisbild. Im kontinuierlichen Verlauf darüber sieht man hier ganz schmal am linken Rand ebenfalls schwarze Punkte vermengt mit gesättigten Farbpunkten weil die Erstellung des kontinuierlichen Helligkeitverlaufs im RGB-Raum Farbfluktuationen erzeugt hat.
Ein schwarzer Balken entsteht natürlich als Ergebnis oben horizontal weil 0/Zahl immer 0 ist.
In der 2. Spalte der Bildrasterung sind unten 3 weiße Felder statt einem Verlauf weil bei Division einer großen Zahl (relativ heller horizontaler Bereich, hier 128, 192, 255) durch eine kleine Zahl (hier Dunkelgrau 64) ≥ 2 ergibt und damit (≥ 2)*128 ≥ 255 als Weiß in Sättigung geht.

Subtraktion (4. Bild untere Reihe)
Hier sind die Bereiche links unten (Weiß) und rechts oben (Schwarz) schlecht differenziert dargestellt, in den Schatten sogar schlechter als bei der Division. Denn extreme Helligkeitsunterschiede (Weiß-Schwarz = (255-0)+128 ≫ 255 oder Schwarz-Weiß = (0-255)+128 ≪ 0 gehen durch die Subtraktion ebenfalls in Sättigung.

Eine Verschlechterung der Objektdarstellung könnte es dadurch bei extremen Helligkeitsunterschieden zwischen Objekt und Hintergrund geben (sehr dunkle Strukturen vor hellem Hintergrund und umgekehrt). Ein "mittelgrau" belichtetes, wenig kontrastreiches DIK-Objekt ist dagegen relativ unproblematisch. Seltsamerweise wird auf diese möglichen Probleme bei der Beschreibung dieser Art Flatfield-Korrektur auf YouTube oder zu den ImageJ-Plugins nicht hingewiesen.

Vergleich Intensitätsverlauf Division Subtraktion.jpg

Und hier noch etwas plakativer die "Objektverzerrung" durch die nichtlineare Korrektur des Hintergrundes.

Vergleich Objekt horizontal Hintergrund vertikal.jpg

Hubert

rlu

Hallo Hubert,

super anschaulich.
Jetzt weiß ich auch warum es bei Affinity nicht klappt.
Das sieht anders aus.

Kannst du, weil du dafür ein Programm hast, für die Division und Subtraktion jeweils den Faktor und den Summanden weglassen und dann das Muster anzeigen. Also nur den ersten Schritt der Rechnung ausführen und das Pattern zeigen. Also die beiden rechten zwei Bilder austauschen.
2025-05-15 12_33_18-Digitale Bildbearbeitung - Flatfield-Korrektur und Kontrastierung – Mozilla Fire.jpg

Vorgehensweise(Plan) von mir:
Ich schaue, ob es einen Blendmodus gibt, der das erste Ergebnis erzeugt(ohne die Multiplikation/Addition)
Und dann versuche ich das Ergebnis für die Division noch mit 128 zu multiplizieren.
Und für die Subtraktion mit 128 zu addieren. Und wenn es klappt sieht es so wie bei dir aus.
Also wie die beiden Bilder rechts.

Liebe Grüße
Rudolf