Hauptmenü

Seminar Bildverarbeitung

Begonnen von Holger Adelmann, November 21, 2010, 14:15:33 NACHMITTAGS

Vorheriges Thema - Nächstes Thema

Holger Adelmann

Liebe Kollegen,
ich möchte heute ein Seminar zur digitalen Bildverarbeitung (nicht Retusche) starten.
Ich habe über viele Jahre know how gesammelt, welches ich gerne weitergeben möchte.
Kommentare und Diskussion der einzelnen Beiträge sind ausdrücklich erwünscht.
Herzliche Grüsse
Holger

Teil I:
Einfluss von Ortsauflösung (Pixelzahl) und Dynamikbereich (hier am Beispile eines Graustufen-Bildes) auf die Bildqualität:

Bild 1: von links nach rechts: 512x512, 256x256, 128x128, 64x64 Pixel bei gleicher Gesamtvergrösserung und gleichem Dynamikbereich (8 bit Graustufen= 256 Grauwerte)


Bild 2: von links nach rechts: 256, 16, 4, 2 Pixelwerte bei gleicher Ortsauflösung (Pixelzahl = 512x512)


Teil II:
Änderung von Bildhelligkeit, Kontrast und Gamma:

Bild 3: Histogramm eines RGB Farbbildes (24 bit, d.h. 8 bit Dynamik je rotem, grünem und blauem Farbkanal).
X-Achse = Pixelwert, Y-Achse = Anzahl der Pixel im Bild, die diesen Wert (X) haben.


Bild 4a: Änderung von Bildhelligkeit und die Auswirkung auf das Histogramm.
Die Änderung der Bildhelligkeit bewirkt die Addition (oder Subtraktion) einer Zahl zu (von) jedem ursprünglichen Pixelwert.
D.h das Histogramm verschiebt sich lediglich nach rechts hin (links hin).
Im Beispiel unten ist die Aufhellung nicht "schädlich" und kann verlustfrei rückgängig gemacht werden, da keine Pixel über das rechte Ende des Histogramms bewegt werden.
Im Beispiel kann die Abdunkelung jedoch NICHT mehr verlustfrei rückgängig gemacht werden, da Pixel über das linke Ende "hinweg geschoben" werden, welche als Konsequenz ihren Ursprungswert verlieren und alle auf den Wert Null (0) gesetzt werden.
Der Ursprungswert ist nicht mehr zu erhalten (im englischen Sprachegebrauch: "Clipping").
Man sieht das sehr schön an dem Entstehen eines hohen Peaks (roter Balken) am linken Ende.


Bild 4b: Änderung von Bildhelligkeit als Funktion von ursprünglichem Pixelwert (X-Achse) und Pixelwert nach der Helligkeitsänderung (Y-Achse).
Man sieht sehr schön eine Parallelverschiebung der Kurve.


Bild 4c: Erhöhung des Kontrastes führt zu einer Verbreiterung des Pixelfeldes im Histogramm, das heisst, dem ursprünglich flauen Bild kann so der volle Kontrastumfang des jeweiligen Bildformates (hier: 256 Graustufen) gewährt werden. Vorsicht, hierbei kann ebenso wie bei Helligkeitsänderungen, Clipping erzeugt werden.


Bild 4d: Änderung von Bildkontrast als Funktion von ursprünglichem Pixelwert (X-Achse) und Pixelwert nach der Kontraständerung (Y-Achse).
Man sieht sehr schön eine Veränderung der Steilheit der Kurve.


Bild 4e: Änderung von Bildgradation (Gamma) als Funktion von ursprünglichem Pixelwert (X-Achse) und Pixelwert nach der Gammaänderung (Y-Achse).
Man sieht sehr schön eine nicht-lineare Verformung der Kurve, die entweder dem dunkleren Bereich des Bildes (Gamma >1) oder dem helleren Bereich des Bildes (Gamma <1) einen grösseren Dynamikbereich zuweist. Somit erzeugt man im ersten Fall eine bessere Durchzeichnung in den Schatten, im zweiten Fall eine bessere Durchzeichnung in den Lichtern.


FAZIT: Keine Änderung von Helligkeit, Kontrast oder Gamma ohne gleichzeitige Histogrammkontrolle, wenn man optimale Bilder haben möchte.

... wird fortgesetzt



Holger Adelmann

So jetzt eine Fortsetzung, am nächsten Wochenende gibt's mehr.

Teil III:
Filtern im Ortsfrequenzraum

III A) Das Prinzip von Konvolutionsfiltern

Bild 5: Prinzip der Konvolutions-Maskenfilterung eines Bildes (Quelle: Image´Pro Plus Handbuch).
Ein typische Konvolutions-Filter stellt eine quadratische Zahlenmatrix (z.B. 3x3, 5x5, 7x7 etc) dar, welche Mäanderförmig von links nach rechts, von oben nach unten über das Bild läuft, wobei der Zentralpixel durch die durch die Matrix vorgegebenen Verrechnungen mit seinen direkten Nachbarpixeln (3x3Matrix), oder einer noch grösseren Nachbarschaft (5x5, 7x7 etc) ersetzt wird:


III B) Konvolutions-Filter zur Schärfung des Bildes

Bild 6a: Beispiel einer Maske, welche einen höheren Bildkontrast an Kantenstrukturen im Bild erzeugt:

Bild 6b: Gleiches Beispiel. Ein Intensitätsprofil zeigt den stärkeren Intensitätssprung an den Kanten des Erythrocyten als Resultat der Filterung an. Höhere lokale Intensitätssprünge bedeuten für das Auge einen höheren Kontrast und gleichzeitig einen Eindruck von grösserer Schärfe:


Bild 6c: Beispiele weitere Schärfungsfilter. Auch recht einfache Bildbearbeitungsprogramme haben oft die Möglichkeit, selbst solche Filtermasken zu definieren, also viel Spass beim experimentieren. Bleibt noch zu erwähnen, das der gleiche Filter bei Bildern unterschiedlicher Ortsauflösung (siehe Teil 1) unterschiedliche Ergebnisse bringt !!


III C) Konvolutions-Filter zur Reduktion von Bildrauschen

Bild 7: Diese Konvolutions-Filter vermindern das Rauschen in der Regel durch Ersetzen eines Pixelwertes durch den Mittelwert aus diesem Pixel und denen seiner Nachbarpixel. Wenn die Nachbarschaft grösser gewählt wird, ist der rauschmindernde Effekt grösser, allerdings auch der weichzeichnende Effekt auf die Kanten. Diese Reduktion der Schärfe schränkt die Verwendbarkeit dieser Filter jedoch ein.


Bild 8: Besser sind nichtlineare, kantenadaptive Filter, also solche, welche Kanten im Filterprozess detektieren und somit versuchen, diese zu erhalten. Ich habe selbst einmal einen solchen Filter für Image-Pro Plus programmiert und publiziert (Computers in Biology and Medicine 29 (1999) 137- 145), welcher deutlich leistungsfähiger ist als ein Filter nach Art der Matrix in Bild 7. Im Prinzip wird in einer 5x5 Nachbarschaft festgestellt, ob
eine Kante der Orientierung WE, NS, NWSE, NESW vorliegt (folgendes Bild 8 - oben), dies erfolgt durch die Bildung der ersten Ableitung. Je nach Ergebnis des Ergebnisses wird dann gemäss dem Schema Bild 8 unten gemittelt. Natürlich gibt es noch wesentlich kompliziertere adaptive Verfahren, welche in manchen kommerziellen Programmen verwirklicht sind.


... Teil III wird fortgesetzt


Jan Kros

Hallo Holger,
Herzlichen Dank für dieses interessantes Thema.
Ich habe es mir gleich ausgedruckt zum aufbewahren.
Ich freue mich schon auf das nächste.

Herzlichen Gruss
Jan

Eckhard

Lieber Holger,

vielen Dank für den schönen Kurs! Wieder was gelernt.

Herzliche Grüsse
Eckhard

Zeiss Axioscope.A1 (HF, DF, DIK, Ph, Pol, Epifluoreszenz)
Nikon SE2000U (HF, DIK, Ph)
Olympus SZX 12 (HF, DF, Pol)
Zeiss Sigma (ETSE, InLens SE)

www.wunderkanone.de
www.penard.de
www.flickr.com/wunderkanone

Ronald Schulte

Holger,

Sehr beeindruckend und lehrsam. Man braucht sicher viel Erfahrung um es so genau zu machen.
Vielleicht wäre es was um alle diese Möglichkeiten mit ein Bild zu machen so das wir, mehr unerfahrener, sehen können was die Unterschiede sind im Vergleich mit z.B. das Original Bild.
Image pro hat auch nicht jeden, bin gespannt ob ich es mit mein PS hinkriege.

Grüße Ronald
Mikroskope:
Leitz Orthoplan (DL, AL-Fluoreszenz und Diskussionseinrichtung).
Leica/Wild M715 Stereomikroskop.
Mikrotom:
LKB 2218 Historange Rotationsmikrotom.

Holger Adelmann

#5
... weiter geht's mit dem Seminar:

III C) Weitere Konvolutions-Filter zur Reduktion von Bildrauschen

Bild 8: Das folgende Konvolutions-Filter wird Median-Filter genannt und vermindert ganz besonders impulsförmiges Rauschen, also eingestreute, extrem helle/weisse oder extrem dunkle/schwarze Pixel. Eingestreute schwarze Pixel können z.B. auf defekte Einzelelemente des CCD oder CMOS Chips beruhen, eingestreute weisse Pixel entstehen meist jedoch aufgrund von starkem Rauschen von Einzelelementen des CCD oder CMOS Chips. Letzteres tritt oft bei Aufnahmen von schwachen Fluoreszenzen auf, da dort die langen Belichtungszeiten ungleichmässige Empfindlichkeiten der Einzelelemente der Chips aufdecken.
Das Medianfilter ist oft kreuzförmig wie in meinem Beispiel, kann aber auch nur eine 3-5 Pixel Spalte oder -Zeile sein, oder ein Diagonalkreuz.
Die Verrechnung ist beim Medianfilter weniger kompliziert als bei den bisherigen Konvolutionsfiltern (diese siehe Bild 5), beim Medianfilter wird lediglich der zentrale Pixel durch den statistischen Median der z.B. kreuzförmigen Pixel-Nachbarschaft - im Bild 8 durch "X" markiert - ersetzt (der Median ist der mittlere Wert einer aufsteigend geordneten Zahlenreihe, und damit gegenüber "Ausreissern" der Pixelwerte recht unempfindlich)
Eine Reduktion der Schärfe tritt beim Medianfilter ebenfalls auf, ist aber vergleichsweise geringer als bei den schon genannten Filtertypen nach Bild 7 (bei vergleichbar gross gewählten Nachbarschaften).


Bild 9: Medianfilterbeispiel (Kreuz, 3x3)


Teil IV:
Filtern im Bildfrequenzraum

IV A) Das Prinzip von Frequenzraumfiltern

Bild 10 zeigt das schon bekannte Objekt der Blutkörperchen. In der oberen Reihe links ist das objektähnliche Bild zu sehen wie es sich dem Auge präsentiert. Die Untere Reihe zeigt das dazugehörige, durch eine sogenannte Fourier-Analyse berechnete Amplitudenspektrum des Bildes. Dieses Frequenzamplitudenspektrum ist mit seinem (nicht abgebildeten) komplementären Phasenspektrum zusammen lediglich durch mathematische Transformationen des Ursprungsbildes entstanden und somit dem Ursprungsbild mathematisch gesehen gleichwertig, auch wenn es völlig anders erscheint und dem Auge keine Anhaltspunkte zum Erkennen des Ausgangsbildes liefert.
Dieses spektrale Bild wird auch physikalisch in der sogenannten Fourier-Ebene des Mikroskop-Objektives gebildet, welches somit ein analoger Fourier Rechner ist, diese Betrachtungen sollen in diesem Seminar aber nicht interessieren.
Im spektralen Bild repräsentiert der zentrale Pixel die nullte Ordnung, also das beleuchtende Licht. Je weiter man nach aussen geht, um so höher werden die Bildfrequenzen. Unter "Bildfrequenzen" muss man sich hell-dunkel Schwankungen im Bild vorstellen. Sind es viele, scharfe, auf kleinem Raum hat man einen Bildbereich mit hohen Bildfrequenzen, hat man dagegen einen grösseren Bereich mit einer langsam sich ändernden Helligkeit ohne Details, so hat dieser Bereich nur niedrige Bildfrequenzen.
Man kann dieses Frequenzspektrum nun editieren, d.h. verändern, und danach durch mathematische Rücktransformation wieder ein gewohntes Bild erzeugen.
In der mittleren Spalte wurden die Frequenzanteile des Spektrums in einem engen Bereich um den zentralen Pixel reduziert, auffällig durch eine Verminderung der Energie/Helligkeit des zentralen Bereichs des Spektrums. Das dazugehörige Bild (Mitte oben) ist ebenso scharf wie das Originalbild links, jedoch fehlen niederfrequente Helligkeitsschwankungen - mathematisch gesehen hat man die hohen Frequenzen aber passieren lassen, man spricht daher von einem Hochpassfilter.
In der rechten Spalte hat man die spektralen Energien in allen äusseren Bereichen des Spektrums entfernt, und nur die mehr zentralen, niederen Frequenzen passieren lassen - man spricht von einem Tiefpassfilter. Das tiefpassgefilterte Bild (rechts oben) hat keine Details oder scharfen Bereiche mehr, da diese Information in den äusseren Bereichen des Spektrums lag und entfernt worden ist.


In Kürze mehr spannende Beispiele zur Frequenzraumfilterung.
Herzliche Grüsse
Holger

Holger Adelmann


IV B) Frequenzraumveränderungen zur Entfernung harmonischer Störungen

Bild 11 zeigt eine weitere Möglichkeit der Bildverarbeitung im Frequenzraum an einem Paradebeispiel. Dieses Image-Pro Beispielbild ist durch zwei Störsignale doch sehr entstellt.
Das Bild oben links enthält ein überlagertes harmonisches Störsignal A, welches durch ein von links oben nach rechts unten durchlaufendes Balkenmuster erscheint, sowie ein überlagertes Störsignal B, welches durch ein von rechts oben nach links unten durchlaufendes Balkenmuster erscheint. Das ebenfalls harmonische Störmuster B ist höherfrequenter als Störmuster A, da es im Bild einen kleineren Abstand von schmäleren Streifen aufweist (siehe die Diskussion zu der Bildfrequenz bei Bild 10).
Die Betrachtung des Fourierspektrums (links unten) ist spannend, da dort nun zwei umgrenzte Spektral-Energiepunkte (Punktpaare) zu sehen sind, die irgendwie als Fremdkörper im sonst recht homogenen Spektrum erscheinen. Interessanterweise reduzieren sich die über das gesamte Bild zu sehenden Störungen zu lediglich zwei umschriebenen Punktpaaren im Bildspektrum. Da die Fourieranalyse das Bild durch eine Kombination von zweidimensionalen Sinus / Cosinus Funktionen zu beschreiben sucht und die Bildstörungen solche Funktionen darstellen, kann die Berechnung diese beiden Störelemente so deutlich umschrieben als harmonische Komponenten im Spektrum darstellen.
Da eine sinnvolle Filterung des Bildes im Ortsfrequenzraum nahezu unmöglich erscheint, die Störungen sich im Frequenzraum aber so deutlich separiert darstellen, kann man die Störungen elegent durch entfernen der 4 Peaks im Spektrum vernichten.
Nach entfernen des zentrumsnahen Punktpaares und nachfolgender Rücktransformation zum Bild ist die niederfrequentere Störung A aus dem Bild verschwunden (interessanterweise natürlich auch die im Originalbild zu sehenden Interferenzen der beiden Störsignale !!).
Nach entfernen des zentrumsferneren Punktpaares und nachfolgender Rücktransformation zum Bild ist dann auch die höherfrequentere Störung B aus dem Bild verschwunden. Es fällt übrigens auf, dass die Orientierung des jeweiligen Punktpaares im Spektrum um 90 Grad zu der Orientierung der entsprechenden Störung im Ausgangsbild versetzt ist.


IV B) Frequenzraumveränderungen zur Verdeutlichung harmonischer Bildinhalte

Bild 12 zeigt den ebenfalls möglichen, umgekehrten Fall. Das Ursprungsbild links oben zeigt die Oberflächenfaltung einer Gregarine im Phasenkontrast. Die Betrachtung und Vermessung der recht harmonisch erscheinenden Oberflächenstruktur ist aber von unerwünschten Bildanteilen des darunterliegenden Zellinhaltes gestört. Man kann das beim Durchfokussieren sehr schön sehen.
Im Fourier-Spektrum (unten links) kann der geübte Blick die harmonischen Anteile der Oberflächenstruktur als ein Paar keulenförmige Bereiche links oben vom und rechts unten vom zentralen Spektralbereich erkennen. Da Image-Pro kein Modul zur selektiven Erhaltung spektraler Bereiche bei gleichzeitiger Entfernung der übrigen Spektralanteile enthält, habe ich ein solches selbst geschrieben und in Image-Pro eingebunden. Der Bildteil rechts unten zeigt das resultierende Spektrum nach dem Edit, rechts oben ist nach Rücktransformation das bereinigte Bild zu sehen, in dem nun die Oberflächenstruktur der Gregarine viel klarer zu erkennen ist.


wie immer viel Spass .. wird fortgesetzt.
Holger


peter-h

Hallo Holger,

eine super Idee mit dieser Arbeit !
Eine Frage zur FFT. Ich habe eine alte Version von Image Pro, welche nur unter WIN 98 SE läuft. Würde sich ein FFT Modul auch da einbinden lassen? Das update für schlappe 1000 Euro auf WIN XP war mir etwas zu teuer.
Oder kennst Du ein eigenständiges Programm für die Fouriertransformation , vor- und rückwärts? Vor 25 Jahren hatte ich einmal für die ersten CCD-Kameras mit Miniformaten ein solches Programm in Pascal geschrieben, aber das macht heute keinen Sinn mehr.

Schönes Wochenende und Grüße
Peter

Holger Adelmann

#8
Hallo Peter, ich habe Dir eine PN gesendet.

Fortsetzung
Ein generelles Wort: Alle Ausführungen in diesem Seminar beziehen sich nicht explizit auf die verwendete Software Image-Pro Plus, sondern sollen dem Verständnis der Bildverarbeitung im Allgemeinen dienen. Die Beispiele können mit einer ähnlich gestalteten professionellen Bildverarbeitungs-Software ebenso erzielt werden, die einfacheren Operationen im Seminar sogar mit freier Software.

IV C) Frequenzraumfilter im Detail

Bild 12 zeigt die Anwendung eines Hochpassfilters im Frequenzraum als Prinzip.
Oben im Bild ist das Schema eines Frequenzraum-Hochpassfilters zu sehen. Er besteht im Beispiel aus einer 2-dimensionalen rotationssymmetrischen Gauss-Filterfunktion, die in den Aussenbereichen den Wert 1 aufweist, zum Zentrum hin jedoch mehr und mehr auf Werte nahe Null zurückgeht.
In der Bildmitte ist das Original-Spektrum zu sehen. Die spektralen Energien werden nur der Anschauung halber als eine 3-dimensionale Intensitätsverteilung angezeigt.
Unten sieht man das resultierende Spektrum nach der Multiplikation des Original-Spektrums mit der Filterfunktion: In der Mitte ist zwar die nullte Ordnung erhalten aber der darum befindliche Bereich niederfrequenter Energien ist deutlich reduziert. Die höherfrequenten spektralen Energien in den Aussenbezirken des Spektrums sind nicht verändert, da diese mit einem  Filterwert 1 multipliziert wurden.


Bild 13 zeigt ein typisches Hochpass-Filter (links) sowie Tiefpass-Filter (rechts) mit Gauss'scher Funktionscharakteristik (diese beschreibt den Funktionsverlauf) in meinem Image-Pro Modul. Man kann nun die Gauss Funktionsparameter (a, b, c) so wählen dass man alle möglichen Filterkurven erhält. Der Einfachheit halber ist die Darstellung im Programmfenster ein Schnitt durch den 3-D Filter gemäss Bild 12, es sollte aber
stets erinnert werden dass der jeweilige Filter wie in Bild 12 aussieht.


Bild 14 zeigt eine Mischung aus Hochpass und Tiefpass Filter, einen sogenannten Bandpass, der lediglich Frequenzen in einem bestimmten
Band passieren lässt, höhere oder niedrigere Frequenzen jedoch unterdrückt.
Als Beispiel wurde der Filter auf das Phasenkontrast Bild eines Heuschrecken-Chromosoms angewendet. Durch die Frequenzraumfilterung werden feine Details sichtbar und verstärkt.


Bild 15 zeigt, warum ein Bandpass Vorteile gegenüber einem Hochpass haben kann. In dem Filterbeispiel auf der linken Seite und der Mitte wird durch leicht verschiedene Filtereinstellungen ein ähliches, gutes Ergebniss erzielt, währen im Beispiel auf der rechten Seite zuviel Anteile der höheren Frequenzen zugelassen werden, welche nicht mehr zur Abbildung der Details beitragen, sondern nur noch das (üblicherweise) sehr hochfrequente Bildrauschen darstellen. Demzufolge ist das Bild rechts schlechter da die Rauschanteile zu stark zugelassen werden.
Der Frequenzraum-Bandpass kann also sehr erfolgreich zwischen nützlicher Bildfrequenz und Rauschen diskriminieren.


... wird fortgesetzt.

Jan Kros

Hallo Holger

Es wird immer interessanter, herzlichen Dank dafür
Gruss
Jan

treinisch

Hallo Holger,

mama mia! Eine sehr spannende Reihe, vielen Dank dafür!

Sehr spannend fand ich die Sache mit der Fourier-Transformation und dort
besonders den Bandpass.

Ich habe mal ein wenig mit anderen Programmen experimentiert:

kann es sein, dass "Helligkeit interpolieren" in Photoshop das ist,
was Du als Median-Filter vorgestellt hast? In ImageJ gibt es auch einen
Median-Filter, sehr spannende Sache!

In ImageJ gibt es auch einen Bandpass, den habe ich mal auf dein Beispielbild
angewendet und siehe da, nicht das selbe Ergebnis, ab nah dran:



Man kann also sogar mit kostenloser Software eine Menge mit deinem Seminar Bildverarbeitung
anfangen!

Vielen Dank und viele liebe Grüße

Timm
Gerne per Du!

Meine Vorstellung.

Chipart

Hallo Holger,

sehr interessante Reihe.
Aus meiner Sicht sind die von Dir gezeigten Texte/Beispiele deutlich besser, als das derzeitige Material in der Wikipedia zum Thema. Du solltest darüber nachdenken, das in die wiki zu übertragen.

Zudem hätte ich noch 3 Verbesserungsvorschläge:
- Die Bilder zur Farbraumreduktion sind entweder fehlerhaft, oder mit einem relativ schlechten Dithering-Algorithmus berechnet: Das 1 und 2 bit/Pixel Bild sieht nach deutlich kleinerer Auflösung aus.
- An der einen oder anderen Stelle fehlt mir der "Warnhinweis": Fast alle der von Dir vorgestellten Bearbeitungsschritte zerstören Bildinformation. Man muss also vorher wissen, was man tut und hinterher dazu sagen, in welche Hinsicht die grafische Darstellung übertrieben ist.
- Zusätzlich könnte man bei den Verfahren noch angeben, wozu man sie in der Mikroskopie besonders brauchen kann (z.B. deutliche Hervorhebung feinster Strukturen, Vorbereitung des Bildes für automatisierte Auszählunge, etc.)

In Summe aber eine tolle Initiative.

Gruss,
Chip

Holger Adelmann

#12
Vielen Dank liebe Kollegen für das nette und hilfreiche Feedback und die PN Anfragen.
Das Beispiel von Timm zeigt sehr schön, wie leistungsstark heute Freeware wie ImageJ schon ist. Ich verwende diese Programmsammlung auch.
Separate Beiträge werden dann auch noch mehr Anwendungshinweise und Literaturhinweise geben.

Chip hat natürlich Recht, alle Manipulationen am Bild sollten gut dokumentiert werden, und der Hinweis auf eine vorsichtige Beurteilung der sichtbar gemachten Strukturen soll natürlich auch hier nicht fehlen, da erst die Erfahrung in der Bildverarbeitung es ermöglicht, Artefakte zu erkennen und zu vermeiden. Ideal ist es, wenn man den Effekt von verschiedenen Methoden mit ähnlicher Zielsetzung auf das Bild studieren und vergleichen kann, da man so Artefakte, die z.B. nur durch eine der Methoden generiert werden, oft besser erkennen kann.

Das ist ja dann schon auch die Überleitung auf mein nächstes Thema, den Homomorphischen Filter, den ich mit dem schon bekannten Gauss Bandpass vergleichen werde.

IV D) Der Homomorphische Filter als Variante des Frequenzraumfilters

Bild 16 zeigt die Theorie des Homomorphische Filters nach Stockham**, zur Theorie siehe dort. In Kürze:
Der Theorie des Homomorphischen Filters liegt eine Betrachtungsweise eines Bildes als ein "illumination-reflectance" Modell zugrunde, also das Modell einer Bildenstehung durch Beleuchtung und Reflektion, wobei statt Reflektion auch Absorption angenommen werden kann, wie ja meist im Mikroskop (Hellfeld).  Da die Beleuchtungs- (i) und die Absorptionskomponente (r) multiplikativ zur Bildentstehung beitragen (Gleichung [1]), ist ihre Separation im Frequenzraum nicht so einfach möglich, da das Produkt der Fouriertransformierten nicht in Reflektions- und Absorptions-Komponenten separierbar ist (Gleichung [2]). Allerdings sind die log-transformierten Komponenten separierbar (Gleichung [3]). Der Filter wird gemäss Gleichung (4) angewendet.
Man macht also zunächst ein Logarithmierung des Bildes, welches zur Vermeidung von Rundungsfehlern und Zahlenüberlauf in ein Flieskommaformat umgewandelt werden muss. Das gesamte Schema des Homomorphische Filters ist demnach in [5] dargestellt. Ich habe etwas experimentiert und zum Schluss eine Butterworth Funktion als brauchbare Filterfunktion gefunden (Adelmann HG, Butterworth equations for homomorphic filtering of images, Comput Biol Med. 1998 Mar;28(2):169-81). Ein passender Frequenzraum-Filter schreibt sich z.B.  gemäss Gleichung [6]. Ich habe den Homomorphischen Filter in Image-Pro als C-code dll implementiert.
Jetzt ist aber genug mit der Therorie, der geneigte Leser kann ja die angegebene Publikation durcharbeiten.


[**Stockham, T. G. Jr., ,,Image Processing in the Context of a Visual Model",  Proc. IEEE, vol. 60, no. 7, pp 828 - 842  (1972)]

Bild 17 zeigt ein Beispiel des Homomorphischen Filters in Aktion
Verwendet wird das schon bekannte Chromosom (Phasenkontrastaufnahme). Der Homomorphische Filter erzeugt ein Bild, welches dem Gauss Bandpass ähnelt, aber näher an den Helligkeitsverteilungen des Ursprungsbildes ist, auch scheinen die Strukturen nicht so stark verdickt als beim Gauss BP.


Bild 18 zeigt ein weiteres Beispiel des Homomorphische Filters
Die mit Eisenhämatoxylin gefärbten Chromosomen von Ascaris lumbricoides sind im Beispiel nur mit dem Homomorphischen Filter klar zu erkennen, der Gauss Bandpass ist offenbar in der Verbesserung des Dynamikumfanges in dunklen Bereichen unterlegen.
Auch scheint der Homomorphische Filter weniger artefizielle Verdickungen der Strukturen zu verursachen.


Man erhält mit dem Homomorphischen Filter eine Kontrastverstärkung bei gleichzeitiger Dynamikkompression des Bildes in Lichtern und Schatten. Bei korrekter Einstellung erscheint der Homomorphische Filter leistungsstärker als der Gauss Bandpass, mit weniger Artefakten.

... wird natürlich fortgesetzt.
Herzliche Grüsse
Holger

Fahrenheit

Lieber Holger,

vielen Dank für Deine sehr interessante Beitragsserie! Ich freue mich schon auf Deine nächsten Posts.

Herzliche Grüße
Jörg
Hier geht's zur Vorstellung: Klick !
Und hier zur Webseite des MKB: Klick !

Arbeitsmikroskop: Leica DMLS
Zum Mitnehmen: Leitz SM
Für draussen: Leitz HM

Holger Adelmann

#14
Danke lieber Jörg.

Hallo Chip,
ich habe mir die ersten Bilder zur Farbraumreduktion nach Deinem Kommentar
Zitat von: Chipart in November 29, 2010, 12:02:29 NACHMITTAGS
- Die Bilder zur Farbraumreduktion sind entweder fehlerhaft, oder mit einem relativ schlechten Dithering-Algorithmus berechnet: Das 1 und 2 bit/Pixel Bild sieht nach deutlich kleinerer Auflösung aus.

nochmals angesehen.
Die Bilder sind so wie sie sind da bei der Farbraumreduktion mehrere Werte zu einem Werteblock zusammengefasst werden (eglisch: binning), daher entsteht der Eindruck einer nierigeren Ortsauflösung.

Noch ein paar Literaturangaben für weitergehendes Lesen zur ganzen Serie:

Castleman, K. R., Digital Image Processing,  Prentice-Hall, Englewood Cliffs, New Jersey (1996) (viel Mathematik, aber wohl der Klassiker der Bildverarbeitung, neu aufgelegt)
Gonzales, R. C., R. E. Woods, Digital Image Processing,  Addison-Wesley, Reading, Massachusetts (1992)
Pratt, W. K., Digital Image Processing,  Wiley & Sons,  New York (1978)
Adelmann, H. G., A frequency-domain Gaussian filter module for quantitative and reproducible high-pass, low-pass and band-pass filtering of images, American  Laboratory, vol. 29, no. 6, pp 27 - 33 (March 1998 - Datumsfehler korrigiert)


Herzliche Grüsse
Holger