Einfluss der Objektbeleuchtung auf Auflösung und Kontrast - Schiefe Beleuchtung

Begonnen von Lupus, Mai 01, 2021, 20:09:52 NACHMITTAGS

Vorheriges Thema - Nächstes Thema

Lupus

Der folgende Beitrag wurde inhaltlich erweitert und kann als zusammenfassende PDF-Datei herunter geladen werden:
https://bit.ly/3xSrPzp


Teil 2 https://www.mikroskopie-forum.de/index.php?topic=41469.0 als PDF-Datei unter https://bit.ly/3dtDDj3

Hallo,

die schiefe Beleuchtung wurde im Forum bereits häufiger diskutiert. Selbst in der mikroskopischen ,,Fachliteratur" gibt es kaum eine Beschreibung über die Entstehung des charakteristischen Reliefbildes. Gelegentlich wird der Mechanismus auch falsch beschrieben, z.B. in der Annahme dass die reliefartige Struktur von Phasenobjekten als Schlagschatten des schief einfallenden Lichtes durch die Objektdicke entstünde. Eine allgemeinverständliche Erklärung ist aber nicht ganz einfach, da man für das Thema etwas vertieftere Grundkenntnisse in Optik und Mathematik benötigt. Es handelt sich immerhin um eine beugungstheoretische Beschreibung zur Bildentstehung und nicht um geometrische Optik. Im Folgenden versuche ich, den Einfluss der Objektbeleuchtung auf das Mikroskopbild erst ganz allgemein, und dann speziell für die schiefe Beleuchtung aus theoretischer Sicht zu beschreiben.

1.Wellenmodell der Bildentstehung

Ausgangspunkt ist eine homogene, diffus strahlende Leuchtfläche, die durch den Kondensor in die Objektebene abgebildet wird und diese dadurch ebenfalls homogen ausleuchtet. Ob diese Leuchtfläche von der Leuchtfeldblendenebene der Köhler-Beleuchtung oder einer Petroleumflamme einer historischen ,,kritischen Beleuchtung" gebildet wird, ist hier gleichgültig. Durch die Leuchtfläche wird auch die Aperturblende des Kondensors homogen ausgeleuchtet. Im Folgenden wird daher die Mikroskop-Beleuchtung auf die notwendigen schematisch dargestellten Elemente in Bild 1, Grafik links oben, beschränkt.

Die Aperturblendenebene stellt danach die eigentliche Lichtquelle dar, sie befindet sich in Brennweitenabstand unterhalb des Kondensors. Der Einfallswinkel der Objektbeleuchtung wird dabei durch die Form der Aperturblende bestimmt. D.h. jeder ,,Leuchtpunkt" in der Aperturblendenebene erzeugt nach den Gesetzen der Strahlenoptik ein paralleles Lichtbündel mit entsprechendem Neigungswinkel gegen die optische Achse, also eine kohärente ebene Welle. Kohärent bedeutet hier einfach, dass die ebene Welle über den ganzen Querschnitt eine feste Phasenbeziehung aufweist. Alle ,,Leuchtpunkte" der Aperturblendenöffnung zusammen ergeben ein divergentes Bündel von untereinander inkohärenten Wellen. Inkohärent weil benachbarte Bereiche der Aperturblendenebene nicht vom selben Emissionsort der Lichtquelle ausgehend (monochromatisch) beleuchtet werden und keine feste Phasenbeziehung untereinander haben. Die Grafik in Bild 1 zeigt als Beispiel die zentrale, achsparallele ebene Welle einer Lochblende als Aperturblende.

Jede einzelne dieser ebenen Wellen trifft auf das Objekt und wird dadurch entweder in der Amplitude (Absorption) oder der Phase (transparente Schicht mit bestimmtem Brechungsindex) lokal verändert. Nach dem Huygenschen Wellenmodell geht von jedem ,,Punkt" der Objektebene wieder eine divergente (Kugel-)Welle aus, die zusammen mit den anderen divergenten Objektwellen eine geänderte Wellenfront erzeugt und vom Objektiv aufgefangen wird. Die Ränder dieser Wellen, die noch von der Objektivblende durchgelassen werden, sind schematisch im oberen Bereich der Grafik in Bild 1 dargestellt. Diese Blende ist rot dargestellt und bestimmt in Verbindung mit der Objektivbrennweite dessen numerische Apertur.
Die von jedem Objektpunkt ausgehenden Wellen werden durch das Objektiv wieder in einem Bildpunkt ,,fokussiert", und zwar bei der wellenoptischen Betrachtung dadurch dass der geometrische Umweg, den die Wellenfronten - je nach Abstand des Lichtweges von der optischen Achse – bis zur Bildebene durchlaufen müssen, genau durch die jeweilige optische Dicke der Linsen entlang des Laufweges kompensiert wird. Alle Bereiche der Wellenfront eines Objektpunktes erreichen also in der gleichen Phasenlage wie nach dem Verlassen des Objektpunktes gemeinsam den Bildpunkt, sie interferieren mit maximaler Gesamtamplitude ihrer Wellen und damit maximaler Intensität. Für benachbarte Punkte in der Bildebene sind die von diesem Objektpunkt ausgehenden optischen Laufwege nicht mehr gleich lang, also wird das Licht dort teilweise oder ganz ausgelöscht.

2.Mathematische Modellierung

Man kann die Intensität der Bildpunkte nach dem beschriebenen Wellenmodell durch Berechnung ermitteln, indem man alle Wellen phasenrichtig mit dem Computer aufsummiert. Speziell mit den Methoden der sog. Fourier-Optik kann das Bild relativ einfach berechnet werden. Dabei teilt man die Bildentstehung üblicherweise in zwei Stufen auf:

1.In der Erzeugung des Beugungsbildes des Objektes, das durch eine ebene Beleuchtungswelle des Kondensors entsteht und in der hinteren Brennebene des Mikroskopobjektivs liegt. Die Ebene, in der Abbe die Beugungsbilder seiner bekannten Beugungsversuche beobachtet hat. Hier wird das Beugungsbild mathematisch gefiltert um u.a. den Einfluss der Objektivblende zu berücksichtigen.

2. In der Erzeugung des Beugungsbildes der von der hinteren Objektivbrennebene ausgehenden Wellenfronten, das in der Bildebene des Objektives liegt. Also das eigentliche reale Bild des Objektes.

Die Beugungsbilder in beiden Abbildungsstufen entstehen mathematisch durch sog. Fouriertransformation. Eine Fouriertransformation erzeugt in der Optik nichts anderes als die Richtungsverteilung eines auf eine Linse auftreffenden Wellenbündels, in Form einer Intensitätsverteilung in ihrer hinteren Brennebene.

Die zweite Fouriertransformation stellt dann quasi die ,,Rücktransformation" der vom Objektiv erzeugten ersten Beugungsverteilung des Objektes zu dessen Bild dar. Durch die begrenzte Objektivöffnung werden die weit nach außen verlaufenden Wellenanteile abgeblockt, bekanntlich verringert sich dadurch der Informationsgehalt des aufgefangenen Wellenbündels und damit die Auflösung von Details. Das ist der Mechanismus, den Abbe in experimenteller Form erforscht und erstmals 1873 in seinem Aufsatz ,,Beiträge zur Theorie des Mikroskops und der mikroskopischen Wahrnehmung" (Archiv f. mikroskop. Anatomie, Bd. 9, S. 413-468) beschrieben hat.

Wenn bei der Berechnung des Mikroskopbildes nicht nur das Beugungsbild einer einzelnen, ebenen Beleuchtungswellenfront verwendet wird, sondern das gesamte Bündel der Wellenfronten das durch die Aperturblendenöffnung des Kondensors entsteht, und diese Bilder addiert werden (in diesem Fall nicht als Wellenamplituden sondern inkohärent als Intensitäten), entsteht das reale Bild des Mikroskops bei normaler Kondensorbeleuchtung.

Bei der Bildentstehung muss man zwischen Amplituden- und Phasenobjekten unterscheiden. Nicht weil die Theorie unterschiedlich wäre, sondern weil die Effekte deutlich voneinander abweichen. Reine Amplitudenobjekte schwächen nur die Intensität der durchlaufenden Wellen, wie z.B. eine gedruckte Objektmikrometerskala. Der Bildkontrast entsteht unmittelbar durch die Intensitätsunterschiede bei der Lichtabsorption, Interferenzeffekte spielen eine untergeordnetere Rolle. Ein Phasenobjekt besitzt keine Absorption sondern erzeugt durch den abweichenden Brechungsindex oder der Dicke nur eine Phasenverschiebung der Wellen. Transparente Wasserorganismen sind eine gute Annäherung. Der Bildkontrast kann dabei nur durch Interferenz entstehen, also der Auslöschungen oder Verstärkung der Amplitude überlagerter phasenverschobener Wellen. Der Effekt ist aber nur dann direkt deutlich sichtbar, wenn es sich um eine starke Phasenverschiebung in Bezug auf die Wellenlänge handelt. Reale biologische (oder mineralische) Objekte sind meist eine Mischung aus beiden Eigenschaften.

3.Numerische Rechenbeispiele für Amplitudenobjekte

In den folgenden Bildern sind zur Demonstration einige Beispiele numerisch errechneter Beugungsbilder von sehr einfachen Amplitudenobjekten dargestellt. Gerechnet wurde aus darstellungstechnischen Gründen nur eindimensional, d.h. die Objekte sind helle Linien auf dunklem Grund senkrecht zur Abbildungsebene, wie z.B. Skalenstriche von der Seite betrachtet. Qualitativ ergibt sich dadurch kein Unterschied in der Intensitätsverteilung gegenüber einer rotationssymmetrischen Struktur (wie z.B. Punkte oder Kreise als Objekte).

Bild 1 zeigt als einfachstes Beispiel eine dünne Linie, dessen primäres Beugungsspektrum in der hinteren Brennebene des Objektives (blaue Linie in der 2. Grafikreihe) von einem Filter (rotes Rechteck) begrenzt wird. Beleuchtet wird die Linie von einer ebenen achsparallelen Welle, in der Praxis entspricht das einer kleinen Lochblende als Aperturblende (siehe Grafiken in der 1. Reihe). In den Grafiken nimmt von links nach rechts die (mathematische) Filterbreite bzw. die entsprechende (reale) Blende im Objektiv zu. In der 3. Grafikreihe ist die dabei zunehmende Bildauflösung durch Verschmälerung des (roten) Beugungsbildes der engen Objektlinie zu sehen. Der linke Filter stellt sozusagen ein Objektiv geringer numerischer Apertur dar, der rechte eine hohe numerische Apertur.

Die Auflösung von Mikroskopobjektiven wird durch die Trennbarkeit zweier sich überlappender Beugungsbilder von punkt- oder linienförmigen Amplitudenobjekten definiert. Bild 2 zeigt zur Demonstration in der zweiten Grafik-Reihe zwei dünne Linien (blau) in engem Abstand, etwa im Bereich der angenommenen Objektivauflösung. Hier wird im Gegensatz zu Bild 1 (wie auch in dem meisten folgenden Abbildungen) die gleiche Objektivblende verwendet, geändert wird jeweils nur der Beleuchtungswinkel durch Änderung der Aperturblende. Die linke Grafik zeigt den Effekt, wenn die beleuchtende ebene Welle maximal schräg auf das Objekt trifft (also die nullte Beugungsordnung gerade noch einseitig vom Objektiv aufgefangen wird). Von links nach rechts wird die Beleuchtung in den 4 Grafiken zunehmend achsparallel.
Die in den Grafiken überlagerten roten Kurven zeigen wieder das jeweils zugehörige Beugungsbild. Links sind die beiden Linien (scheinbar) maximal aufgelöst, zwischen beiden Beugungsbildern wird sogar die Intensität Null erreicht.

Die Linienauflösung wird in den rechten Grafiken zunehmend geringer, bei achsparalleler Beleuchtung sind die Linien in dem konkreten Beispiel nicht mehr aufzulösen. Ganz rechts wird zum Vergleich die etwa zwischen den Extremen liegende Auflösung gezeigt, wenn alle möglichen Beleuchtungsrichtungen aufsummiert werden, sie entspricht der normalen Kondensorbeleuchtung bei offener Aperturblende (NAObjektiv = NAKondensor).

Das Problem der selektiv schiefen Beleuchtung mit einer ebenen Welle sind die entstehenden Interferenzstrukturen, die z.T. eine erhöhte Auflösung nur vortäuschen. Das erkennt man erst bei komplexeren Objekten wie die in Bild 2 in der untersten Reihe abgebildeten breiteren Linie (Breite = Abstand der Einzellinien). Bei schiefem Einfall der ebenen Welle entstehen in der Realität nicht vorhandene Kantenüberhöhungen am Rand des Linienprofils, und auch stärkere Beugungsstrukturen außerhalb der Linie. Die beiden Kantenstrukturen wirken nach dem gleichen Prinzip kontrasterhöhend wie Kantenfilter in Bildbearbeitungsprogrammen. Ganz rechts wird wieder wie bei der Doppellinie das Bild gezeigt, wenn die verschiedenen schief beleuchtenden Wellen aufsummiert werden. Das Bild weist die größte Realitätsnähe mit den wenigsten Artefakten auf.

1/6 microscopy: oblique illumination

Lupus

Ähnliches sieht man in Bild 3, das in der zweiten Grafikreihe 4 Linien in gleichem Abstand (kurzes Liniengitter) zeigt. Der Linienabstand ist etwas geringer als bei der Doppellinie gewählt und eigentlich nicht mehr auslösbar. Bei schiefer Beleuchtung tritt hier durch Interferenz der Effekt auf, dass scheinbar 3 Linien vorhanden sind. Das rechte Bild mit breiter Objektausleuchtung zeigt abgesehen von den minimalen Intensitätsschwankungen (die von Vereinfachungen bei der Berechnung stammen) keine Struktur mehr.

Die dritte Grafikreihe zeigt dann als weiteres Beispiel die Umgebung einer Objektkante. Bei maximal schiefer Beleuchtung entsteht durch den starken Einfluss der Interferenz des breiten Objekts links von der Kante ein verfremdetes Bild. Bei achsparalleler Beleuchtung rechts entsteht das in vielen Physik-Lehrbüchern dargestellte sehr markante Beugungsbild einer ebenen Welle an einer Kante. Ganz rechts wieder die volle Aperturausleuchtung mit dem Ergebnis, dass die Kante mit größter Realitätsnähe gezeigt wird. Die Schlussfolgerung ist, dass bei Amplitudenobjekten schiefe Beleuchtung, insbesondere die Beleuchtung in einem engen Winkelbereich, keinen Auflösungsvorteil bringt und nur einen Scheinkontrast erzeugt, den man mit Bildbearbeitungsmitteln seriöser erreichen kann.

4.Numerische Rechenbeispiele für Phasenobjekte

Analog zu den Berechnungen von einfachen Amplitudenobjekten zeige ich hier einige Ergebnisse für Phasenobjekte. Bild 4 zeigt die gleiche Anordnung wie Bild 1, nur mit einer dünnen Linie als Phasenobjekt. Dadurch kommt als weiterer Parameter die Stärke der Phasenverschiebung dazu. In den Rechenbeispielen wird der Wert in Winkelgrad angegeben, 180° entspricht einer halben Wellenlänge Phasenverschiebung gegenüber der Umgebung. Die folgenden Beispiele enthalten meist zwei Werte, 35° als schwächere bzw. moderate Phasenverschiebung, und 115° als starke Phasenverschiebung, die bereits zu undefinierten Intensitätsverhältnissen führen kann. Im Unterschied zum gleichartigen Amplitudenobjekt weist das Phasenobjekt eine sehr hohe Intensität im Zentrum des Beugungsspektrums auf (blaue Kurven in der zweiten Grafikreihe), die nullte Beugungsordnung. Daher entsteht speziell bei geringen Objektphasenverschiebungen ein geringer Bildkontrast gegenüber dem hellen Hintergrund. Außerdem entstehen im Vergleich zum gleichen Amplitudenobjekt sehr intensive Beugungsmuster.

2/6

Lupus

In den folgenden Abbildungen 5, 6 und 8 wurden zusätzlich zur Beleuchtung mit offener Aperturblende auch schiefe Beleuchtung mit halbseitiger Aperturblende, ringförmige Beleuchtung und Dunkelfeldbeleuchtung dargestellt.

Bild 5 lässt erkennen, dass bei schiefer Beleuchtung der bekannte Reliefeffekt nur bei moderater Phasenverschiebung richtig dargestellt wird, nicht mehr bei starker Phasenverschiebung. Dagegen ist die normale Hellfeldbeleuchtung neben Dunkelfeld bei starker Phasenverschiebung die beste Lösung, und ringförmige Beleuchtung liefert insgesamt zu viele Artefakte.

Bild 6 zeigt die gleichen Beleuchtungskonstellationen bei einer einzelnen breiten Linie. Hier ist das Bild ähnlich, schiefe Beleuchtung wirkt nur bei moderaten Phasenverschiebungen richtig, Dunkelfeld bei richtiger Interpretation als Verstärker des Kantenkontrastes ist immer verwendbar, und normales Hellfeld wieder bei starker Phasenverschiebung.

3/6

Lupus

Bild 7 zeigt das gleiche Objekt wie Bild 6, aber als Beleuchtungskonstellation den in der Praxis bei normaler Hellfeldbeleuchtung regelmäßig genutzten Fall, dass die Aperturblende zur Erhöhung des Kontrastes symmetrisch etwas zugezogen wird (Grafiken von links nach rechts mit abnehmendem Aperturblendendurchmesser). Hier ist die Kontraststeigerung, aber auch die sehr starke Zunahme von Beugungsartefakten erkennbar. In der Realität weichen die Effekte allerdings deutlich davon ab, da man meist mit dickeren Präparaten und entsprechender Tiefenunschärfe arbeitet, und sich eine Änderung des Beleuchtungskegels auch auf diese Objektteile auswirkt.

Bild 8 zeigt die gleiche Beleuchtung wie Bild 5 und Bild 6, jedoch die Kante eines breiten Objektes.

Die Verwendung von schiefer Beleuchtung zur Verbesserung von Bildkontrast bzw. Auflösung ist also komplex. Auch Abbe deutet in seiner Veröffentlichung von 1873 eine mögliche Steigerung des Auflösungsvermögens durch schiefe Beleuchtung an im Vergleich zur ,,centralen Beleuchtung". Er erkennt und beschreibt aber bereits die Problematik von Beugungsartefakten:

,,In Folge dessen können an allen Objecten, welche überhaupt zwei einigermaassen gleichartige Streifungen darbieten (gemeint ist ein System zweier sich in einem Winkel kreuzender Liniengitter), durch blosse Veränderung des Lichteinfalls deren noch mehrere in anderen Richtungen sichtbar gemacht werden, wofern der Oeffnungswinkel des angewandten Objectivs zur Feinheit der Streifung ein passendes Verhältnis hat – wie u.A. an mehreren Diatomeen deutlich hervortritt." Und weiter ,,Alle diejenigen Erscheinungen im mikroskopischen Bild, welche nicht schon mit dem blossen Absorptionsbilde gegeben sind, sondern der Mitwirkung der durch Beugung entstandenen Strahlengruppen bedürfen, d.h. alle Anzeigen von Structurdetail, liefern im Allgemeinen keine der wirklichen Beschaffenheit der Objecte conforme, d.h. geometrisch ähnliche, Abbildung. Wie constant, markirt und scheinbar körperlich derartige Anzeigen (Streifensysteme, Felderzeichnungen und dergl.) im Mikroskop auch auftreten mögen, so dürfen sie doch nicht morphologisch, d.h. als Bilder körperlicher Formen, sondern nur physikalisch, d.h. als Merkmale - nicht als Abbilder – gewisser materieller Verschiedenheiten in oder an den betreffenden Theilen gedeutet werden; und zwar kann aus dem mikroskopischen Befund mit Sicherheit auf Nichts weiter geschlossen werden, als auf das Vorhandensein solcher Structurbedingungen, als zur Erzeugung des die Abbildung vermittelnden Beugungsphänomens nothwendig und hinreichend sind.
... Von diesem Standpunkte aus erscheinen u.A. alle Versuche, den Bau der feineren Diatomeenschalen durch morphologische Deutung ihrer mikroskopischen Bilder festzustellen, als auf unzulässige Prämissen gegründet. Ob z.B. Pleur. angulatum zwei oder drei Streifensysteme besitze; ob überhaupt wirkliche Streifung vorliege, oder ob die sichtbaren Zeichnungen von isolirten Erhöhungen, oder von isolirten Vertiefungen herrühren u. Dergl., darüber kann kein noch so vollkommenes Mikroskop und keine noch so hohe Vergrößerung Aufschluss geben."

4/6

Lupus

5.Schiefe Beleuchtung als Phasenkontrastverfahren – Analytische Beschreibung der Bildentstehung mit Hilfe der Fourieranalyse

Die eigentliche Bedeutung der schiefen Beleuchtung liegt in seiner Wirkung als Phasenkontrastverfahren. Der dabei entstehende Reliefeffekt ähnelt dem Relief, das durch das DIK-Verfahren entsteht. Und das ist kein Wunder, da die schiefe Beleuchtung ebenfalls die Größe der örtlichen Phasenänderung zeigt (d.h. mathematisch gesprochen die Steigung der Funktion die das Phasenobjekt beschreibt), nicht den absoluten Wert der Phasenverschiebung wie beim Verfahren nach Zernike.

Die Beispiele der numerischen Berechnungen zeigen in Bild 5 und Bild 6 (jeweils in der Grafik links bei 35° Phasenverschiebung) deutlich den Reliefeffekt bei schiefer Beleuchtung von Phasenobjekten. Man kann die Entstehung dieses Effektes mit etwas mathematischem Aufwand aus der Fouriersynthese der Objektform erklären. Das Objekt, genauer seine darstellende Funktion, wird bei der Fourier-Analyse zunächst in seine spektralen Bestandteile zerlegt (üblicherweise in eine Serie von Sinus- und Cosinusfunktionen). In der Physik verwendet man dabei oft die komplexe Form der Exponentialfunktion als Basis der Reihenentwicklung, d.h. die Form eimx = cos(mx) + i*sin(mx), um Phasenbeziehungen modellieren zu können (siehe Bild 9). Daraus werden die ebenfalls komplexen Entwicklungskoeffizienten der Fourierreihenentwicklung cm, die die Form cm = am + i*bm haben, durch Integration errechnet. Die Objekt"form" kann dann wieder als Summe dieser Koeffizienten, multipliziert mit der inversen Exponentialfunktion e-imx rekonstruiert werden. Die Koeffizienten cm reichen im Idealfall von -∞ bis ∞, der mittlere Koeffizient c0 bildet das Zentrum des Beugungsbildes, also die Beugungsordnung Null bzw. die Richtung der beleuchtenden Welle. Höhere Indizes m stellen gebeugte Anteile mit zunehmendem Beugungswinkel dar. Durch entsprechende symmetrische Beschränkung der Zahl der Koeffizienten um den Koeffizienten c0 herum kann nun die das Beugungsbild begrenzende Objektivöffnung rechnerisch simuliert werden, oder durch unsymmetrische Verwendung der Koeffizientenindizes eine schiefe Beleuchtung. Mit der Methode wurden im Prinzip auch die numerischen Berechnungen durchgeführt.

In Bild 9 wird am Beispiel eines Phasenobjektes mit geringer Phasenverschiebung dessen Fourieranalyse in verkürzter Form erklärt. Durch die Annahme einer geringen Phasenverschiebung kann man gewisse Symmetriebedingungen für die Fourierkoeffizienten formulieren (Gl. 4a), und dann die Fourierreihe vereinfachen indem man sie statt von -∞ bis ∞ nur noch von 0 bis ∞ gehen lässt. Dadurch löschen sich wichtige Koeffizienten durch ihr entgegengesetztes Vorzeichen gegenseitig (rote Ausdrücke in Gl. 7). Physikalisch bedeutet das nichts anderes als dass ein Teil der Funktion aufgrund der Symmetrie der Beugung negative und positive Beugungsordnungen gleicher Amplitude, aber entgegengesetzter Phase aufweist, die sich beim Zusammentreffen wieder auslöschen. Gl. 8 zeigt die mathematische Struktur des Beugungsbildes, eine konstante Hintergrundhelligkeit mit dem Wert 1 und imaginäre Anteile mit sinus- und cosinusförmiger  Zusammensetzung. Die mit dem Auge sichtbare Intensität wird nach Gl. 9 berechnet, das Ergebnis ist bei der Näherung schwacher Objektphasenänderung eine konstante Intensität ohne Struktur.

Im Vergleich dazu wird im Beispiel 2 die einseitig schiefe Beleuchtung analysiert. Dadurch entfallen die Komponenten, die sich bei symmetrischer Beleuchtung gegenseitig auslöschen, Gl. 11 ist dadurch komplexer als Gl. 8 für die gleiche Objektfunktion, sie besteht aus imaginären und reellen Anteilen. Der reelle Anteil ist von seiner Form her in 1. Näherung die mathematische Ableitung der Objektform. 1. Näherung deshalb, weil hochfrequentere Fourieranteile um den Faktor 1/k von der idealen mathematischen Ableitung abweichen. Gl. 13 ist wieder die für das Auge sichtbare Intensität des zusammengesetzten Beugungsbildes. Jetzt ist der konstanten Hintergrundhelligkeit 1 eine schwächere Intensitätsverteilung überlagert, die etwa die örtliche Steigung der Funktion des Phasenobjektes wiedergibt.

5/6

Lupus

Bild 10 zeigt am Beispiel einer Linie mit halbkreisförmigem Phasenquerschnitt (obere Reihe) und rechteckigem Phasenquerschnitt (untere Reihe) die Intensitätsverteilung bei maximal schiefer Beleuchtung. In der Grafik ist zusätzlich als grüne Linie die mathematische Ableitung der kreisförmigen Objektform eingezeichnet. Nach dieser Kurve müsste im Idealfall die Intensitätsverteilung verlaufen, wenn sich ein fehlerfreier differentieller Phasenkontrast ergeben würde. Einerseits wirkt sich aber die Beugungsunschärfe des Bildes aus (das Objekt ist nur etwa 4x so breit wie die Objektivauflösung), andererseits verhindern Interferenzeffekte der kohärenten Beleuchtung den idealen Verlauf. Bei dem unteren rechteckigen Objekt ist die Abweichung vom idealen Verlauf noch bedeutend stärker, da die Objektfunktion zwei Sprünge an den Rändern macht. Bild 11 zeigt die gleichen Objekte, aber mit ,,normaler" inkohärenter schiefer Beleuchtung, die den ganzen Beleuchtungswinkelbereich von maximal schief bis achsparallel enthält. Dadurch ist zwar der Bildkontrast deutlich geringer, dafür ist die Darstellung des Objektes bzw. dessen differentielle Änderungen bei geringeren Phasenänderungen weitgehend objektähnlich. Große Abweichungen ergeben sich unverändert bei steilen Phasensprüngen und gleichzeitig starker Objektphasenverschiebung.

Aus den theoretischen Überlegungen und numerischen Berechnungen ergibt sich, dass die optimale Blende für schiefe Beleuchtung genau die Hälfte der Aperturblende, bis zur optischen Achse, abdecken sollte. Dadurch werden die geringste Beleuchtungskohärenz und damit minimale Beugungsartefakte erzeugt. Eine größere Aperturöffnung verringert den Bildkontrast. Eine schmälere Aperturöffnung mit Abdeckung des Zentrums erhöht zwar den Bildkontrast, vergrößert jedoch die Bildfehler. Quer zur Beleuchtungsrichtung gibt es Spielraum für Formen von ,,Mondsichelförmig" bis ,,Dreiviertelmond", dadurch wird die Schattenwirkung für Strukturen quer zur Beleuchtungsrichtung beeinflusst.

Hubert

jcs

Hallo Lups,

danke für diese sehr ausführliche und gründliche Darstellung! Das ist bei vielen Diskussionen/Überlegungen zur Bildentstehung im Mikroskop sehr hilfreich. Vielleicht kannst Du das ja sogar als Gesamtdokument in Form einer pdf-Datei zusammenstellen.

Eine Anmerkung noch zur Auflösung: Bei kohärenter Beleuchtung lassen sich da nur sehr schwer allgemeingültige Aussagen machen, da die Auflösung von der spezifischen Phasenverschiebung abhängt. Je nach genauer Objektgeometrie und Einstrahlwinkel kann die Auflösung bei kohärenter Beleuchtung niedriger, gleich groß oder höher als im inkohärenten Fall sein. Die Ergebnisse, die Du zeigst, gelten also nur für die von Dir gezeigten Objektgeometrien. Bei einer Verallgemeinerung muss man immer vorsichtig sein.

Eventuell könntest Du die Auflösungsgrenzen in Bild 2 noch in Bezug zum Abbe-Limit setzen. Da würde man dann sehen, dass die Auflösungsgrenze nach Abbe kein allgemeingültiges Gesetz ist, das für alle Objektgeometrien und Beleuchtungsszenarien gilt. Im linken Diagramm in Bild 2 wäre z.B. die Auflösung ja höher als im Abbe-Fall.

Aber insgesamt eine sehr gelungene Darstellung, die man so kompakt und doch umfassend woanders nur schwer findet.

Jürgen

Horst Wörmann

Hallo Hubert,

so eine Zusammenfassung als herunterladbare pdf wünsche ich mir auch. In Deiner gründlichen Ausarbeitung steckt eine Menge Arbeit, dazu die sorgfältigen Zeichnungen. Wäre schade, wenn das nach einer Woche in den Tiefen des Forums verschwinden würde.

Viele Grüße
Horst

Lupus

Hallo Jürgen,

ZitatEine Anmerkung noch zur Auflösung: Bei kohärenter Beleuchtung lassen sich da nur sehr schwer allgemeingültige Aussagen machen, da die Auflösung von der spezifischen Phasenverschiebung abhängt. Je nach genauer Objektgeometrie und Einstrahlwinkel kann die Auflösung bei kohärenter Beleuchtung niedriger, gleich groß oder höher als im inkohärenten Fall sein. Die Ergebnisse, die Du zeigst, gelten also nur für die von Dir gezeigten Objektgeometrien. Bei einer Verallgemeinerung muss man immer vorsichtig sein.
Phasenobjekten mit kohärenter schiefer Beleuchtung lässt sich eigentlich nicht sinnvoll eine Auflösung zuordnen. Ich habe auf gerechnete Beispiele verzichtet da sie keine wirkliche Information liefern. Sie sehen meist aus wie die Aufzeichnung eines Erdbebens mit einem Seismographen. Dass die Auflösung eines klassischen Amplituden-Testobjektes in Form von 2 Punkten oder 2 Linien (oder gleichmäßige Gitter) bei kohärenter Beleuchtung höher oder niedriger als im inkohärenten Fall ist, ist ja gerade in Bild 2 dargestellt. Die Aussage ist für dieses einzig sinnvolle Testobjekt aber auch allgemeingültig. Bei allen anderen, komplexeren Objekten lässt sich keine sinnvolle Aussage treffen. Das war wiederum Grund für die Darstellung der jeweils unteren Reihe in den Bildern 2 und 3. Meine Aussage "Die Schlussfolgerung ist, dass bei Amplitudenobjekten schiefe Beleuchtung, insbesondere die Beleuchtung in einem engen Winkelbereich, keinen Auflösungsvorteil bringt und nur einen Scheinkontrast erzeugt, den man mit Bildbearbeitungsmitteln seriöser erreichen kann." sehe ich schon als allgemeingültig an. Denn wenn ich vorher wissen muss, wie das Objekt aussieht, um zu rechtfertigen dass das Bild nicht durch Beugungsartefakte entstanden ist, kann man nicht allgemein von einer höheren Auflösung sprechen.

ZitatEventuell könntest Du die Auflösungsgrenzen in Bild 2 noch in Bezug zum Abbe-Limit setzen. Da würde man dann sehen, dass die Auflösungsgrenze nach Abbe kein allgemeingültiges Gesetz ist, das für alle Objektgeometrien und Beleuchtungsszenarien gilt.
Mir ist nicht ganz klar wie das in Bezug setzen gemeint ist. Die Abbe-Theorie geht davon aus, dass ein Objekt aufgelöst wird wenn mindestens die 1. Beugungsordnung neben der 0. Beugungsordnung (oder zwei andere Ordnungen) erfasst wird. Abbe ging dabei von einem Gitter aus, das ist aber ein zu spezieller Fall, daher ist die Abbe-Theorie oft missverständlich. Natürlich sieht das Beugungsspektrum in der hinteren Objektivebene je nach Objekt sehr unterschiedlich aus, am wenigsten nach einem Gitterspektrum mit sauber getrennten Beugungsordnungen. Man muss dann ersatzweise das Objekt durch Fourieranalyse in einen Satz überlagerter Gitter umwandeln. Um den Bildumfang in Grenzen zu halten habe ich mir außer im Bild 1 und Bild 4 die zusätzliche Darstellung des zugehörigen Beugungsspektrums gespart.

Das habe ich im angefügten Bild 2b für die Objekte Doppellinie und breitere Linie nachgeholt. Im Gegensatz zum Bild 1 der schmalen Einzellinie, wo das Spektrum mangels Objektstruktur auch strukturlos ist, ist in den beiden anderen Fällen das Spektrum periodisch durch die "Miniperiode" des Abstandes der beiden Linien bzw. Kanten, aber sehr breitbandig. Wieder ist von links nach rechts zunehmend achsparallele Beleuchtung dargestellt, ganz links für das untere Objekt noch etwas schräger, also Dunkelfeldbeleuchtung. Was man bei der Doppellinie erkennt ist dass bei der für das Beispiel gewählten "Grenzauflösung" das vom Objektiv durchgelassene Beugungsspektrum (entsprich der Breite des roten Filters) gerade so breit ist wie die Periode der aufzulösenden Struktur. D.h. wenn alle Beleuchtungsrichtungen von achsparallel bis max. schief durchlaufen werden, durchläuft auch das Bild den Bereich minimaler bis maximaler Auflösung, das wiederholt sich wenn die Beleuchtung noch schräger einfällt. Das Abbe-Kriterium ist in der Grafik links 1. Reihe also gerade eingehalten wenn man die halb angeschnittene Beugungsstruktur als 1. Beugungsordnung ansieht. Spätestens bei komplexeren Objekten wie die darunter in der 3. und 4. Reihe dargestellte breitere Linie funktioniert das Abbe-Kriterium nicht mehr so einfach, weil die Beugungsstrukturen i.d.R. keinen konstanten Abstand mehr haben oder sogar ganz stochastisch angeordnet sein können.

Eine PDF lässt sich hier auch nur mit der gleichen beschränkten Datengröße einstellen.

Hubert

mlippert

Wunderbare Ausarbeitung! Meinen Dank und Glückwunsch! Ein PDF wäre tatsächlich schön!

junio

Hallo Hubert,
herzlichen Dank diese instruktiven Informationen, die aber auch mit Deinen tollen Erklärungen immer noch eine ,,schwere Kost" darstellen. Aber Optik ist eben nicht ganz einfach.
Ein PDF zur problemlosen Speicherung wäre wirklich sehr hilfreich.
Beste Grüße von Jürgen aus Hagen

D.Mon

Hallo Hubert,

auch ich danke Dir für diese ausführlichen Erklärungen.
Falls gewünscht, kann ich Onlinespeicherplatz in meiner privaten Cloud für die Gesamt-PDF zur Verfügung stellen.
In dem Fall bitte ein PN an mich, dann schicke ich Dir einen Link zum Hochladen und veröffentliche anschließend den Downloadlink für die Allgemeinheit.

Viele Grüße
Martin
Bitte per "Du" - Martin alias D.Mon
--
Glück kann man nicht kaufen.
Aber man kann ein Mikroskop kaufen und das ist eigentlich dasselbe!
--
Mikroskope: Motic Panthera U, Lomo MBS-10
Kamera: Sony ILCE-6400

Lupus

Ich versuche eine PDF zu erstellen und die letzte Ergänzung noch einzuarbeiten. Ich hoffe dass sich die größeren Grafiken vernünftig in den Text integrieren lassen.

Hubert


Lupus

Hallo,

ich habe jetzt Zeit gefunden um den Beitrag als PDF zusammenzufassen. Die Ergänzung wurde eingearbeitet und dadurch zwei Grafiken verändert, und ich habe noch zwei zusätzliche Informationen eingefügt aus einem früheren Thread, die das Thema eigentlich ganz gut ergänzen (Vergleichsaufnahmen mit Mikroskop). Die Grafiken musste ich wegen der Größe leider als DIN A3 integrieren.

Hier der Link zum Herunterladen:
https://bit.ly/3xSrPzp

Teil 2 https://bit.ly/3dtDDj3


Hubert