Wer hatte schon eine Lichtfeldkamera am Mikroskop?

Begonnen von Jörn, Juni 08, 2016, 05:54:28 VORMITTAG

Vorheriges Thema - Nächstes Thema

Lupus

Hallo,

eine kurze Erklärung des Prinzipes und des Problemes:

Die 3D-Information der Lichtfeldkamera entsteht dadurch, dass zusätzlich zur 2D-Postition auch noch die Richtung, aus der das Licht kommt, aufgezeichnet wird. Das geht auf einem 2D-Sensor nur dadurch, dass für jeden Bildpunkt eine größere Fläche aus mehreren Sensorpixeln reserviert wird, auf der diese Zusatzinformation gespeichert wird. Das Bild des Objektes wird also vom Kameraobjektiv auf einen sensorgroßen Linsenarray abgebildet, der in Brennweitenabstand der Linsen vor dem Kamerasensor montiert ist. Die Fläche jeder der winzigen Einzellinsen deckt den Bereich des Sensors ab, der für einen 3D-Bildpunkt reserviert ist. Umso größer die Anzahl der Pixel dieses Bereiches, desto mehr Tiefeninformationen können gespeichert werden. Das Kameraobjektiv hat ein möglichst großes Öffnungsverhältnis, damit ein großer Objektwinkel aufgezeichnet wird (die Lytro Illum z.B. konstant Blende 2). Von einem z.B. auf der Achse liegenden Objektpunkt ausgehend wird daher ein Lichtstrahl, der über den Objektivrand auf den Linsenarray abgebildet wird, mit einem sehr schrägen Winkel dort auftreffen und daher auch am Rand des dazugehörigen Sensorbereiches abgebildet. Ein auf der Achse verlaufender Lichtstrahl wird senkrecht auf den Linsenarray auftreffen und daher in der Mitte des Sensorbereiches abgebildet. Aus der Intensitätsverteilung jedes einzelnen hinter einer Linse liegenden Sensorbereiches kann man mit einem Rechenprogramm (Mathematisch eine sog. Faltung der Intensitätsverteilung mit einer Abbildungsfunktion) die Intensitätsverteilung und Strahlrichtung der Objektstruktur Punkt für Punkt zurückverfolgen und damit verschiedene Schärfeebenen rekonstruieren.

Diese so für den normalen Fotomaßstab (evt. bis in den Makrobereich) optimierte Kamera lässt sich nicht an ein Mikroskop üblicher Vergrößerung anpassen. Ganz einfach deshalb, weil zur optimalen Funktion die Linsen des Linsenarrays das gleiche Öffnungsverhältnis haben müssen wie das aufnehmende Objektiv - sonst wird der sowieso schon kritisch kleine Sensorbereich, der alle Tiefeninformationen enthalten muss, noch weniger ausgenutzt. Ich hatte in dem Thread schon einmal auf die Fehlanpassung hingewiesen, und darauf, dass in dem anfangs verlinkten Bericht nur eine sehr kleine "Mikroskop"-Vergrößerung verwendet wurde. Daher hat die Lytro-Kamera auch nur eine Festblende. Ein typisches Mikroskopobjektiv hat bildseitig ein sehr kleines Öffnungsverhältnis (typisch wenige mm Austrittspupillendurchmesser : 160 mm Tubuslänge, also vielleicht 1:40, je nach Objektiv, im Vergleich zu 1:2 bei der Lytro Illum). D.h. wenn man mit einem Mikroskopobjektiv die Sensoreinheit einer normalen Lichtfeldkamera belichtet (mit abgenommenem Objektiv), wird wegen der zu schlanken Strahlenkegel im ungünstigsten Fall nur 1 Pixel des jeweiligen Sensorbereiches über dessen Mikrolinse belichtet. Die gesamte notwendige 3D-Information geht verloren. Man müsste einen an das Mikroskopobjektiv angepassten Linsenarray verwenden.

Und wenn man wie hier mangels Wechselbarkeit des Kameraobjektives mit dem Okular anpasst - was ja nichts am Grundprinzip der Lichtfeldaufnahme ändern würde - wird die Winkelanpassung zwischen bildseitigem Mikroskopobjektiv-Öffnungsverhältnis und Arraylinsen-Öffnungsverhältnis noch schlechter, da regelmäßig das Kameraobjektiv eine größere Brennweite hat als das Okular und damit der Strahlkegel noch schlanker wird.

Man müsste noch hinweisen, dass es auch noch andere Probleme mit Mikroskopaufnahmen im Vergleich zu Fotoaufnahmen im üblichen Maßstab gibt, da bei der Berechnung des 3D-Bildes andere mathematische Algorithmen angewendet werden müssten (erhöhter Einfluss von Beugungseffekten im Vergleich zu rein geometrischer Optik).

Hubert

the_playstation

Hallo Hubert.

Danke für die Aufklärung. Dann gibt es nur eine Linse vor einem "Pixelarray"? Also keine Linsen mit einer Fokusierung vor und hinter der normalen Schärfeebene? Werden dann unscharfe Bereiche als unscharfer Fleck auf dem Array abgebildet und man kann aber trotzdem aus diesem Fleck die Richtung errechnen?

Liebe Grüße Jorrit.
Die Realität wird bestimmt durch den Betrachter.

Jens Jö

seid mir nicht böse, aber ich bin wohl einfach zu dumm, um das zu verstehen.

Wenn ich durch eine Fenstergardine auf die Straße schaue, kann ich an einem Fleck die Gardine oder die Straße scharfstellen.
Die Richtung des einfallenden Lichtes ändert sich dabei nicht.

Ich verstehs einfach nicht . . .

Lupus

Hallo Jorrit,

jeder zukünftige Bildpunkt wird durch eine einzelne "Arraylinse" und den dahinter liegenden Pixeln des zugehörigen Sensorbereiches gebildet, sozusagen jeweils eine kleine Kamera. Für die Richtungbestimmung ist egal ob das "Bild" scharf oder unscharf ist, die Richtung wird einfach durch den Abstand des belichteten Pixel von der optischen Achse dieser "Minikamera" definiert. Es geht nicht um scharfe Abbildungen von Bildpunkten, sondern um idealisierte geometrische Lichtstrahlen, die aus verschiedenen Objekttiefen kommen können. Das richtige Bild entsteht erst nach dem Rechendurchlauf, da muss keine Objektebene an einer Stelle scharf abgebildet sein, und keine andere Objektebene an anderer Stelle. Nur im Mittel wird das Objektiv auf den gewünschten Abbildungsabstand scharf gestellt, da der Rechenalgorithmus bzw. die geringe Pixelzahl nur einen beschränkten Tiefenbereich errechnen lässt.

Hubert

the_playstation

Hallo Hubert.

Danke. Dann habe ich es richtig verstanden. :)

Liebe Grüße Jorrit.
Die Realität wird bestimmt durch den Betrachter.

Lupus

Hallo,
Zitat von: Jens Jö in Juni 27, 2016, 20:52:37 NACHMITTAGS
Wenn ich durch eine Fenstergardine auf die Straße schaue, kann ich an einem Fleck die Gardine oder die Straße scharfstellen.
Die Richtung des einfallenden Lichtes ändert sich dabei nicht.
doch, der näher am Objektiv gelegene Gardinenpunkt bildet vor dem Objektiv mit dem Objektivrand einen größeren Winkel als ein entfernterer Punkt auf der Straße, nach dem Objektiv aber einen kleineren Winkel (wegen der größeren Bildweite). Und dabei entsteht durch die Arraylinsen-Abbildung eine andere Lichtverteilung, aus der man indirekt den Abstand errechnen kann. Das ist kein Winkel den man mit einem Geodreieck ausmessen kann.  ;)

Hubert

Jens Jö

Hallo Hubert,

ich habs verstanden.
Die großflächige (nicht punktförmige, wie beim Mikroskop) Frontlinse bildet zusammen mit dem Linsenarray ein Array von Stereo-Ferngläsern.

Vielen Dank
Alfred

Lupus



Hallo Alfred,

mit Stereo hat das wenig zu tun. Stell Dir vor Du hast nur noch ein Auge, und dummerweise auch noch grauen Star gehabt und kannst nach der OP nicht mehr akkommodieren. Jetzt siehst Du einen Punkt der Gardine und den dahinter liegenden auf der Straße gleichzeitig unscharf. Aber durch Deine Lebenserfahrung kann Dein Gehirn aus dem verwaschenen Gesamtbild auf der Netzhaut identifizieren, dass vorne im Bild etwas weißes sein muss und hinten etwas schwarzes. Das ist die funktonierende Kamera.
Plötzlich scheint die Sonne, und durch das grelle Licht wird die Pupille klein, der Gardinenpunkt und der Punkt auf der Straße wird schärfer auf der Netzhaut - aber dummerweise kannst Du jetzt nicht mehr die Entfernung beide Objekte aus der Unschärfe ermitteln. Das ist mit Mikroskop  ;D

Hubert

Piper

Hallo,

noch ein kleiner Nachtrag, speziell zu der Frage von Peter Voigt:
Mit einer normalen fotografischen Kamera, welche mitsamt verstellbarem Objektiv anstelle des Auges am Fotookular adaptiert ist, kann man auch bei konstanter mechanischer Fokussierung des Objektes, d.h. bei unverändertem Arbeitsabstand des Mikroskop-Objektivs, in begrenztem Ausmaß durch ein räumliches Objekt stufenlos fokussieren, also auch stacken, wenn man die Entfernungseinstellung am Kameraobjektiv zuerst auf unendlich stellt und hernach stufenlos auf maximale Naheinstellung.

Ich habe dies konkret ausprobiert und es funktioniert. Natürlich ist dieser Fokussierungsbereich viel kleiner als wenn man mittels Feintrieb durch ein dickes Objekt fokussiert, aber er ist doch so groß, dass man einen wesentlichen Zuwachs der Schärfentiefe erreicht, wenn ein Vergleich zu einer Einzelaufnahme gezogen wird. Wenn man bei einer visuellen Beobachtung ein Präparat zuerst mit entspannt auf unendlich akkomodiertem Auge betrachtet und dann das Auge unter Anspannung ins Nahfeld akkomodiert (das kann man üben), dann verändert sich auch in Maßen die Fokusebene des beobachtbaren Bildes. Auch der Autofokus der neuen USB-Kamera von TheImagingSource arbeitet nach dieem Prinzip. Hier kann man ja sogar das zu beobachtende Bild gänzlich unscharf einstellen und der Autofokus der Kamera fokussiert dennoch ein scharfes Bild, das sich nicht von demjenigen unterscheidet, welches bei visuell korrekter Scharfeinstellung fofografierbar ist.

Hätte man also eine Mikroskop-taugliche Kamera zur Verfügung, die simultan mit einem Auslösevorgang mehrere unterschiedlich fokussierte Bilder schießt, könnte man hieraus in begrenztem Maße einen Stack anfertigen und eine doch wesentliche Verbesserung der Schärfentiefe erreichen (wenn auch nicht so ausgeprägt wie beim herkömmlichen Stacken). Derselbe Effekt ließe sich auch erreichen, wenn man mehrere Einzelkameras gleichzeitig adaptieren und deren integrierte Objektive auf unterschiedliche Entfernungen einstellen würde.

Praktische Ergänzung zu Hubert´s Ausführungen:
Die kleine Lytro mit geringem Objektivdurchmesser (Frontlinsendurchmesser: 2,5 cm) erkennt wenigstens noch eine Ebene des Objekts und bildet diese in einem Foto ab (ohne ,,Berg- und-Tal"-Artefakte), wenn auch in sehr schlechter Qualität. Die große Lytro Illum (Filtergewinde 72 mm) ist schon hierzu nicht mehr in der Lage und rekonstruiert nur noch ,,Phantasiebilder", weil der ,,Kalibersprung" zwischen der Öffnungsweite des Kamera-Objektivs und dem schmalen bildgebenden Lichtbündel des Mikrokops noch größer ist.

Ich konnte recherchieren, dass die Lichtfeldkameras von Raytrix, die ja zur Mikrofotografie angeboten werden, im Gegensatz zu den Lytros verschiedene Mikrolinsen mit unterschiedlichen Krümmungsradien enthalten.  So sollte eigentlich jeder Krümmungsradius einer definierten korrespondierenden Fokusebene entsprechen können, so dass entsprechend der Anzahl unterschiedlicher Mikrolinsen unterschiedlich fokussierte Mikrobilder in einem Auslösevorgang entstehen dürften. In der Normalfotografie soll durch dieses Design mit unterschiedlich gekrümmten Mikrolinsen der Refokussierungsbereich im Vergleich zu den Lytros noch weiter gesteigert werden.

Es wäre sicherlich mal interessant, eine solche Raytrix-Kamera auszuprobieren (aus rein technischem Interesse, unter Ausblendung des Anschaffungspreises)

Schöne Grüße

Jörg

Carlos

Hallo Jörg,
ZitatDie kleine Lytro mit geringem Objektivdurchmesser (Frontlinsendurchmesser: 2,5 cm)
2,5 cm?, ich nehme an, Du meist 2,5 mm.
Gruß Carlos

Lupus

Hallo,

bei den beiden Raytrix Kameras für Mikroskopie sieht man das Problem der notwendigen optischen Anpassung (und die Lösung): Für deren Mikrolinsen wird abweichend von den normalen Kameras ein Öffnungsverhältnis von f/26 angegeben - also etwa der bildseitige Wert, den Mikroskopobjektive im Durchschnitt haben.

Hubert

Piper

Hallo Carlos,

auch die kleine Lytro hat eine feste Blende 2,0 und ein optisches 8x-Zoom. Die Außenlinse des Objektivs ist tatsächlich im Durchmesser 2,5 cm groß. Wie sehr sich das Lumen des Lichtkanals im Inneren der Kamera verjüngt, weiß ich nicht. Im Querschnitt mist die kamera insgesamt 4x4 cm, also passen die 2,5 cm gut hinein.  :-)

Viele Grüße

Jörg