Wieviel Megapixel benötigt man zur Auflösung von Cilien?

Begonnen von Peter V., Mai 24, 2025, 10:30:20 VORMITTAG

Vorheriges Thema - Nächstes Thema

Peter V.

Hallo,

ein Forenmitglied schrieb mich an, dass vom Vortragenden auf der letzten Hagener Onlineveranstaltung geäußert worden sei, dass mit einer Kamera mit 14 MP Cilien nicht "gut darstellbar" seien. Ich konnte an der Veranstaltung nicht teilnehmen und weiß insofern auch nicht, ob das genau so geäußert wurde. Mich hat das insofern etwas verwundert, als ich mich an Diskussionen hier im Forum vor Jahren erinnere, in denen oft die Ansicht vertreten wurde, dass in der Mikrofotgrafie deutlich weniger Megapixel erfordelich seien, da die Auflösung der Optik hier der limitierende Faktor sei.

Herzliche Grüße
Peter
Dieses Posting ist frei von kultureller Aneigung, vegan und wurde CO2-frei erstellt. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

purkinje

Hallo Peter,
nur kurz, Thilos Aussage im Vortrag deckt sich mit dem was er zum sampling theorem in seinem Artikel S.7 unten schreibt: https://www.researchgate.net/publication/349640735_Perfect_oblique_illumination, es ging m.E. nach vornehmlich um die Verwendung von Zwischenoptik im Vgl. zum "Ofenrohr"

Die hiesige Diskussion an welche ich mich noch erinnere war: https://www.mikroskopie-forum.de/index.php?topic=23337.0

Beste Grüße Stefan

Peter V.

#2
Hallo Stefan

Danke für den Hinweis, dann befasse ich mich noch einmal damit. Mir war jetzt weder die genaue Aussage noch deren Begründung auf der oben erwähnten Veranstaltung bekannt. Ich hatte nur frühere Diskussionen im Hinterkopf, in denen es oft hieß, dass die hohen Pixelzahlen modernerer Kameras in der Mikroskopie keine wirklichen Vorteile brächten.
Insofern verwundert mich, dass die Mikroskophersteller auch heute noch im Preissegment um 2000 und mehr EUR Kameras auch "nur" 7 oder 8 MP anbieten.

Herzliche Grüße
Peter
Dieses Posting ist frei von kultureller Aneigung, vegan und wurde CO2-frei erstellt. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

purkinje

Hallo Peter,
bei diesen (es gab noch andere) Diskussionen redeten (2015) einige viel zu oft aneinander vorbei, was, wie bei anderen Diskussionen hier auch, um diese Zeit leider viel zu oft zu Missverständnissen und -stimmungen führte. (Ich für meine Teil habe mich damals hier recht zurückgezogen).

Auch bei der aktuellen Frage hat jeder etwas andere Vorstellungen von den black boxes / Unbekannten in der persönlichen "Gleichung"; will sagen z.B. Sensorgüte und Kamerasoftware werden nicht einbezogen, bzw. es gibt darüber auch keine sichere, einfach zugängliche Erkenntnis, was naturgemäß zu anderen Beobachtungen und Ansichten führen kann.   
Beste Grüße Stefan

rlu

#4
Hallo, Peter, Stefan,
ich war auch dabei und habe auch die Frage gestellt, wie man das ausrechnet.
Habe aber die Antwort vom Thilo nicht verstanden.

Thilo schreibt: Siehe Linkhinweis:
https://www.researchgate.net/publication/349640735_Perfect_oblique_illumination
Seite 7

zitiert:
"
Kontrast und Sampling
Der Bildkontrast des Mikroskops ist untrennbar mit der mikroskopischen Auflösung verbunden. Feine Details erfordern einen hohen Kontrast, um vom Auge wahrgenommen zu werden [23]. Bei modernen Halbleiter-Bildsensoren hat auch deren Geometrie einen Einfluss auf den Kontrast im Foto. So werden diagonal verlaufende, periodische Strukturen mit einem digitalen Fotosensor weniger kontrastreich wiedergegeben als solche, die parallel zur Pixelanordnung verlaufen (Abb. 6). Der Verfasser wurde gelegentlich um Rat gebeten, wenn mit einer bestimmten Adaption einer Digitalkamera mit einem Labormikroskop die mit dem Auge gesehenen, feinen Details in Digitalfotos nicht abgebildet waren. Der Grund ist stets eine zu gering gewählte Nachvergrößerung des Kameraadapters, welche keine scharfen Bilder ergab.
Häufig wurden Digitalkameras mit zu geringer Anzahl von Pixeln gewählt
und oder
eine geringe Nachvergrößerung, einfach oder Verkleinerung, um das gesamte Sehfeld im Okular auf den Sensor abzubilden.

Das Sampling-Theorem ist eine wichtige Forderung, welche besagt, dass die Breite der Beugungsfigur in der Bildebene mindestens von zwei Pixeln des Kamerasensors erfasst werden muss. Bei vielen Digitalkameras kommt heute ein Farbsensor mit einer (meist quadratischen) Anordnung der farbempfindlichen Pixel zum Einsatz, die als Bayer-Matrix bezeichnet wird (Abb. 6, unten). Bei diesen Kameras muss die gesamte Einheit von vier benachbarten Farbpixeln als ein Bildelement aufgefasst werden, da zwischen ähnlichen Farbkelementen nicht dieselbe Farbinformation gefunden wird.

Dies bedeutet, dass für solche Farbkameras nur die halbe vom Hersteller angegebene Anzahl der Farbpixel für Länge und Breite des Sensors in die Abschätzung zur Erfüllung des Sampling-Theorems eingeht, einem Viertel der Gesamtzahl der Pixel.

Ist das Sampling-Theorem nicht erfüllt, können Digitalfotos Details an der Auflösungsgrenze nicht wiedergeben.

Aus der Forderung des Sampling-Theorems ergibt sich für die Adaption der Digitalkamera einerseits eine minimal erforderliche Nachvergrößerung des Bildes durch den Kameraadapter. Andererseits ergibt sich aus der Forderung, das Sehfeld möglichst vollständig abzubilden, auch eine minimale Anzahl von (Farb-)Pixeln.

Der Fotoadapter erfordert eine Nachvergrößerung von 1,6-fach für eine digitale Spiegelreflexkamera mit APS-C Sensor (22×15 mm) oder 2,2-fach für eine Vollformatkamera,
um bei einer typischen Breite von 3,5 µm der farbempfindlichen Pixel das Sampling-Theorem zu erfüllen.

Dies entspricht nicht zufällig der Vergrößerung gängiger Fotoadapter moderner Forschungsmikroskope.

Die Anzahl der Pixel entspricht demnach mindestens 20-24 Megapixel, um mit hochauflösenden Objektiven das Sampling-Theorem zu erfüllen und gleichzeitig den Durchmesser des Sehfelds abzubilden.

Die beliebte Offenrohr-Adaptation ohne Zwischenoptik erfüllt das Sampling-Theorem demnach nicht.
Dies ist der eigentliche Grund, warum sie keine befriedigende Abbildung liefert.
"
Zitat - Ende
------

Ich verstehe es gerade nicht:
20MP
3:2(Vollformat,APSC) (15:10) Format: 20 MP entspricht ungefähr 5477 x 3651 Pixel.
4:3(MFT) (12:9) Format: 20 MP entspricht ungefähr 5164 x 3873 Pixel.

Pixelgröße:
Vollformat 36x24mm; Pixelgröße: 24mm(Höhe) /3651 =  0,0065mm = 6,5µm
APSC 22,2x14,8 mm; Pixelgröße: 14,8mm(Höhe)/3651 =  0,00405mm = 4,1µm
MFT 17,3x13mm; Pixelgröße: 13mm(Höhe) / 3873 = 0,00335mm = 3,4µm

Ein Pixel auf dem Chip hat rund 4µm = 0,004mm
Zwei Pixel haben eine Breite von 8µm

Geißel Bakterie 5-20nm, zu klein
Wimpertierchen: Die Wimpern selbst sind etwa 0,2 Mikrometer dick und 10 Mikrometer lang.
Das dürfte die Auflösungsgrenz von einem Lichtmikroskop sein.


Wimpern, Cilien auf dem Chip auflösen:
10fach Objektiv = 10 x 0,2µm = 2µm(das wird nicht gehen)
100fach Objektiv = 100 x 0,2µm = 20µm(das sollte doch gehen, 8µm sind zwei Pixel oder müssen es 16µm sein, wegen dem Bayer-Sensor?

Wo ist der Denkfehler oder passt das, warum Nachvergrößerung?
Vielleicht liest das ja der Thilo, und kann das genauer erklären.

Seite vom Thilo:
https://microinformatics.net/index.php/de/blog


Liebe Grüße
Rudolf

Rawfoto

Hallo Peter, zu Deiner Frage warum die ,,Mikroskop-Kameras" so eine geringe Auflösung bieten. Da muss man die Sensorfläche betrachten, die ist um das Vielfache kleiner als bei APSC oder gar Vollformat.

Dann sind die 8 schon wirklich viel😆

Liebe Grüße

Gerhard
Gerhard
http://www.naturfoto-zimmert.at

Rückmeldung sind willkommen, ich bin jederzeit an Weiterentwicklung interessiert, Vorschläge zur Verbesserungen und Varianten meiner eingestellten Bilder sind daher keinerlei Problem für mich ...

Peter Reil

Hallo,

wenn das in der Theorie so sein sollte, dann wäre es doch ein Leichtes, dafür ein paar Fotobeispiele hier einzustellen. Kamera mit 24 Megapixel versus Kamera mit 5 Megapixeln im direkten Vergleich.

Dann lasse sogar ich mich (vielleicht) bekehren.

Gruß
Peter
Meine Arbeitsgeräte: Olympus BHS, BHT, CH2, CHK, Olympus SZ 30, antikes Rotationsmikrotom

Lupus

Hallo,

Zitat...dass mit einer Kamera mit 14 MP Cilien nicht "gut darstellbar" seien
da müsste man tatsächlich genauer wissen was diskutiert wurde. Bezog es sich auf eine spezielle Art der Kamera-Adaption (z.B. die vom Vortragenden zu Recht kritisierte zwischenoptiklose "Ofenrohradaption")?

Zitatbei diesen (es gab noch andere) Diskussionen redeten (2015) einige viel zu oft aneinander vorbei, was, wie bei anderen Diskussionen hier auch, um diese Zeit leider viel zu oft zu Missverständnissen und -stimmungen führte.
Auch bei der aktuellen Frage hat jeder etwas andere Vorstellungen von den black boxes / Unbekannten in der persönlichen "Gleichung"; will sagen z.B. Sensorgüte und Kamerasoftware werden nicht einbezogen, bzw. es gibt darüber auch keine sichere, einfach zugängliche Erkenntnis, was naturgemäß zu anderen Beobachtungen und Ansichten führen kann.   
Das ist vollkommen richtig, wenn man über ein in der Praxis so komplexes Thema diskutiert muss man erst einmal über die technischen Randbedingungen einig sein.

Das beginnt damit dass der Informationsgehalt des Mikroskopbildes (und damit die notwendige Kamerapixelzahl) bereits vom Objektiv abhängt, speziell vom Verhältnis Objektivvergrößerung/NA. Es ging in der Diskussion sicher um den Bereich maximaler Auflösung, also hoher NA. Das hier "übliche" Objektiv 100/1.25 hat rechnerisch eine Auflösung von 0.22 µm, Bildseitig entspricht das 22 µm. Wenn man als Bildkreisdurchmesser mindestens 18 mm annimmt, passen max. 820 solche gerade noch aufgelösten Strukturen in den Bilddurchmesser. Wenn man stattdessen ein "modernes" Objektiv 40x/1.20 oder 40x/1.30 betrachtet, passen hier bei vergleichbarer Auflösung (ich habe jetzt den Mittelwert NA 1.25 genommen) durch die geringere Objektivvergrößerung etwa 2050 Strukturen in den gleichen Bilddurchmesser. Entsprechend höher müsste die Kamerapixelzahl höher sein.

Wenn man jetzt beim "Standardobjektiv" 100/1.25 bleibt und die angesprochene 14 MP-Kamera betrachtet:
Diese hat bei einem Bildformat 3:2 etwa 4600x3070 Pixel. Üblicherweise werden Kameras so adaptiert dass der Bildkreis nicht mehr zu sehen ist, bei einem APS-C Sensor entspräche das mit 10x-Okuar einem Kameraobjektiv von etwa 40 mm, oder bei okularloser Adaption einer Vergrößerungsoptik 1.5x. Bezogen auf den ganzen Bildkreisdurchmesser von 18 mm deckt die Kamera dann 5530 Pixel ab (Diagonale des Sensors), also rechnerisch 6.7 Pixel je aufgelöster Struktur. Das ist auf jeden Fall deutlich mehr als das Sampling-Theorem mit mindestens 2 Pixel fordert. Selbst wenn man für den Bayer-Sensor um einen Faktor 2 mehr Pixel als notwendig betrachtet.

Aber auch die pauschale Annahme, dass man durch die Lücken bei den Farbsensoren der RGB-Sensormatrix nur die halbe Auflösung erreicht, ist nicht ganz richtig. Zumindest für farblose oder farbarme Objekte wie zahlreiche Phasenobjekte. Hier erzeugen alle Farbpixel zusammen die lückenlosen Grauwerte für das Bild. Natürlich muss man das Bild dann auch entsprechend aus dem RAW-Format optimal nutzen und darf sich nicht auf eine "consumerfreundliche" JPG-Komprimierung der Kamera mit deutlicher Rauschminderung und Kontrasterhöhung verlassen.

Noch eine Anmerkung zu den erwähnten relativ geringen Pixelzahlen professioneller Mikroskopkameras:
Da liegt der Schwerpunkt teilweise sicher etwas anders als im Amateurbereich. Einerseits wird da oft nicht versucht den letzten Millimeter des Bildkreises abzubilden (und dadurch stehen mehr Pixel für Detailauflösung zur Verfügung als die reine Gesamtpixelzahl vermuten lässt), andererseits sind andere technische Daten leistungsfähiger als bei Consumer-Kameras.
Z.B. sind bei den Zeiss-Axiocams die Sensoren gekühlt was zu weniger Rauschen führt. Das ist speziell bei der Video-/Livebildfunktion wegen der sonst starken Sensorerwärmung wichtig, und weniger Rauschen verringert die Notwendigkeit mehr Pixel als nach Sampling-Theorem erforderlich zu verwenden. Videoaufnahmen habe keine reduzierte Auflösung im Gegensatz zu typischen Consumer-Kameras (insofern müsste man beim Vergleich der Pixelzahl hier die angegebene Sensorgröße deutlich reduzieren). Und die Sensoren verwenden einen Global-Shutter was in Verbindung mit den möglichen kurzen Belichtungszeiten von 1/10000 s oder sehr hohen Video-Bildraten bei bewegten Objekten von Bedeutung ist.
Das alles kann man natürlich unnötig finden, aber eben nicht jeder professionelle Nutzer.

Hubert



jcs

#8
Zitat von: rlu in Mai 24, 2025, 13:40:52 NACHMITTAGSDie beliebte Offenrohr-Adaptation ohne Zwischenoptik erfüllt das Sampling-Theorem demnach nicht.
Dies ist der eigentliche Grund, warum sie keine befriedigende Abbildung liefert.

Zitat von: Lupus in Mai 25, 2025, 12:38:12 NACHMITTAGSda müsste man tatsächlich genauer wissen was diskutiert wurde. Bezog es sich auf eine spezielle Art der Kamera-Adaption (z.B. die vom Vortragenden zu Recht kritisierte zwischenoptiklose "Ofenrohradaption")?
Hallo Rudolf, Hubert,
die optiklose Adaption wird in Euren Beiträgen aus meiner Sicht unverdient in die optische Schmuddelecke gestellt. Bei den Mikroskopen mit Unendlichoptik werden die Objektivfehler sehr gut durch die Tubuslinse korrigiert, d.h. man hat ein sehr gutes Zwischenbild verfügbar. Wenn man dann noch einen Sensor mit passender Größe wählt (z.B. mft für Mikroskope mit den gebräuchlichen 22mm bzw. 23mm Bildfeldgröße) hat man eine gute Bildfeldabdeckung in Kombination mit ausreichend Pixeln (z.B. 20MPx bei den meisten aktuellen mft-Kameras).

Ich kann im praktischen Einsatz auch keinen Unterschied entdecken zwischen optiklos adapierter mft-Kamera und Vollformatkamera mit Anpassungsoptik. Ich habe die unten gezeigten Bilder schon einmal in einem anderen Thread gezeigt, als Beispiel für einen Vergleich Vollformat (Nikon Z8) und mft (Panasonic G9). Ich sehe da keinen Unterschied in der Bildqualität.

Aufnahme ist mit einem Leica HC PL Fluotar 10x/0.3, welches ähnliche Anforderungen an die erforderliche Pixelzahl stellt wie ein 40x/1.2. Objektive, mit denen hier die meisten hochauflösenden Bilder gemacht werden (100x, 63x), sind in Bezug auf erforderliche Pixel weniger anspruchsvoll, d.h. mit einer halbwegs aktuellen DSLR/DSLM Kamera ist man heute immer auf der sicheren Seite in Hinblick auf die notwendige Pixel-Auflösung.

LG
Jürgen

Gesamtansicht:
vergleich_gesamt.jpg

Detailansicht aus der Bildmitte:
vergleich_detail.jpg

Lupus

Hallo Jürgen,

ich habe die optiklose Adaption nicht in die optische Schmuddelecke gestellt, sondern mich nur auf das Argument von Thilo bezogen wenn dadurch keine gute Anpassung des Kamerasensors an den Bildfelddurchmesser erfolgt. Die Bildqualität von Unendlichoptik war nicht das Thema. Du hast Recht dass MTF-Kameras mit einer Sensordiagonale von etwa 21.6 mm gut passen, viele andere Kameras wie u.a. die hier wohl beliebten Canon-APS-C aber weniger.

Hubert

mhaardt

Ich muss dem Paper in einem wichtigen Detail widersprechen, nämlich in der falschen Benutzung des Sampling-Theorems, aber dadurch wird sein Argument stärker: Man braucht noch mehr Pixel, als er sagt, weil Pixel kein Nyquist-Shannon-Sampling machen, sondern sie machen erst eine Faltung (weil sie nicht unendlich klein sind), und dann das Sampling:

Hier der Fall für monochrom:

https://www.moria.de/tech/image-sensors/mtf/

Bei Farbe wird es nochmal deutlich komplexer, und bei Verwendung eines low pass Filters nochmal.

Viele Diskussionen finden zwischen Theoretikern und Praktikern statt. Wenn man die Faltung ignoriert, gibt es Streit. Wenn man sie mit einbezieht, sind sich beide einig. :-)

Visuell ist die Bewertung schwierig. Letztlich geht es um die Frage des Gradienten an Kanten. Das Paper hat absolut Recht, dass man natürlich ein wunderbares SNR braucht, wenn man ans Limit will. Nur dann kann man in Software alles aus dem Bild rausholen, was drin ist.

Michael

rlu

#11
Lieber Michael(mhaardt),

danke für deinen Beitrag.
Kannst du erklären, möglichst verständlich, um was es in dem Artikel geht, was eine Faltung ist.
SNR ausschreiben.


Ich habe ja Berührpunkte mit der Elektronik.
Obwohl das scheinbar unterschiedliche Dinge sind, gibt es da auch Verbindungen.
Beim Oszilloskop gibt es u.a. Bandbreite(z.B.: 100Mhz), Abtastrate(z.B.: 2Gsa/s) und einen Tiefpass-Filter.

Der Tiefpass in einem Oszilloskop ist absichtlich eingebaut worden und dämpft die hohen Frequenzen.
Das vermindert die Bandbreite.
Die Abtastrate muss mindest doppelt so hoch sein wie die höchste Frequenz, sonst kommt es zu Abtastfehler, dem Aliasing.
Aliasing bedeutet, dass das diskrete Signal falsche Informationen über das ursprüngliche Signal enthält, da die höheren Frequenzanteile als niedrige Frequenzen interpretiert werden.
Die Bandbreite, also die höchsten Frequenzen müssen niedriger sein, also das was die Abtastraste leisten kann. Deswegen dämpft man die hohen Frequenzen mit einem Tiefpassfilter.
In der Praxis ist die Abtastraste nicht nur um den Faktor 2 höher, sondern meist wesentlich größer.

Wer sich dafür interessiert:
0x02 Oszilloskop - Bandbreite und Abtastrate (Abtasttheorem, Aliasing)
https://www.youtube.com/watch?v=rBBt7-foM74&ab_channel=Hex-Factory.

What is aliasing and the Nyquist theorem?
https://www.youtube.com/watch?v=IZJQXlbm2dU&ab_channel=AwesomeAcousticsinEnglish
Das Video zeigt sehr schön, wie Aliasing entsteht, wenn mit weniger als der doppelten Frequenz abgetastet wird. Was Abtastung ist, sieht man auch sehr schön.
Ist Abtastfrequenz und Signalfrequenz gleich ==> Ergebnis ist eine Gleichspannung
Bei Unterabtastung fa < 2xfs, dann kommt eine kleiner Frequenz raus als die Signalfrequenz fs hat.

Abtastfrequenz doppelt so groß wie Signalfrequenz. Zumindest die Frequenz stimmt
2025-05-27 10_38_53-What is aliasing and the Nyquist theorem_ - YouTube – Mozilla Firefox.jpg

Abstastfrequenz = Signalfrequenz. Ergebnis: Gleichspannung
2025-05-27 10_38_27-What is aliasing and the Nyquist theorem_ - YouTube – Mozilla Firefox.jpg

Abtastfrequenz < 2 Signalfrequenz. Ergebnis: langsamere Frequenz
2025-05-27 10_38_11-What is aliasing and the Nyquist theorem_ - YouTube – Mozilla Firefox.jpg

Liebe Grüße
Rudolf

Nebenbemerkung:(Nur für Elektroniker)
Wie mißt man die Abtastrate beim Oszi
https://youtu.be/fucKMSQPp0M?t=1961
Anzeige von Vektor auf Punkte(Dots)
Der Zeitabstand zwischen zwei Punkte ist die Abtastrate

min 33:00
Sampling Rate: 2GSa/s =  1s/2E12 = 500E-15 s oder 500ps
Der Abstand zwischen zwei Dots beträgt 500ps.
Eine Sinuswelle hat hier 18 Abtastabschnitte: T= 18x 500ps = 9E-9 = 9ns. f= 111 MHz.
Was mich wundert, dass es bei der relativ niedrigen Frequenz nicht mehr Abtastpunkte sind. Wäre das Signal komplexer, kriegt man schon einiges nicht mehr mit.
Das hat jetzt nichts mit Micsig zu tun.

rlu

#12
Hallo,

etwas abstrakt:

2025-05-26 11_42_08-DeepSeek - Into the Unknown.jpg
2025-05-26 11_42_15-DeepSeek - Into the Unknown.jpg
2025-05-26 11_42_23-DeepSeek - Into the Unknown.jpg
2025-05-26 11_42_54-DeepSeek - Into the Unknown.jpg
2025-05-26 11_43_06-DeepSeek - Into the Unknown.jpg
2025-05-26 11_43_12-DeepSeek - Into the Unknown.jpg

https://www.youtube.com/watch?v=rBBt7-foM74&ab_channel=Hex-Factory
0x02 Oszilloskop - Bandbreite und Abtastrate (Abtasttheorem, Aliasing) - Hex Factory
min: 9:13

2025-05-26 12_07_47-0x02 Oszilloskop - Bandbreite und Abtastrate (Abtasttheorem, Aliasing) - YouTube.jpg

So weit ich das verstanden habe wäre der Hügel links bei fa noch Ok.
Bewegt er sich weiter rechts, Richtung 2xfa, dann wäre die maximale Frequenz überschritten.
Dann passieren Aliasing-Effekt. Weil sich der Berg wiederholt. Hier bei den niedrigen Frequenzen.

2025-05-26 12_07_47-0x02 Oszilloskop - Bandbreite und Abtastrate (Abtasttheorem, Aliasing) - YouTube2.jpg

Lupus

Hallo Michael,

es ist richtig dass bei Verwendung des Grenzfalls des Sampling-Theorems, also dass man zwei Pixel zum Abtasten der Grenzauflösung benötigt, die Objektauflösung in der Praxis nicht funktioniert. Eben weil der theoretische Grenzfall mathematisch ideale Intensitätsverteilungen voraussetzt, und auch dann - negativ formuliert - gerade die Grenze der Nichterkennbarkeit erreicht ist. Dazu kommt dass die Position der bildabtastenden Pixel in Bezug auf die Original-Intensitätsverteilung bei diesem Grenzfall auch einen Einfluss hat. In der Praxis verwendet man mindestens 2.5 bis 3 Pixel.

ZitatDas Paper hat absolut Recht, dass man natürlich ein wunderbares SNR braucht, wenn man ans Limit will. Nur dann kann man in Software alles aus dem Bild rausholen, was drin ist.
Ein stark begrenzender zusätzlicher Faktor ist das Pixel-Rauschen. Dieses Problem lässt sich aber gerade durch Software nicht lösen, es ist ein weit verbreiteter Irrtum dass man durch Entrauschen und anschließend möglicher Kontrastverstärkung reale zusätzliche Informationen erhalten kann die nicht schon im Ursprungsbild enthalten sind.

Ich habe hier ein (synthetisches) Beispiel, wie sich eine Intensitätsverteilung zweier durch Beugung unscharfer Objektpunkte beim Abtasten mit wenigen Pixel verändert. Oben links das Originalbild mit relativ hoher Pixellauflösung, der blaue eingezeichnete Pfeil (auch in den anderen Grafiken) deutet jeweils den Mittelpunkt der punktförmigen Objekte an. Der Kontrast dieser Verteilung ist höher als das Rayleigh-Auflösungskriterium, es geht hier nur um das Prinzip.

In der ersten Reihe rechts oben das Ergebnisbild mit 2 Pixeln Abtastung für den Objektabstand. Die ohne Rauschen trotzdem z.T. unsymmetrische Helligkeitsverteilung der Pixel kommt daher, dass die Abtastung durch jedes Pixel die ganze darunter liegende Fläche in der Intensität integriert, das Pixelraster hier aber nicht symmetrisch zu den Objektpunkten liegt.

In der zweiten Reihe dann 3 Pixel Abtastung, in dritten Reihe 4 Pixel Abtastung. Bei 3 Pixel kann man Objekte normalerweise immer Auflösen, vorausgesetzt dass nahezu kein Rauschen vorliegt (rechts mit Rauschen wird die Erkennung von zwei symmetrischen Strukturen bereits problematisch).

Man muss sich klar machen, dass es nicht darum geht die beugungsbedingte Intensitätsverteilung genau darzustellen, denn die ist die Unschärfe die prinzipiell verhindert dass die beiden Objektpunkte real abgebildet werden. Das wäre nur in Grenzen durch Dekonvolution möglich, die setzt aber ein rauscharmes Bild mit starkem Oversampling voraus.

Abtastung durch 2-4 Pixel im Objektabstand.jpg

Hubert


rlu

#14
Hallo,

hier ein Ansatz, sich dem Thema praktisch/theoretisch zu nähern:

2025-05-26 14_30_53-PowerPoint-Bildschirmpräsentation - [Präsentation1].jpg

2025-05-26 14_35_22-PowerPoint-Bildschirmpräsentation - [Präsentation1].jpg

Und weil immer Bewegung vorhanden ist: brownsche Molekularbewegung oder Bewegung vom Objekt oder Vibrationen, muss die Vergrößerung noch größer gewählt werden.

Die Frage ist natürlich jetzt reale Vergrößerung oder auch durch Nachvergrößerung.
Die Apertur muss natürlich so hoch sein, dass die Cilien getrennt voneinander aufgelöst werden.

https://www.teledynevisionsolutions.com/de-de/learn/learning-center/imaging-fundamentals/pixel-size-and-camera-resolution/



Liebe Grüße
Rudolf