Wieviel Megapixel benötigt man zur Auflösung von Cilien?

Begonnen von Peter V., Mai 24, 2025, 10:30:20 VORMITTAG

Vorheriges Thema - Nächstes Thema

rlu

#15
Hallo,

basierend auf den Artikel und der Formel zur Bestimmung der Vergrößerung:
https://www.teledynevisionsolutions.com/de-de/learn/learning-center/imaging-fundamentals/pixel-size-and-camera-resolution/

2025-05-26 12_51_02-Pixelgröße und Kameraauflösung _ Teledyne Vision Solutions.jpg


2025-05-26 12_52_04-Pixelgröße und Kameraauflösung _ Teledyne Vision Solutions.jpg
Der Begriff "Camera Resolution" ist etwas unklar.
Gemeint ist das maximale Auflösungvermögen, wo zwei Punkte noch voneinander getrennt gesehen werden können. Das muss zuerst das Objektiv leisten und dann die Nachvergrößerung, um es auf den Sensor zu übertragen.


Beispiel:
2025-05-26 12_37_52-DeepSeek - Into the Unknown.jpg


2025-05-26 12_38_22-DeepSeek - Into the Unknown.jpg

Liebe Grüße
Rudolf

mhaardt

#16
Stimmt alles, was Du schreibst. Beim Oszilloskop hast Du ein eindimensionales zeitliches Signal. Bei Bildsensoren hast Du ein zweidimensionales örtliches Signal und entsprechend Ortsfrequenzen, keine zeitlichen Frequenzen. Die zweite Dimension kannst Du aber vereinfachend erstmal ignorieren. Wenn Du Dir ein Linienmuster als zeitliches Signal vorstellst, wäre es eine Rechteckfrequenz.

Weiter vereinfachend kannst Du Dir die Pixel rechteckig vorstellen. Wenn Du damit ein Rechtecksignal abtastest, wird das Ergebnis ein Dreieckssignal sein (hier die Grafik bei "Bedeutung" anschauen):

https://de.wikipedia.org/wiki/Faltung_(Mathematik)

Bei AD-Wandlern hast Du Flash-Wandler und Delta-Sigma-Wandler. Erstere tasten punktweise ab, letztere intervallweise, und damit hast Du wieder genau das Thema der Faltung. Abhilfe: Mehr Abtastung. Und genau das macht ein Oszilloskop auch, wenn es nicht ganz billig war.

In der Diagnoalen sind die Pixel nun dreieckig, d.h. das gibt eine andere Faltung. Und ihr Abstand ist weiter, also sinkt die Grenzfrequenz.

Dann gibt es Mikrolinsen. Die sorgen letztlich für eine kissenförmige Apertur, d.h. die Faltung wird etwas ähnlicher zu einem Kreis.

Aliasing ist bei Farbe besonders hässlich, weil es Farbsäume gibt. Darum baut man in gute Farbkameras low pass Filter ein, die genau das Gleiche wie der Tiefpass beim Oszilloskop tun: Sie dämpfen hohe Ortsfrequenzen. Man kann das auch in Software machen. Die Kanten leiden natürlich darunter. Beim Oszilloskop hast Du dann vielleicht etwas Ringing an
steilen Flanken, und fragst Dich, ob das an der Messung liegt oder ob das wirklich so ist.

Mit all dem bist Du schon weit weg von Nyquist-Shannon: An der Grenzfrequenz ändert sich zwar nichts, aber am Kontrast. Am Oszilloskop wären es verschliffene Signalflanken und eine Schwächung der Amplitude, was Du oben ja auch beim Oszilloskop zitierst. SNR = Signal/Noise Ratio = Signal/Rausch-Verhältnis. Wenn Du bei kleineren Amplituden auch noch Rauschen hast, siehst Du nichts mehr. Ist optisch genau so. Die Abhilfe ist Entrauschen durch mehr Signal, was aber nur bei statischen Bildern geht.

Man muss sich klarmachen, dass der Sensor ein Teil der Bildgebung ist, genau wie die Optik. Im Grenzbereich zeigt ein Oszilloskop auch nicht mehr das wahre Signal, sondern das, was es daraus macht.

Von daher hat das Paper im Kern Recht: Man braucht mehr Pixel, auch wenn es naiv betrachtet unsinnig erscheint. Aber das liegt nicht an der Grenzfrequenz, sondern an dem vorher schon fies absinkenden Kantenkontrast.

Die Webseite zeigt die Mathematik dahinter und wie man auf die Werte kommt, die als Faustformel angegeben werden. Mit mehr Pixeln wird der Gewinn immer kleiner.

Michael

Lupus

Hallo,

noch eine Ergänzung zu der Grafik im Beitrag #13:

Zu der Anmerkung, dass die relative Position der Sensorpixel zum Objekt bei minimalem Pixelabstand (d.h. im 2 Pixel Grenzfall des Sampling-Theorem) die Objektdarstellung beeinflusst, habe ich den ungünstigsten und günstigsten Fall verglichen.

Obere Reihe (ähnlich wie bereits gezeigt) ungünstigste Abtastung des Bildes mit Pixelecken in Objektmitte (blaue Punkte),
untere Reihe der optimale Fall mit Abtastung durch Pixelzentrum in Objektmitte.
Im 2. Fall ist auch bei nur 2 Sensorpixel Objektabstand das Objekt gut erkennbar - was aber in der Praxis nur durch zufällige Streuung der Objektposition zustande kommt.

Abtastung 2 Pixel Objektabstand Rasterverschiebung.jpg

Hubert

Stuessi

#18
Hallo Rudolf und Hubert,

ein Liniengitter
GITTER04neu-01-a1823x1200.jpg
Gitter_nah+1mm-PICT9066 Kopie-g50%-gr.jpg

habe ich aus unterschiedlichen Entfernungen fotografiert.
Von Bild zu Bild habe ich die Entfernung verringert, so dass immer mehr Pixel an der Abbildung beteiligt waren.
Der benutzte Sensor hatte ca. 83 Lp/mm.
Strichgitter mit A900 Kopie.jpg
Strichgitter mit A900-2- Kopie.jpg
Das unterste Bild zeigt das Ergebnis im "Nyquist Fall".
Erst beim Fotografieren des Bildes (55 Lp/mm) mit einem Sensor mit 83 Lp/mm entspricht das Ergebnis etwa dem vom Objektiv erzeugten Bild.
Mit der benutzten Kamera brauche ich also eine Überabtastung mit Faktor ca. 1,5. Es darf auch etwas mehr sein, wie die Bilder zeigen..

Viele Grüße,
Rolf
 

Lupus

Hallo Rolf,

ZitatErst beim Fotografieren des Bildes (55 Lp/mm) mit einem Sensor mit 83 Lp/mm entspricht das Ergebnis etwa dem vom Objektiv erzeugten Bild.
Mit der benutzten Kamera brauche ich also eine Überabtastung mit Faktor ca. 1,5.
das Ergebnis ist aber nicht weit von dem bisher Diskutierten entfernt. Faktor 1.5 heißt etwa 3 Pixel statt 2 Pixel für die Abbildung der Objektivauflösung. Man darf nicht vergessen: Das Sampling-Theorem sagt nicht aus, dass bei dessen (knapper) Einhaltung ein Objekt perfekt objekttreu abgebildet wird, sondern nur dass die Grundeigenschaften aufgelöst, also erkannt werden.

Das ist vergleichbar mit dem Abbe-Auflösungskriterium, wonach Strukturen aufgelöst sind wenn neben der 0. Beugungsordnung auch die 1. Beugungsordnung vom Objektiv erfasst wird. In diesem Fall wird aber ein Rechteckgitter nur vereinfacht als periodische, sinusähnliche Struktur dargestellt. Die genauere Kantendarstellung des Gitters benötigt weitere, höhere Beugungsordnungen.

Bei Deinen Aufnahmen würde ich daher fast die 66 Lp/mm noch als in diesem Sinn aufgelöst ansehen, das entspräche etwa die von mir für die Praxis beschriebene Untergrenze von mindestens 2.5 bis 3 Pixel für die Objektivauflösungs-Abbildung. Wenn man bedenkt dass noch Auflösungsverschlechterungen durch die Bayer-Matrix und eventuell Überlagerungen durch kleinere Abbildungsfehler des Objektivs zu berücksichtigen sind, sind die Aufnahmen m.E. eine gute prinzipielle Bestätigung für das Nyquist-Kriterium. Auf jeden Fall nicht dafür, dass man immer mit erheblichem Übersampling arbeiten muss.

Hubert

jcs

#20
Ich habe versucht, das bisher Gesagte in eine Tabelle zu gießen, unter folgenden Voraussetzungen:
(1) Die Auflösung d des Objektivs ist gegeben durch d=0,61*lambda/NA, wobei als Lichtwellenlänge lambda=550nm gewählt wurde.
(2) Das aufgenommene Bildfeld ist ein Quadrat von 15mm Seitenlänge, d.h. Bildfelddurchmesser ist 21,2mm
(3) Entsprechend Abtasttheorem müssen in den beiden Raumrichtungen jeweils 2 Pixel zum Abtasten von d zur Verfügung stehen.
(4) Alle 4 Bayer-Pixel stehen zum Abstasten des Signals zur Verfügung

Ich habe die Tabelle für absolute High-End-Objektive erstellt. Bei Objektiven mit gleicher Vergrößerung und kleinerer Apertur (Fluotar, Achro-Plan, N-Plan, ..) sinkt der Pixelbedarf mit dem Quadrat der Apertur. Man sieht in der Tabelle, dass speziell für die Objektive mit höchster Auflösung (und somit hoher Vergrößerung) der Pixelbedarf recht klein wird.

Die genannten Pixelzahlen werden überschätzt, weil
(1) die Rechnung von einem perfekten Präparat ausgeht, welches in der Praxis eher selten vorliegt.
(2) die Rechnung von inkohärenter Beleuchtung ausgeht. Bei kohärenter Beleuchtung (zugezogener Kondensor, schiefe Beleuchtung, ..) sinkt die Auflösung, im Extremfall auf die Hälfte. Damit verbunden sinkt auch der Pixelbedarf der Kamera.

Die genannten Pixelzahlen werden unterschätzt, weil man
(1) für den Bayer-Sensor eventuell nicht 4, sondern nur 2 Pixel (z.B. die zwei grünen) einbeziehen will
(2) eventuell eine Über-Abtastung durchführen will.
(3) den Sensor nicht immer perfekt an die 15mm Kantenlänge des Bildfeldes adaptieren kann. Pixel, die in überstehenden Rändern zu liegen kommen, verliert man dann. Falls ein größeres Bildfeld aufgenommen werden soll (z.B. 23mm Bildfelddurchmesser), steigt der Pixelbedarf natürlich auch.

pixelbedarf.jpg

rlu

Hallo Jürgen,

rechnest du das so aus?
Apo 100x/1.4
d=0,61*lambda/NA = (0,61 x 550nm) / 1,4 = 0,239µm

Pixelgröße = Auflösung x Vergrößerung /2,3 = 0,239µm x 100/ 2,3 = 10,39µm Pixelbreite
Fläche vom Sensor 15mm x 15mm

0,015m/10,39µm(je Pixel) =  1444 Pixel
Megapixel vom Chip der Größe 15mmx15mm = 1444^2 = 2,08MP OK


Apo 10x/0,4
d=0,61*lambda/NA = (0,61 x 550nm) / 0,4 = 0,839µm

Pixelgröße = Auflösung x Vergrößerung /2,3 = 0,839µm x 10/ 2,3 = 3,65µm Pixelbreite
Fläche vom Sensor 15mm x 15mm

0,015m/3,65µm =  4110Pixel
Megapixel = 4110^2 = 16,9 MP ?, du hast 13MP

Vollformat:
0,036mm/3,65µm= 9863 Pixel
0,024mm/3,65µm= 6575 Pixel
64MP VollFormatKamera

für die Sensoren nach System:
MFT 17,3mmx13mm
Vollformat 24mmx36mm
APSC 23,5 mm × 15,6 mm
die Megapixel ausrechen

Die Pixelgröße ist natürlich fest. Aber für diesen theoretischen Fall.
Vollformat für das Apo 10x/0.4
0,036mm/3,65µm= 9863
0,024mm/3,65µm= 6575
64MP VollFormatKamera


Lumix G9 versus Nikon Z8
habe das Gefühl, dass die G9 einen Ticken schärfer ist, bei ganz kleinen Details?

Liebe Grüße
Rudolf

Nochnmikroskop

Hallo Hubert,

Zitat aus Post 13: "Man muss sich klar machen, dass es nicht darum geht die beugungsbedingte Intensitätsverteilung genau darzustellen, denn die ist die Unschärfe die prinzipiell verhindert dass die beiden Objektpunkte real abgebildet werden. Das wäre nur in Grenzen durch Dekonvolution möglich, die setzt aber ein rauscharmes Bild mit starkem Oversampling voraus."

Wäre es möglich da Besserungen durch PixelShift zu bekommen, so wie das Steve Beats macht? Die Kameras verschieben teilweise nur 1/2 Pixel fürs PixelShiften.

Zum Thema gibt es auch bei Nikon Beiträge:
https://www.microscopyu.com/tutorials/matching-camera-to-microscope-resolution

LG Frank
Meistens Auflicht, alle Themenbereiche
Zeiss Axiolab, Leitz Orthoplan, Keyence VHX, Olympus SZX16, Canon EOS 700D, Panasonic G9, Touptek u.a.

Lupus

Hallo Frank,

ZitatZitat aus Post 13: "Man muss sich klar machen, dass es nicht darum geht die beugungsbedingte Intensitätsverteilung genau darzustellen, denn die ist die Unschärfe die prinzipiell verhindert dass die beiden Objektpunkte real abgebildet werden. Das wäre nur in Grenzen durch Dekonvolution möglich, die setzt aber ein rauscharmes Bild mit starkem Oversampling voraus."

Wäre es möglich da Besserungen durch PixelShift zu bekommen, so wie das Steve Beats macht? Die Kameras verschieben teilweise nur 1/2 Pixel fürs PixelShiften.

welche Besserungen meinst Du? Für Dekonvolution?

Hubert

mhaardt

Ich vermisse die Betrachtung der Auflösung in der Diagonalen. Hier hat man bei quadratischem Pixelraster eine um Wurzel 2 geringere Pixelfrequenz. Die Tests mit Linien oben lassen diesen Fall auch aus.

Außerdem wies ich auf die Sensor-MTF hin. Man kann die Reduktion des Kontrasts schon vor Erreichen der Grenzfrequenz nicht ignorieren.

Michael

Nochnmikroskop

Hallo,

die Auflösung kann / sollte man tatsächlich im 45° Winkel ermitteln, da tun sich manche Sensoren schwerer, als andere.

s. mein Link zu microscopyu.com.

Anlage Bild daraus

LG Frank
Resolution-Limits microscopyu.com.jpg
Meistens Auflicht, alle Themenbereiche
Zeiss Axiolab, Leitz Orthoplan, Keyence VHX, Olympus SZX16, Canon EOS 700D, Panasonic G9, Touptek u.a.

Nochnmikroskop

Hallo Hubert,

leider wurde meine Antwort wieder mal verschluckt, nicht übermittelt, sehr ärgerlich.

Ich meinete die Erhöhung der Auflösung bzw. das Reduzieren des Rauschens durch PixelShift.

LG Frank 
Meistens Auflicht, alle Themenbereiche
Zeiss Axiolab, Leitz Orthoplan, Keyence VHX, Olympus SZX16, Canon EOS 700D, Panasonic G9, Touptek u.a.

güntherdorn

#27
hallo mikrofotografen,

erstmal hat mich sehr gefreut, wie umfangreich dieses thema hier behandelt wird !
danke an alle.

meine geräte:
1. zeiss unendlich axioskop 50
2. alle a-plan-objektive 4x,10x,20x,40x,63x,100x (inkl. PH)
3. okulare e-pl 10x/20
4. touptec-kamera 14 Mpix (ohne mitgelieferten, miserablem steck-okular)
5. eine linse zum vergrössern (0,5x) damit mehr fläche auf den chip kommt
6. darauf direkt per c-mount die kamera (von 4.)
7. ODER direkt aufliegend der canon 700d-body (noch nur aufliegend, mit schwarzem
  kontakte-schutz), denn zufällig ist das kamera-flansch zu chip-mass mit 44mm
  genau passend zur bildebene über dem zeiss `foto-zylinder`
8. auch blitzen frohr nur schnelle bewegungen ein, ohne dass sich die detail-schärfe besserte.
9. ein fuss-schalter verhindert jegliches verwackeln (hände weg vom tisch u. mikro)

hervorzuheben ist meiner ansicht, dass es NICHT um das kamera-thema gehen sollte,
sondern NUR um die schärfe die im okular zu sehen ist. diese stimmt bei mir,
VOLLSTÄNDIG mit dem kamera-bild überein.
die unschärfe bei mir MUSS am mikroskop liegen,
also ganz sicher nicht an der kamera. auch die software (toupview) ist ok.
mein vergleich mit der canon 700d zeigte, dass nur der kontrast höher war,
die details aber nicht höher aufgelöst wurden.
genau DAS bestärkt meinen "mikroskop-schwerpunkt".

ich  werde ein besseres 40er, 63er oder 100er objektiv bei der kommenden kornrade ausgeliehen bekommen,
mit dem ich meinen "verdacht" zu den "schickimicki"-objektiven bestätigen kann.

daraus ergibt sich natürlich die frage, wie ein paar mikroskopiker hier im forum,
(vor allem mit DIK) eine exorbitante auflösung von event. deutlich unter 0,2µ hinbekommt.

im letzten zoom zeigte ein teilnehmer ("rlu") noch welch gewaltiger (DIK-foto)- unterschied per
software hinzubekommen ist. ich gehe aber sicher davon aus, dass diese feinstrukturen schon
im `flauen ausgangs-foto` da gewesen sein müssen !

ciao,
güntherdorn
- gerne per du -
günther dorn
http://www.mikroskopie-forum.de/index.php?topic=444.0
www.mikroskopie-gruppe-bodensee.de
gildus-d@gmx.de

Lupus

Hallo,

dass bei einem rechteckigem Pixelraster die diagonale Richtung etwas anders abgetastet wird als die vertikale oder horizontale ist eigentlich klar. Aber ich sehe den Unterschied nicht so gravierend, vor allen Dingen habe ich ja bereits argumentiert dass in der Praxis niemand genau mit dem Grenzfall 2 Pixel des Sampling-Theorems arbeitet, und auch bei der ungünstigsten Konstellation eher ein Faktor 2.5-3 zu Grunde gelegt wird. Insofern wird da m.E. ausreichend ein erhöhter Mittelwert verwendet.

Darüber hinaus ist das Thema richtungsabhängige Auflösung mit der Bayer-Matrix nicht ganz so einfach. Denn nur die roten und blauen Pixel haben in der Diagonale einen größeren Abstand, während die wichtigen, in doppelter Zahl vorhandenen grünen Pixel umgekehrt in der Diagonale einen geringeren Abstand haben. Die fehlenden Farb-Pixel der RAW-Daten werden dann noch mit nach verschiedenen Kriterien optimierten Algorithmen zum Bild interpoliert. Nur zu sagen dass diagonal die Auflösung um den Faktor √2 geringer ist erscheint mir zu einfach.

Hubert

Stuessi

Zitat von: Nochnmikroskop in Mai 27, 2025, 13:35:24 NACHMITTAGS...
Wäre es möglich da Besserungen durch PixelShift zu bekommen, so wie das Steve Beats macht? Die Kameras verschieben teilweise nur 1/2 Pixel fürs PixelShiften....
Hallo,

mit Pixelshift mache ich theoretisch aus einem 24 MPixel Sensor einen 96 MPixel Sensor,
der Pixelpitch wird von z.B. 4 µm auf 2 µm verringert. Bei den diskutierten Fällen sind die aber nicht nötig.

Viele Grüße,
Rolf