Kaufberatung - Mikroskop mit Kamera bis 5000€

Begonnen von revnu, Juni 29, 2021, 01:04:02 VORMITTAG

Vorheriges Thema - Nächstes Thema

kmueho

#45
Hallo Oliver,

ZitatDie Anzahl der MPx ist irreführend, weil da das Sensorformat drin steckt. Was zählt ist der Pixelabstand

Ich kenne die Theorie (Nyquist-Überabtastung = 2, wegen der geringeren Auflösung in Diagonalrichtung 2x Wurzel(2) = ca. 3).
Aber die Theorie hat drei Schwachstellen:
1. Die Vergrößerungsangabe des Objektivs.
Ich habe mal ein 20x-Objektiv von Leitz auf das Axioskop geschraubt. Das vergrößert erheblich weniger. Das hat etwas mit dem durchs Okular sichtbaren Bildkreis zu tun und der daraus resultierenden "scheinbaren" Vergrößerung. Dieser Blickwinkel geht aber nirgends in die Formeln ein.
2. Die mittlere Lichtwellenlänge (550nm).
Um auf der sicheren Seite zu sein, müsste man die längste Wellenlänge nehmen (400nm).
3. Die Theorie geht davon aus, dass benachbarte Pixel eines Sensors keinerlei Wechselwirkung haben (Überstrahlen o.ä.). Diese Voraussetzung halte ich für gewagt.

Meine Erfahrung zeigt, dass die Theorie unvollständig ist und im Zweifelsfall falsche/unbrauchbare Aussagen macht.
Daher meine Empfehlung mit den 24MP. Damit sollte man einigermaßen auf der sicheren Seite sein, wenn man den verfügbaren Bildkreis auf die Sensorbreite anpasst.

Anbei die Fotos der beiden "20x"-Objektive.

Viele Grüße,
Kai

othum

Hallo Kai,

wie liegen ja gar nicht weit auseinander, aber...

Zitat von: kmueho in Juli 02, 2021, 14:30:32 NACHMITTAGS
Hallo Oliver,

ZitatDie Anzahl der MPx ist irreführend, weil da das Sensorformat drin steckt. Was zählt ist der Pixelabstand

1. Die Vergrößerungsangabe des Objektivs.
Ich habe mal ein 20x-Objektiv von Leitz auf das Axioskop geschraubt. Das vergrößert erblich weniger. Das hat etwas mit dem durchs Okular sichtbaren Bildkreis zu tun und der daraus resultierenden "scheinbaren" Vergrößerung. Dieser Blickwinkel geht aber nirgends in die Formeln ein.
2. Die mittlere Lichtwellenlänge (550nm).
Um auf der sicheren Seite zu sein, müsste man die längste Wellenlänge nehmen (400nm).
3. Die Theorie geht davon aus, dass benachbarte Pixel eines Sensors keinerlei Wechselwirkung haben (Überstrahlen o.ä.). Diese Voraussetzung halte ich für gewagt.

Meine Erfahrung zeigt, dass die Theorie unvollständig ist und im Zweifelsfall falsche/unbrauchbare Aussagen macht.
Daher meine Empfehlung mit den 24MP. Damit sollte man einigermaßen auf der sicheren Seite sein, wenn man den verfügbaren Bildkreis auf die Sensorbreite anpasst.

1. klar, es zählt natürlich die tatsächliche Vergrößerung. Und die ist natürlich für die Objektive im angedachten Gesamtsystem angegeben. Leitz an Zeiss ist da nicht vorgesehen ;)

2. Auch klar, aber 550nm ist halt zum einen die (halbwegs) mittlere Wellenlänge des sichtbaren Lichts, außerdem die, mit der höchsten Empfindlichkeit des Auges. Hier 400 nm zu nehmen würde ehrlicherweise nur Sinn ergeben, wenn man einen entsprechenden KP Filter verwendet und quasi monochromatisches Licht einsetzt.

3. Die Rechnung bezieht sich ja auf das Abbe-Limit, also für Durchlichtobjekte unter perfekten Bedingungen. Überstrahlung würde man ja eher bei selbstleuchtenden oder reflektierenden Objekten erwarten. Deshalb wird die Auflösung dort auch nach dem Rayleigh Kriterium anders berechnet.

4. Die MPx sind trotzdem irreführend, weil nur in Kombination mit Sensorgröße, bzw, genutztem Bildkreis aussagekräftig.

Beste Grüße, Oliver
Zeiss Axiovert S100 HF/Ph/DF, Auflicht-FL
Zeiss Axioskop 50 HF/Ph/Pol, Auflicht-HF/DF/Pol
Kamera: Pentax K-1

kmueho

#47
Hi Rene,

ZitatWhat happens when you reduce your first images 50%? I bet it is better than the second image.

I scaled the 24MP picture down by 70,7% (per dimension). Some detail got lost but the picture is still better than the (original) 12MP photo.
But that's not surprising. Even computer games render internally in higher resolutions and then scale down the result for better image quality.

Regards,
Kai

kmueho

Hallo Oliver,

Zitat4. Die MPx sind trotzdem irreführend, weil nur in Kombination mit Sensorgröße, bzw, genutztem Bildkreis aussagekräftig.

Natürlich braucht man je nach Sensorgröße eine andere Adaption. Aber wenn man den Bildkreis auf die (jeweilige) Sensorgröße angepasst hat (Bei meiner 24MP-Empfehlung ist der sensorgrößenunabhängige Bildkreisdurchmesser = Bildbreite), ist nur noch die Auflösung (MP) des Sensors relevant. Schließlich muss die vorhandene Bildinformation auf die Pixel verteilt werden. Und dafür braucht man die entspr. Anzahl Pixel.

Bei reiner "Ofenrohr"-Adaption (ohne Anpassungslinse) hast du recht. Dann ist der Pixelabstand des Sensors relevant. Dann braucht man bei einem Vollformat-Sensor 2,25x mehr Pixel, als bei einem APS-C Sensor. Man muss aber auch mit dem Bildkreis vorlieb nehmen, der sich (zufällig) durch die Sensorgröße ergibt. Beim Axioskop und einem Ofenrohr+Vollformatsensor müsste ich dann schon 54MP (=24 x 2,25) empfehlen, welche aber schlecht ausgenutzt würden.

Viele Grüße,
Kai

Stuessi

#49
Zitat von: revnu in Juli 02, 2021, 00:06:49 VORMITTAG

Und wenn man sich da das Netzteil anschaut, sieht das aus wie aus den 70ern.
....auf jeden Fall, wenn man sich das Netzgerät anschaut:


Hallo,

ein Mikroskop würde ich nicht nach seinem Netzteil bewerten.

Und für 100 W Halogenlampen funktionieren diese Netzteile aus den 70-Jahren ausgezeichnet.

Gruß,
Rolf

edit:

Eine Bemerkung zur Megapixel-Diskussion:

Ein 24 MPixel Sensor vom Bayer-Typ entspricht bezüglich der Auflösung in etwa einem perfekten 6 MPixel Sensor.
Mit "mehr Pixeln" kann man nichts falsch machen.

ImperatorRex

Zitat von: Stuessi in Juli 02, 2021, 16:44:25 NACHMITTAGS

ein Mikroskop würde ich nicht nach seinem Netzteil bewerten.


Ich wähle ja auch nicht eine gebrauchten Immobilie nach den Tapeten aus :-) 

peter-h

Hallo Kai,

die beiden Bilder mit einer 12 MP und einer 24 MP Kamera sind unmöglich einfach zu vergleichen. Da liegen vermutlich einige Jahre zwischen den Erscheinungsdaten der Kameras vor.
Nenne doch die beiden genauen Bezeichnungen um Klarheit zu schaffen.
Selbst die optische Adaption ist unterschiedlich und sicher nicht vergleichbar.

Gruß
Peter

Peter V.

Hallo,

als ich die Bilder sah, dachte ich zunächst: Überzeugend! Ohne mich jetzt mit physikalischen Theorien, Berechnungen Nyqusit und Co zu beschäftigen (ich gedbe zu, dass ich da eher Pragmatiker bin) stelle ich mir aber zunehmend aber die Frage: Welche Bedeutung hat das alles für jemanden, der einfach dein gutes, ästhetisches Mikrotot anfertigen möchte? Für die meisten Mikroskopiker ist das Mikroskop nicht "Selbstzweck" und ein physikalisches Spielzeug für Auflösungsversuche etc.
Die meisten Mikroskopiker möchten einfach "mikroskopieren" und schlicht ästhetische Bilder ihrer Objekte anfertigen. Wer braucht deratige Ausschnittsvergrößerungen? Wie groß müsste das Bild sein, damit man den Unterschied letztlich überhaupt sähe? Diese auf die Spitze getriebene "Auflöserei" ist eben ein sedhr spezielles Hobby innerhalb der Mikroskopie, aber für den "normalen" Mikroskopiker völlig irrelevant.
Mir kommt man ein wenig so vor, als empfehle man einem Autokäufer, dass das Modell aber unbedingt diese und jene Ausstattung haben müsse, weil es nur so 380 km/h erreiche. Die aber selbst der sportliche Fahrer nicht auch nur ein einizges Mal selbst ausfahren würde.
Man kann alles auf die Spitze treiben und d a  n n braucht man vermutlich auch extrem leistungsfähiges "Werkzeug" - nicht aber für den "Norfmalfall".

Herzliche Grüße
Peter
Dieses Posting ist frei von kultureller Aneigung, vegan und wurde CO2-frei erstellt. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

kmueho

Hallo Peter (V.),

ZitatDiese auf die Spitze getriebene "Auflöserei" ist eben ein sedhr spezielles Hobby innerhalb der Mikroskopie, aber für den "normalen" Mikroskopiker völlig irrelevant

Meine beiden Vergleichsbilder wurden mit Trockenobjektiv und -Kondensor gemacht. Und ein Neofluar ist nun auch noch kein Plan-Apochromat. Auf die Auflösungsspitze ist da gar nichts getrieben. Und trotzdem kann die 12MP Kamera das Zusehende nicht einfangen.

Ich darf einen Post des Threaderstellers zitieren:
ZitatIch hätte auch eine generelle Frage zu den Mikroskopkameras: Um 2011 rum war es noch so, dass Kameras von der Bildqualität nicht annähernd so gut abbilden konnten wie toll es tatsächlich ausschaut, wenn man durch die Okulare sieht, selbst wenn man bereit war horende Summen dafür hinzulegen. Da ich mich erst vor kurzem mit Kameras im Bereich der Astrofotografie befasst habe (und mir vermutlich bald eine QHY5III462C kaufen werde), weiß ich, dass die Kamera-technologie in diesem Bereich erst vor kurzem einen deutlichen Leistungssprung hingelegt hat. Haben die Mikroskopkameras evtl den selben Sprung hinter sich, weil sie auf die gleichen Sensoren zurückgreifen? Ich fänd den Gedanken schon reizvoll, wenn das auf dem Bildschirm angezeigte Bild schon so gute Qualität hat, dass ich nicht immer wieder auf die Okulare switchen möchte, weils dadurch deutlich besser aussieht.

Exakt darauf bin ich eingegangen und habe berichtet, dass ich mit einer 24MP-Kamera das Problem nicht mehr habe. Alles, was man sieht, ist auch auf dem Foto. Nicht mehr und auch nicht weniger. Ich wollte dem Threadersteller die vielen Wochen des erfolglosen Ausprobierens ersparen, die ich hinter mich gebracht habe, weil ich die "5MP reichen locker"-Angaben geglaubt habe.

Da man mir hier ohne Beweisfoto meine Erfahrung nicht glauben wollte, habe ich mir heute die Mühe gemacht, die 12MP-Kamera auf das Axioskop zu setzen um vergleichbare Bilder zu machen. Da die 12MP-Kamera einen APS-C Sensor hat, die 24MP-Kamera aber einen Vollformatsensor, musste ich die Konkavlinse aus dem Adapter entfernen, damit beide Sensoren in etwa den gleichen Bildausschnitt abbilden. Überzeugt hat das aber trotzdem niemanden. Es wird lieber an (aus meiner Sicht fehlerhaften) Theorien festgehalten. Ich habe versucht die Schwachstellen der Theorie aufzuzeigen, aber auch das wurde nicht erst genommen.

Darf ich fragen, welche Kamera du verwendest?

Viele Grüße,
Kai



kmueho

Hallo Peter (-h),

ZitatDa liegen vermutlich einige Jahre zwischen den Erscheinungsdaten der Kameras vor.

Spielt das eine Rolle? Die hier zäh verteidigte Theorie unterscheidet nicht zwischen alten und neuen (Mega-) Pixeln.

Viele Grüße,
Kai

jcs

Zitat von: kmueho in Juli 02, 2021, 19:01:37 NACHMITTAGS
Da man mir hier ohne Beweisfoto meine Erfahrung nicht glauben wollte, habe ich mir heute die Mühe gemacht, die 12MP-Kamera auf das Axioskop zu setzen um vergleichbare Bilder zu machen. Da die 12MP-Kamera einen APS-C Sensor hat, die 24MP-Kamera aber einen Vollformatsensor, musste ich die Konkavlinse aus dem Adapter entfernen, damit beide Sensoren in etwa den gleichen Bildausschnitt abbilden. Überzeugt hat das aber trotzdem niemanden. Es wird lieber an (aus meiner Sicht fehlerhaften) Theorien festgehalten. Ich habe versucht die Schwachstellen der Theorie aufzuzeigen, aber auch das wurde nicht erst genommen.
Hallo Kai,

bei Deinem Vergleichsfoto sieht man im 24MP-Bild einen scharfen schwarzen Rand, beim 12MP-Bild eine starke Vignettierung mit komplett verschwommenen Rand. Das kann nicht an der Kamera liegen, sondern eher an einer fehlerhaften Adaption. Deine 1:1-Crops der Diatomeen zeigen im 24MP-Bild Strukturen, die trotz der von Dir angegebenen 70%-Skalierung über ca. 15-20Pixel gehen. D.h. mit der 12MP-Kamera müssten solche Strukturen noch locker aufzulösen sein, wenn alles korrekt eingerichtet ist.

Die von Dir salopp als fehlerhaft bezeichnete Theorie ist übrigens eines jener Fachgebiete der Physik, wo die Übereinstimmung zwischen Theorie und Praxis am besten ist. Der Sensor-Chip Deiner 24MP-Kamera wird auf lithographischen Systemen belichtet, die auf Basis genau jener Formeln konzipiert werden, die laut Deinen Überlegungen die Wirklichkeit fehlerhaft wiedergeben.

LG

Jürgen

Lupus

Hallo,

die Diskussion über die notwendige Pixelauflösung hatten wir hier schon öfter. Ich halte es für wenig sinnvoll, als Beispiel ein Extremobjektiv wie das zitierte 10/0.45 zu verwenden und daraus die notwendige Sensor-Pixelanzahl zu errechnen. Vor allen Dingen wird normalerweise kein Mensch damit einzelne Diatomeen mit maximaler Auflösung aufnehmen, und behaupten dass man dabei das gesamte Gesichtsfeld benötigt. Auch visuell müsste man mit so einem Objektiv mit einem 30x-40x Okular arbeiten um die theoretisch mögliche Auflösung gut auszunutzen. Dazu gibt es die Erfindung des Objektivrevolvers, da könnte man ein höher vergrößerndes Objektiv einschwenken und problemlos die Diatomee mit hoher Auflösung aufnehmen. ;) Und das Objektiv, das dann bis zum Bildrand genauso fehlerfrei abbildet wie im Zentrum hat auch nicht jeder.

Hubert

kmueho

#57
Hallo Jürgen,

ZitatDeine 1:1-Crops der Diatomeen zeigen im 24MP-Bild Strukturen, die trotz der von Dir angegebenen 70%-Skalierung über ca. 15-20Pixel gehen

Das sind keine 1:1 Crops und das habe ich auch nie behauptet. Die Ausschnitte sind erheblich darüber hinaus vergrößert, um die Details einfacher per Betrachtung am Bildschirm vergleichen zu können.

So sehen 1:1-Crops aus:

Viele Grüße,
Kai


jcs

Hallo Kai,

da sehe ich vor allem ausgeprägte chromatische Aberrationen in beiden Fotos, das 12MP-Bild wirkt zusätzlich unscharf/defokussiert. Ich wage zu bezweifeln, dass man das den fehlenden Megapixeln in die Schuhe schieben kann.

Aber grundsätzlich gilt: Wir machen hier Hobby-Mikroskopie, und da kann jeder so viele Megapixel an den Tubus schnallen wie er will.

LG

Jürgen

kmueho

#59
Hallo Jürgen,

ZitatDie von Dir salopp als fehlerhaft bezeichnete Theorie ist übrigens eines jener Fachgebiete der Physik, wo die Übereinstimmung zwischen Theorie und Praxis am besten ist. Der Sensor-Chip Deiner 24MP-Kamera wird auf lithographischen Systemen belichtet, die auf Basis genau jener Formeln konzipiert werden, die laut Deinen Überlegungen die Wirklichkeit fehlerhaft wiedergeben.

In lithographischen Systemen wird mit monochromatischer Strahlung gearbeitet. Es wird dort mit expliziten Brennweiten gerechnet und nicht mit irgendwelchen "Vergrößerungen", die sich alleine auf meinen beiden Mikroskopen bezüglich Brennweiten um einen Faktor von 1,5 unterscheiden. Die Belichtung eines lithografischen Systems unterscheidet sich außerdem von Sensorik, die (außerdem) mit Subpixeln und Farbfiltern und je nach Farbe mit unterschiedlicher Auflösung arbeitet. Das ist daher nicht vergleichbar.

Viele Grüße,
Kai