Anders Stacken mit Registax

Begonnen von the_playstation, August 09, 2014, 07:38:32 VORMITTAG

Vorheriges Thema - Nächstes Thema

wilfried48

Zitat von: treinisch in August 27, 2014, 22:10:47 NACHMITTAGS
Vielleicht wage ich trotzdem mal einen Versuch. Ein 20x 0.5 sollte also unter keinen Umstände die Lochstruktur auflösen können, richtig? (25x habe ich nicht, sollte aber eigtl. auch egal sein?)

Hallo Timm,

das wirst du ja sehen, jedenfalls ist es hart an der Grenze zum Abbe-Limit. Und da kann man dann mit und ohne Registax gut vergleichen.

viel Erfolg
Wilfried
vorzugsweise per Du

Hobbymikroskope:
Zeiss Axiophot,  AL/DL/Ph/DIC/Epi-Fl
Zeiss Axiovert 35, DL/Ph/DIC/Epi-Fl
Zeiss Universal Pol,  AL/DL
Zeiss Stemi 2000 C
Nikon Labo-/Optiphot mit CF ELWD Objektiven

Sammlung Zeiss Mikroskope
https://www.mikroskopie-forum.de/index.php?topic=107.0

treinisch

Hallo,

so die Aufnahmen laufen! Registax im Emulator wird wohl eher ein episches Rechenunterfangen. Eines kann ich aber schon mal sagen: Der Testfall ist definitiv das non plus ultra. Man kann in der 100% Ansicht gerade so erahnen, dass da eine Lochstruktur sein könnte, wenn man weiß, dass da eine ist. Bin sehr gespannt!

Viele liebe Grüße!
Timm
Gerne per Du!

Meine Vorstellung.

Peter V.

Hallo Wilfried,

Zitataperturvergösserungsaequivalente Wirkung

Danke für diese schöne Formulierung. Ich bin wahrlich kein Wortklauber und habe es deshalb auch nie moniert, aber mir fällt schon auf, dass in letzter Zeit häufiger in diversen Postings von einer "Vergrößerung der n.A." gesprochen wird, wenn tatsächlich eine Steigerung der Auflösung gemeint ist. Auch in einem anderen Forum wurde mal beschrieben, dass durch die "Verwendung eines Blaufilter die n.A. eines um 20 %" gesteigert werden könne. Das ist natürlich Unsinn!  Selbstverständlich kann keine Maßnahe die "n.A." verbessern, denn sie ist allein eine bauliche Eigenschaft eines Objektivs.  "n.A." und Auflösung stehen zwar in direktem Zusammenhang, sind aber selbstverständlich nicht synonym!!! Das wäre etwa so, als würde man behaupten, Reifen mit geringerem Rollwiderstand würden die PS/kW-Zahl des Motors erhöhen.
(Du weiß das natürlich besser als ich, ich erwähne es hier nur einmal ganz allgemein". Den passenden Begriff zu dem, was allgemein damit gemeint ist, hast Du hiermit gefunden.

Herzliche Grüße
Peter
Dieses Post wurde CO2-neutral erstellt und ist vegan. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

treinisch

#33
Hallo,

tja, irgendwie hätte man sich das auch sparen können, der Erkenntnisgewinn im Vergleich zu Peters Test:

https://www.mikroskopie-forum.de/index.php?topic=17365.0

ist ziemlich genau Null. Trotzdem:



Aufgenommen mit einem Plan-Neofluar 20x / 0.5 bei 500 nm. Die Bilder zeigen einen 100% (1:1) Ausschnitt.
Nicht bearbeitet kann man so nicht sagen, aber beide wurden exakt gleich behandelt, um genau zu sein ist das rechte eins der Stapel-Bilder, die von der Software zu den 50% besten gekürt wurden.

Gut, die RAW-Konversion war etwas schlampig (Zeitmangel) durchgeführt, aber das trifft beide Bilder. Registax hat irrsinnig viele Einstellungsmöglichkeiten, ich habe so lange ziellos an den Parametern rumgewirkt, bis wenigsten alle Alignment-Points innerhalb der Pleurosigma lagen, ansonsten würde ich vermuten, dass es bestimmt noch besser ginge, wenn man verstehen würde, was man tut.

Viele Grüße

Timm

P.S. Nicht bearbeitet sind sie in sofern, dass sie nicht geschärft, unscharf maskiert, freigestellt, manuell nachgepinselt etc sind.
Gerne per Du!

Meine Vorstellung.

treinisch

Hallo,

wobei das Problem natürlich in der Natur der Sache liegt. Die ,,fehlende" Auflösung äußert sich ja darin, dass sich bildlich gesprochen die Beugungsscheibchen zu weit überlappen, das geht doch eben auch mit einem Kontrastverlust einher, der im Grenzfall zu einer praktisch homogenen Fläche führt. Um das bisschen Auflösung, das vorhanden ist sichtbar zu machen, muss man die Farbwerte entsprechend spreizen, was natürlich dazu führt, dass das Rauschen auch gespreizt wird, also viel viel sichtbarer wird.

Bei grenzwertiger Auflösung kämpfen deswegen die Details logischerweise mit dem Rauschen um die Sichtbarkeit.

Viele Grüße
Timm
Gerne per Du!

Meine Vorstellung.

Stefan_O

Hallo Timm,

die Idee, die Auflösung durch minimale Bewegungen zu erhöhen, setzt vorraus, das dieselbe vom Sensor limitiert wird und nicht von der Optik. Wenn das nicht der Fall ist, nützt eine Sub-Pixel-Auflösung bzw Interpolation durch die Software nichts. Was dann noch bleibt ist, ist die Rauschreduzierung durch Mittelung der Werte der Einzelpixel.

Die n.A. legt die maximal erreichbare Auflösung fest. Das sagt ja nicht, dass das Gesamtsystem diese auch erreicht, egal ob Auge oder Kamera als Sensor.

Gruss,
Stefan

treinisch

#36
Hallo,

Zitat von: Stefan_O in August 28, 2014, 11:10:12 VORMITTAG
die Idee, die Auflösung durch minimale Bewegungen zu erhöhen, setzt vorraus, das dieselbe vom Sensor limitiert wird und nicht von der Optik.

könntest Du für diese Behauptung eine Beleg liefern?

Zitat
Die n.A. legt die maximal erreichbare Auflösung fest.

Nein. Tut sie selbstverständlich nicht und das behauptet auch keines der mir vorliegenden Lehrbücher und auch nicht die Formel oder Herleitung des Abbe-Limits an sich.

Von 100 theoretischen, nur Abbe-Limitierten ,,Bildern" liegen um die 50 oberhalb des Abbe-Limits und der Rest unterhalb, wie ich bereits dargelegt habe, kein einziges wird genau die ,,Abbe-Auflösung" haben. Je mehr Photonen das Bild erzeugen, desto geringer wird diese Varianz, sie wird aber nie null. Das folgt trivial aus der Annahme, dass Licht als aus Photonen bestehend betrachtet werden darf.

Beschwerde: Wenn Du konkret mir widersprichst halte ich es nicht für angemessen einfach die von mir angezweifelte Behauptung zu wiederholen und dich in keiner Weise mit der von mir angeführten Begründung auseinanderzusetzen.

Also: Wie sollte es angehen, dass die Auflösung im Abbe-Limit, die ein Mittelwert ist, da sie Strahlenoptisch hergeleitet wird, gleichzeitig über beliebige Stichproben ein oberer Grenzwert sein soll. Das sollte sich sehr einfach beantworten lassen, wenn es so wäre.

Oder anders gefragt: Du behauptest die Point-Spread-Function sei keine Wahrscheinlichkeitsdichtefunktion sondern, dass ein Photon bei der Beugung delokalisiert wird und entsprechend delokalisiert wechselwirkt. Das sollte sich leicht belegen lassen, wenn es so ist.

Ob Registax das ausnutzen kann ist eine ganz andere Frage, die in keiner Schlussrichtung mit der Grundlagenfrage der statistischen Optik wechselwirkt.


Viele liebe Grüße

Timm


Edit

P.S. Ich habe im Indikativ geschrieben und leicht aufgeregt im Duktus größter Sicherheit, weil mich die entwürdigende Unsitte einfach die Behauptung zu wiederholen, ohne sich mit den angeführten Belegen auseinanderzusetzen extrem provoziert.

Ich bin aber natürlich kein Experte für statistische Optik, ich habe lediglich aus Spaß, weil ich lange Jahre in der Statistischen Thermodynamik geforscht habe, mal eine Vorlesung abgesessen, allerdings gehört die Annahme, dass es sich bei der PSF um eine Wahrscheinlichkeitsdichtefunktion handelt auch eher nicht zu den komplexen statistisch-optischen Fragen.
Gerne per Du!

Meine Vorstellung.

Stefan_O

Zitateine Beleg liefern?

Um bei deinem harschen Ton zu bleiben: wozu? Lieferst Du Belege in deinen Antworten oder nur Behauptungen mit anderem Inhalt? Dennoch, hier ist ein Artikel zum Thema: http://www.sciencedirect.com/science/article/pii/1049965292900656.

Zur nA:

Die Idee ist, dass das Bild des Objektes im Fourier-Raum vorliegt und die Apertur den Frequenzbereich beschneidet. Das obere Limit und damit die Auflösung wird durch Abbes Formel als Grenzwert beschrieben. Das steht in etwas längerer Version in meinen Lehrbüchern. Natürlich ist das nur die Wellen-Anschauung der normalsterblichen Bevölkerung. Ob die Abweichung durch deine statistische Betrachtung praktische Relevanz hat, vermag ich nicht zu beurteilen. Wenn bei dir die Hälfte deiner Bilder eine bessere Auflösung als das Abbe-Limit hat, freu' dich, was willst Du mehr?

Gruss,
Stefan

wilfried48

Hallo Timm,

das sieht doch schon mal gut aus. Aber warum vergleichst du das mit einem Einzelbild aus dem Videostapel das doch sicher mit entsprechend kurzer Belichtungszeit aufgenommen ist, wenn es so verrauscht ist.
Das Registax durch mitteln vieler Einzelbilder das Rauschen erniedrigt war ja klar und nicht die Frage.
Vergleichen musst du es mit einem rauscharmen Einzelbild der Kamera, oder reicht deine Beleuchtungsintensität nicht für ein rauschärmers Bild ?

Ausserdem ist man mit dem Neofluar 20/0.5 offensichtlich immer noch nicht unter dem Abbe-limit, wie das Einzelbild zeigt. Man sollte daher vielleicht doch ein Achromaten oder Plan-Achromaten 20/0.45 aus der unendlich - Welt oder 25/0.45 aus der endlich- Welt mit noch etwas kleinerer Apertur nehmen.

Das Ziel ist ja unverrauschtes Einzelbild (ohne Auflösung der Struktur) gegen unverauschtes Registax Bild (mit Auflösung der Struktur).

viele Grüsse
Wilfried

vorzugsweise per Du

Hobbymikroskope:
Zeiss Axiophot,  AL/DL/Ph/DIC/Epi-Fl
Zeiss Axiovert 35, DL/Ph/DIC/Epi-Fl
Zeiss Universal Pol,  AL/DL
Zeiss Stemi 2000 C
Nikon Labo-/Optiphot mit CF ELWD Objektiven

Sammlung Zeiss Mikroskope
https://www.mikroskopie-forum.de/index.php?topic=107.0

treinisch

Hallo Steffen,

Entschuldigung.

Für den zu harschen Ton möchte ich mich entschuldigen. Ich habe mich halt sehr darüber geärgert, dass du mir widersprichst, aber die Begründung meiner Darstellung und auch deren Einordnung hinsichtlich der praktischen Relevanz komplett ignoriert hast. Das fand ich schon sehr unhöflich. Natürlich kein Grund harsch zu werden. Sorry.

Zitat von: Stefan_O in August 28, 2014, 13:29:31 NACHMITTAGS
Wenn bei dir die Hälfte deiner Bilder eine bessere Auflösung als das Abbe-Limit hat, freu' dich, was willst Du mehr?

So ist die Wissenschaft, sie wirkt bei jedem, bei dir auch und bei jedem anderen. In diesem Fall jedenfalls vor dem Sensor.

Ich habe übrigens in mehreren meiner Beiträge angemerkt, dass ich die praktische Relevanz anzweifle. Wenn das der Punkt ist, müsstest du besser jemand anderem widersprechen.

Fest steht jedenfalls, das zwei nacheinander entstandene Abbildungen auch ohne sonstige Veränderungen am System nicht exakt identisch sind. Außer mit der Wellen-Anschauung der normalsterblichen Bevölkerung, die ja auch an anderen Stellen durchaus ihre Lücken offenbart.


Um zu der Anschauung im Fourier-Raum zu kommen: Hier sieht man um so besser, dass es so scharf nicht sein kann. Das Abbe-Limit ist ja kein mathematisches Skalpell, mit dem ex post bestimmte Bereiche herausgesäbelt werden, sondern eine inhärente Eigenschaft des abbildenden Systems.

Wenn man sich jetzt klar macht, dass die Fourier-Representation der Abbildung durch extrem viele einzelne Schüsse zustande kommt widerspricht es doch sowohl der mathematischen Logik, als auch meiner Lebenserfahrung, dass es hier plötzlich zu einem unendlich scharfen Schnitt kommen könnte. Gerade in der Fourier-Repräsentation.

Gruß

Timm

Nur noch mal zur Klarstellung: Meine Argumentation richtet sich gegen die Behauptung es sei schon theoretisch unmöglich ohne Veränderungen in das System einzuführen (spatiale Superresoluton zum Beispiel) die Auflösung durch Verrechnung einer großen Zahl von Aufnahmen zu erhöhen.
Gerne per Du!

Meine Vorstellung.

treinisch

Hallo Wilfried,

Zitat von: wilfried48 in August 28, 2014, 13:44:54 NACHMITTAGS
das sieht doch schon mal gut aus. Aber warum vergleichst du das mit einem Einzelbild aus dem Videostapel das doch sicher mit entsprechend kurzer Belichtungszeit aufgenommen ist, wenn es so verrauscht ist.

Neinnein, die Belichtungszeit ist normal. (Die Photographen hier im Forum könnten da sicher noch was rauskitzeln, normal meint normal für Normalbürger). Ich habe sogar ein wenig überbelichtet. Ich habe computergesteuert die Aufnahmen gemacht, deswegen konnte ich ganz normal belichten, weil ich ja nicht daneben sitzen musste. Noch länger als die Belichtung dauert allerdings das Speichern auf die SD Karte.

Aber ja, eine gute Idee, ich könnte die Serie noch mal machen und noch höher belichten, da war definitiv noch Raum nach oben.

Das Rauschen kommt daher, dass die Abbildung im Histogramm einfach sehr sehr schmal war, im wesentlichen Grau und man die Lochstruktur nur bei sehr genauem hinschauen als Unregelmäßigkeit im Rauschen erkennen konnte. Ich habe deswegen in der Tonwertkorrektur das Schwarz angehoben und das Weiß abgesenkt, damit man die leichten, so kaum wahrnehmbaren, Grau-Schwankungen besser sehen kann.

Dadurch sieht man auch das Rauschen entsprechend dramatisch stärker.

Das habe ich aber bei beiden Bildern genau gleich gemacht, über eine Manipulationsebene, die über den beiden Ebenen mit den beiden Bildern liegt und ganz ganz minimal schon beim RAW entwickeln, da sind aber ja auch alle Bilde gleich durchgegangen.

Zitat
Das Registax durch mitteln vieler Einzelbilder das Rauschen erniedrigt war ja klar und nicht die Frage.

Da habe ich auch drüber nachgedacht. Im Prinzip kommt doch die Auflösungsgrenze zustande (analoge Überlegung), weil sich die Airy-Scheibchen so weit überlagern, dass sie nicht mehr klar zu unterscheiden sind.

Das Tal zwischen den Bergen wird zu hoch und es gibt kaum noch Signalunterschied zwischen den Zentren und den Tälern. Man ,,sieht" keinen Unterschied mehr. Den kleinen vorhandenen Unterschied kann man natürlich vergrößern in dem man die Tonwerte einfach spreizt. Dabei zieht man dann natürlich das Rauschen ebenso mit hoch. Deswegen geht geringe Auflösung wenn man sie sichtbar macht ja geradezu zwingend mit massivem Rauschen einher, oder?

Zitat
Vergleichen musst du es mit einem rauscharmen Einzelbild der Kamera, oder reicht deine Beleuchtungsintensität nicht für ein rauschärmers Bild ?

Ich kann gerne das Bild auch normal entwickeln, da hätte ich dann den Skrupel, dass man dann ja sagen könnte, es wäre absichtlich so entwickelt, dass die Löcher nicht aufgelöst werden. Mache ich aber.

Bei der Beleuchtungsintensität werde ich jetzt gerade skeptisch. In meinem Weltbild ist es egal ob ich heller beleuchte oder länger belichte, stimmt das nicht?

Im Moment habe ich glaube ich 1/125 ich kann ja auch auf 1/60 oder noch länger gehen. Durch den 500 nm Filter mit 10 nm HWB ist von den 50 W Halogen in der Tat nicht mehr so extrem viel übrig, aber kann ich nicht einfach länger belichten?

Zitat
Ausserdem ist man mit dem Neofluar 20/0.5 offensichtlich immer noch nicht unter dem Abbe-limit, wie das Einzelbild zeigt. Man sollte daher vielleicht doch ein Achromaten oder Plan-Achromaten 20/0.45 aus der unendlich - Welt oder 25/0.45 aus der endlich- Welt mit noch etwas kleinerer Apertur nehmen.

Da bin ich dann aber leider raus, weil ich keine solchen Objektive habe. Ich könnte auch ohne den 500 nm Filter beleuchten, dann würde die Auflösung ja auch sinken.


Zitat
Das Ziel ist ja unverrauschtes Einzelbild (ohne Auflösung der Struktur) gegen unverauschtes Registax Bild (mit Auflösung der Struktur).

Ich bin vielleicht renitent aber nicht doof :-)) Im Ernst: Da sind wir uns einig. Ich probiere es noch mal mit einer helleren Belichtung, aber die Aufnahme ist wie gesagt nur so verrauscht, weil ich die Tonwerte so stark gespreizt habe.

Und: Ich habe als Kamera nur eine Lumix GH2 zu bieten, die rauscht natürlich schon mehr, als ,,größere" Kameras. Aber man kann schon normale Fotos damit machen.

Also: Ich mache noch mal einen zweiten Durchlauf mit mehr Licht und ohne 500 nm Filter.

Viele liebe Grüße!
Timm
Gerne per Du!

Meine Vorstellung.

Stefan_O

Hallo Timm,

Entschuldigung angenommen! Widerspruch sollte allerdings eine Herausforderung sein, zur Selbst-Reflexion führen und dann der Diskussion dienen.

ZitatMeine Argumentation richtet sich gegen die Behauptung es sei schon theoretisch unmöglich ohne Veränderungen in das System einzuführen (spatiale Superresoluton zum Beispiel) die Auflösung durch Verrechnung einer großen Zahl von Aufnahmen zu erhöhen.

Hat das eigentlich jemand explizit behauptet (ohne alles nochmals durchlesen zu müssen)? Ich habe das Gefühl, dass niemand hier genau weiss, was Registax eigentlich macht. Von Mittelung über Pixel-Shift bis zum Gauss-Filter (der eigentlich eine Wavelet-Transformation ist) war bisher alles dabei. Das führt dazu, dass jeder hier von etwas anderem redet und die Wirkung schwer zu interpretieren ist.

Zitatjedenfalls vor dem Sensor

Aha, und dann? Der Sensor kann doch nicht besser als die Kette vor ihm, damit ist trivial das Ziel, diese Grenze zu erreichen. Ich hätte mir gewünscht, die komplette Diskussion ginge in diese Richtung, statt sich mehr oder weniger über die Natur der Grenze zu streiten. In die Richtung sollte eigentlich mein erster Beitrag zielen. Hat leider nicht geklappt.

ZitatDeswegen geht geringe Auflösung wenn man sie sichtbar macht ja geradezu zwingend mit massivem Rauschen einher, oder?

Eigentlich nicht. Wenn der Sensor (in Dynamik und Pixeldichte) mit der Auflösung der Optik mitkommt, werden die Minima und Maxima auch so erfasst. Dazu addiert sich das Rauschen des Sensors und der Signalverarbeitung hinter ihm, unabhängig von der Grösse der Struktur. Oder bin ich jetzt auf der falschen Spur?

Vielleicht macht es Sinn Test mit einer Software zu machen, die nur einzelne Methoden anwendet, keine undurchschaubaren Mischungen.

Gruss,
Stefan

Lupus

Hallo Tim,

ich hatte ja ursprünglich schon befürchtet, dass Du meinen Beitrag als Anlass für Deine harsche Kritik genommen hast, als ich behauptet hatte, dass die Auflösung wegen des Rauschens immer unter der theoretischen Auflösung liegt. Ich habe aber Deine Argumention noch nicht verstanden. Es gibt einerseits keinen Zweifel daran, dass durch die begrenzte Anzahl von Photonen die reale Intensität am Sensor örtlich und zeitlich schwankt und dadurch die wellentheoretische Intensitätsverteilung nicht exakt auftritt. Aber nur weil auch für einen beschränkten Zeitraum (und das auch nur in beschränkten Bereichen der Verteilungskurve) die "ideale" Intensitätsverteilung unterschritten wird, heißt das nicht, dass diese theoretische Intensitätsverteilung nicht die "Grenzkurve" für die Auflösung darstellt.

Deine Vorstellung, "von 100 theoretischen, nur Abbe-Limitierten ,,Bildern" liegen um die 50 oberhalb des Abbe-Limits und der Rest unterhalb" ist doch so nicht richtig, jedenfalls verstehe ich nicht was Du mit Bildern meinst. Wenn man von z.B. 10000 Photonen ausgeht, dann liegt nach einer groben Abschätzung die lokale statistische Intensitätsschwankung bei etwa max. 5% der Maximalintensität des Beugungsbildes, großteils aber deutlich darunter. Natürlich bezogen auf den gesamten Belichtungszeitraum. Wenn man das mit dem Intensitätsminimum des Rayleigh-Kriteriums vergleicht (26.5%), sieht man, dass die Photonen-Diskussion für dieses Problem eher akademisch ist.

@Stefan:
Eigentlich ist schon klar, was Registax macht. Es mittelt die ausgesuchten Bilder, und dazu muss es sie über Referenzpunkte einzeln ausrichten. Und dann kann man noch diverse Filter u.a. zum Schärfen einsetzen wenn man will, da die gemittelten Bilder naturgemäß etwas kontrastarm sind.

Ein zusätzlicher begrenzender Faktor für die Bildauflösung (neben der Beugungsunschärfe) ist aber m.E. die Methode, mit der das Programm auswertet: Die Bilder müssen an die richtige Position gebracht werden, und dazu dienen die Referenzpunkte. Diese sind aber natürlich ebenfalls unscharf, und das Programm versucht über eine sehr große Zahl dieser Punkte - und dadurch ebenfalls einer statistischen Auswertung - die jeweilige Position möglichst genau zu ermitteln. Das funktioniert offensichtlich erstaunlich gut, es verbleibt aber zwangsläufig eine Positionsungenauigkeit. Und diese Unschärfe durch Fehlpositionierungen addiert sich zu der unvermeidlichen Beugungsunschärfe des Bildes. Ich frage mich schon, ob es in der Mikroskopie, wo man das Problem der dauerhaft schwankenden Bildpositionen wie in der Astronomie nicht hat, nicht besser wäre, die Bilder unmittelbar ohne individuelle Positionierung zu stacken (der Test von Peter hatte ja einen anderen Hintergrund).

Hubert

treinisch

Hallo Wilfried,

also mit meiner GH-2 hat das keinen Sinn, eine Kamera mit deutlich weniger Rauschen müsste her.


Viele liebe Grüße

Timm
Gerne per Du!

Meine Vorstellung.

Oecoprotonucli

#44
Hallo Auflösungsorientierte,

grundsätzlich war es wohl Jorrits Absicht, zu sagen, dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.

Vermutlich wegen etwas unscharfer Formulierung kam dann die Zusatzfrage auf, ob das über die physikalische Auflösungsgrenze hinaus geht.

Alle Methoden, von denen ich gehört habe, dass sie die Auflösung über die klassische Grenze hinaus verbessern, tun das sozusagen durch gewisse Veränderungen des Lichts oder der "Lichtpunkte/-flächen" (räumlich, zeitlich), am Präparat, bevor es auf irgendeinen Chip oder Film oder Detektor trifft. Natürlich werden die Methoden gleichzeitig rechnerisch unterstützt.

Lieber Timm, Du kannst gerne Deine Photonenstatistik genauer erläutern, warum es dort ähnliche Unterschiede geben soll, aber bisher überzeugt mich Deine Argumentation noch nicht. Gibt es wirklich Unterschiede in den Bildreihen, wobei ein paar Bilder besser als die physikalische Auflösungsgrenze sind? Wenn nicht, aus welchen Unterschieden sollte man dann die Zusatzinformation ziehen? Woher sollte das Programm wissen, welches Photon jetzt "getroffen" hat und welches nicht?

Also, ich glaube, es geht nicht.

Viele Grüße

Sebastian
Ich benutze privat:
Leitz SM-Lux mit (LED-) Durchlicht und Phaco-Ausrüstung (ca. 1975-77)
Hensoldt Wetzlar Stereomikroskop DIAMAL (1950er Jahre)