Hallo,
Software: Registax
Plattform: PC, kostenlos
http://www.astronomie.be/registax/
Die Software Registax ist eigentlich für die Astronomie entwickelt worden. Sie unterscheidet sich von mikroskopischen Stackingprogrammen.
Normale mikroskopische Stacking-Programme erhöhen die Tiefenschärfe, ohne das die N.A. darunter leidet. Sie stacken mehrere Ebenen in Z-Richtung.
Es werden auch keine Panoramabilder aus mehreren Einzelbildern erzeugt.
Registax arbeitet völlig anders. Bei Registax macht man zig nahezu identische Bilder in der selben Schärfeebene. Es erfolgt keine Tiefenschärfe-Erhöhung. Die Software errechnet aus mehreren Bildern eine höhere Auflösung oder ein schärferes Bild mit einer höheren N.A. als die Optik es eigentlich könnte.
Dabei werden nicht nur (athmosphärische Fehler in der Astronomie) beseitigt sondern auch die optische Leistungsfähigkeit des Teleskops gesteigert.
Dieses läßt sich auch im mikroskopischen Bereich nutzen um ein schärferes Bild mit einer virtuell höheren N.A. zu erhalten.
Liebe Grüße Jorrit
Hallo Jorrit,
ZitatDieses läßt sich auch im mikroskopischen Bereich nutzen um ein schärferes Bild mit einer virtuell höheren N.A. zu erhalten.
Wie wäre es mit einem Beispiel?
Beste Grüße
Gerd
Hallo Jorrit,
ich kann mir nicht vorstellen, dass Registax in der Mikroskopie sinnvoll anwendbar sein wird. In der Astronomie werden damit aus hunderten oder sogar tausenden von Videoeinzelbildern die Besten herausgesucht (Planetenfotografie) und diese dann durch Überlagerung zu einem verbesserten Bild verarbeitet. Durch diese Bildaddition wird das Signal / Rauschverhältnis verbessert und die jeweils scharfen Bereiche der Einzelbilder werden zu einem möglichst komplett scharfen Gesamtbild zusammengerechnet (ähnlich wie bei der Stackingsoftware). Diese Unschärfen bei den Teilbildern werden bei den astronomischen Aufnahmen durch Luftunruhe hervorgerufen. Aber selbst bei der Astronomie wird man damit nicht das Auflösungsvermögen des Teleskops verbessern können, sondern man kann sich nur den idealen Bedingungen nähern. Bei der Mikroskopie haben wir in der Regel keine Probleme mit ausreichender Beleuchtung oder können diese ändern. Auch eine Bildunruhe durch das Einschlußmedium wird eher auszuschließen sein. Auch eine mögliche Erhöhung der NA halte ich durch diese Verarbeitung für ausgeschlossen, lasse mich aber gerne belehren.
Liebe Grüße
Manfred
hallo Jorrit,
woher sollen die Differenzen zwischen den Einzelbildern vergleichbar den Gegebenheiten bei der Astronomie kommen? Ohne Differenzen würde das verrechnete Ergebnis ja nichts anderes zeigen, als jedes Einzelbild. Schiefe Beleuchtung, wie es vor langer Zeit gehandhabt wurde mit einem Kondensor mit dezentrierter drehbarer Blende?
Schöne Grüße
Jürgen
Hallo Jorrit,
ich teile die Skepsis der anderen Schreiber in diesem Thread.
"The proof of the pudding is in the eating" ;D
Zeig doch bitte einmal ein praktisches Ergebnis. Bilder musst Du ja haben - oder ist das eine theoretische Überlegung?
Herzliche Grüsse,
Eckhard
Hallo,
Bilder die mithilfe von Registax entstanden sind waren meine Aufnahmen von Chloroplasten.in diesem Thread.
http://www.mikroskopie-forum.de/index.php?topic=18160.0
Auch peter-h hat Registax schon einmal als Hilfe zum entrauschen vorgestellt.
http://www.mikroskopie-forum.de/index.php?topic=17365.0
Ob damit auch eine, wenn auch nur "virtuelle", N.A. gesteigert werden kann, da mische ich mich lieber nicht ein, zu gut erinnere ich mich dazu an eine Diskussion zur N.A. von Objektiven und Blaulicht. ;D Zur Steigerung der Bildqualität taugt Registax aber auch in der Mikrofotografie durchaus in so manchen Härtefällen.
Viele Grüße,
Johannes
Hallo Manfred
Auch das Hubble Space-Teleskop benutzt Stacking. Und da spielen Luftunruhen 100% keine Rolle. Auch bei der Tiefenschärfe sollte es bei Sternen in z.B. 1000 Lichtjahren Entfernung keine Probleme geben. Das Prinzip funktioniert nicht bei stark vergrößernden Mikroskop-Objektiven. Nur bei geringen Vergrößerungen, da die Software Unterschiede in den Bildern benötigt, Bei einem Stemi sollte der Effekt am besten sichtbar sein. Daher benutzte ich auch das Wort "kann".
LG Jorrit.
Zitat von: the_playstation in August 18, 2014, 17:21:57 NACHMITTAGS
Hallo Manfred
Auch das Hubble Space-Teleskop benutzt Stacking. Und da spielen Luftunruhen 100% keine Rolle. Auch bei der Tiefenschärfe sollte es bei Sternen in z.B. 1000 Lichtjahren Entfernung keine Probleme geben. Das Prinzip funktioniert nicht bei stark vergrößernden Mikroskop-Objektiven. Nur bei geringen Vergrößerungen, da die Software Unterschiede in den Bildern benötigt, Bei einem Stemi sollte der Effekt am besten sichtbar sein. Daher benutzte ich auch das Wort "kann".
LG Jorrit.
Hallo Jorrit,
diese Einlassung verstehe ich nicht. Johannes und insbesondere Peter Höbel belegen doch die erfolgreiche Anwendung gerade bei höheren Vergrößerungen. Hast Du andere Erfahrungen gemacht?
Viele Grüße
Heino
Hallo Heino.
Sicher kann man seine Bilder auch bei höheren Vergrößerungen mit Registax verbessern. Das ist kein Wiederspruch. Die eigentliche Idee ist aber, ähnlich wie beim Stereosehen, aus den unterschiedlichen Bildern Zusatzinformationen zu gewinnen (einfach mal mit nur einem Auge und dann mit beiden sehen. Das Gehirn errechnet aus beiden Bildern ein neues, schärferes Bild). Dadurch wird die Öffnung und damit die Auflösung virtuell größer. Ähnliches nutzt man bei Radioteleskopen auf der Erde verteilt oder beim Very Large Telescope durch Kopplung aller Teleskope. Dieses führt zu einem künstlich größeren Objektiv mit höherer N.A. Leider funktioniert das in der Mikroskopie z.B. wegen der hohen N.A. nicht so gut. Nutzt man quasi x identische Bilder, kann man immerhin damit das Rauschen des CCD rechnerisch reduzieren / etwas "wegrechnen". Ähnlich wie der "Grain-Reducer" im Filmbereich.
LG Jorrit.
Hallo Jorrit,
danke für den Beitrag.
ZitatSicher kann man seine Bilder auch bei höheren Vergrößerungen mit Registax verbessern.
Sehen heißt glauben. ;D
ZitatDadurch wird die Öffnung und damit die Auflösung virtuell größer. Ähnliches nutzt man bei Radioteleskopen auf der Erde verteilt oder beim Very Large Telescope durch Kopplung aller Teleskope.Dadurch wird die Öffnung und damit die Auflösung virtuell größer. Ähnliches nutzt man bei Radioteleskopen auf der Erde verteilt oder beim Very Large Telescope durch Kopplung aller Teleskope.
Einleuchtend! Dass aber die Auflösung allein dadurch erhöht werden kann, daß man vom selben Objekt und vom gleichen Standpunkt mehrere Aufnahmen macht und diese mittelt, daran habe ich (noch) Zweifel.
Gruß - EFH
Hallo Eckhard.
Der Standpunkt ist ja gerade nicht der selbe. Entweder sind es mehrere Teleskope oder das selbe an einer anderen Position. Die Erde bewegt sich, die Sonne bewegt sich, ... Das Ergebnis ist hier z.T. wirklich beeindruckend und weitaus besser, als es selbst mit einer deutlich besseren Optik möglich wäre. Daher wird es massiv verwendet.
Das Problem bei einer Anwendung im Mikroskopbereich ist, daß hier die Veränderung des Standortes des Objektives zum Objekt kaum möglich ist bzw kleiner ist als der Durchmesser der Objektivlinse. Daher kommt der Effekt oft nicht zum Tragen.
Safari spricht einen völlig anderen Punkt an. Das Reduzieren vom Rauschen. Ähnliches passiert bei Grain-Reducern. Hier werden 3-5 aufeinander folgende Bilder benutzt, um Filmkorn Fehler zu reduzieren. Denn im zweiten oder dritten Bild befinden sich die Kornfehler, ... an einer anderen Stelle.
Beim CCD Sensor wird so das Rauschen gemittelt.
Entschuldigt, wenn ich im Moment keine mikroskopischen Beweisbilder zeige. 1.) sind meine Fähigkeiten in der Mikro-Fotografie noch zu schlecht und würden das Ergebnis zu sehr verfälschen. 2.) Habe Ich gerade zwei andere Baustellen (ich will DIC, Germaniumlinsenoptik).
Liebe Grüße Jorrit
Hallo
Hier ein kleiner Vergleich (dilettantischer Versuch) am Mars. links nicht gestackt, rechts gestackt.
(https://www.mikroskopie-forum.de/pictures004/155264_4605731.jpg)
Jupiter:
(https://www.mikroskopie-forum.de/pictures004/155264_36194344.jpg)
LG Jorrit
Hallo,
ZitatDie Software errechnet aus mehreren Bildern eine höhere Auflösung oder ein schärferes Bild mit einer höheren N.A. als die Optik es eigentlich könnte.
das ist so nicht ganz richtig. Die Software ermittelt aus mehreren Bildern sozusagen das was in allen Bildern gleich ist, und "löscht" die Informationen, die davon abweichen und damit eine Störung darstellen. Das kann entweder durch Turbulenzen der Atmosphäre verursacht sein oder Rauschen des Sensors oder meist beides. Das spielt in der Astronomie eine große Rolle, in der Mikroskopie aber nicht. Dieses Programm kann die Auflösung aber nicht über die beugungsbedingte theoretische Auflösung hinaus vergrößern, die durch die n.A. begrenzt wird. Bei Teleskopen hat der Begriff n.A. keine Bedeutung, dort ist es die Apertur, die die Auflösung bestimmt. Das Programm enthält u.a. auch Tools zum Schärfen von Bildern (z.B. Gauß-Filter), dadurch können aber keine echten Informationen erzeugt werden.
ZitatÄhnliches nutzt man bei Radioteleskopen auf der Erde verteilt oder beim Very Large Telescope durch Kopplung aller Teleskope. Dieses führt zu einem künstlich größeren Objektiv mit höherer N.A.
ZitatEntweder sind es mehrere Teleskope oder das selbe an einer anderen Position. Die Erde bewegt sich, die Sonne bewegt sich, ... Das Ergebnis ist hier z.T. wirklich beeindruckend und weitaus besser, als es selbst mit einer deutlich besseren Optik möglich wäre. Daher wird es massiv verwendet.
Das Problem bei einer Anwendung im Mikroskopbereich ist, daß hier die Veränderung des Standortes des Objektives zum Objekt kaum möglich ist bzw kleiner ist als der Durchmesser der Objektivlinse. Daher kommt der Effekt oft nicht zum Tragen.
Das ist ein ganz anderes Thema und hat mit dem Programm nichts zu tun. Die Auflösungssteigerung bei der Kopplung von Teleskopen erfolgt durch quasikohärentes Zusammenführen des Lichtes (oder z.B. der Signale im Bereich der "Radiofrequenzen") und nicht durch die nachträgliche Addition von Pixeln eines Bildverarbeitungsprogrammes. Und mit dem Verschieben von Mikroskopobjektiven kann man nun wirklich die n.A. nicht erhöhen. Die Zusatzinformation, die man z.B. durch ein Stereomikroskop erhält, erhöht ebenfalls nicht die beugungsbegrenzte Auflösung. Bei niedrig vergrößernden Mikroskopobjektiven kann man in Verbindung mit Rauschunterdrückungsmethoden zwar tatsächlich die Auflösung durch spezielle Software erhöhen (Stichworte math. Faltung/Dekonvolution), das macht aber in der Praxis wenig Sinn wenn man gleichzeitig ein Objektiv mit hoher n.A. benutzen kann. Mit Dekonvolution wird in der Astronomie durchaus gearbeitet, das sind aber andere Programme.
Hubert
Hallo Lupus,
ich muss dir widersprechen, es kann auch in der Mikroskopie Sinn machen.
Denken wir mal an lichtschwache Aufnahmen wie Dunkelfeld und Fluoreszenz.
Ich glaube da könnte es Vorteile bringen.
LG
Sascha
Hallo Sascha,
den Widerspruch akzeptiere ich ;)
Ich wollte nicht zum Ausdruck bringen, dass das Programm nicht auch gut geeignet für spezielle Anwendungen in der Mikroskopie ist, ich habe ja nur von einer "großen Rolle" in der Astronomie gesprochen.
Hiubert
Hallo in die Runde,
Natürlich kann die Software nicht die NA erhöhen, so etwas geht nur bei Keyence ;)
Tatsächlich Schein der Effekt in der Mikroskopie dem des unsharp-maskings zu entsprechen.
Herzliche Grüsse,
Eckhard
Hallo Eckhard.
Das ist gut möglich. Auf jeden Fall sind die Ergebnisse klasse. Habe es gerade an einem Paramecium und einem Wasserfloh (Daphnia pulex) ausprobiert. Ohne sähen Beide weitaus unschärfer und undetailierter aus.
Liebe Grüße Jorrit.
Hallo Eckhard,
die Funktion ist etwas anders als bei Unschärfemasken. In Registax wird soviel ich weiß eine Art Faltung des Bildes mit einem gaussförmigen Filter von max. 5 Pixel Breite durchgeführt. Es wirkt daher nicht so unnatürlich kontrastverstärkend auf Kanten wenn man es richtig anwendet. Das Ergebnis ist m.E. dann seriös, wenn auch die tatsächliche Unschärfenbreite auf dem Originalbild der eingestellten Filterbreite entspricht.
Hubert
Hallo Jorrit,
zeig doch mal das Ergebnis vor und nach der Bearbeitung, wäre interessant was Du da so aus dem Bild herausgeholt hast.
Hubert
Hallo Jorrit,
ein Bild sagt mehr als tausend Worte. Mich würde das Ergebnis auch interessieren. Bitte poste doch mal die Bilder.
Herzliche Grüße
Peter
Hallo ich "Registaxer",
nun mal ne ganz praktische Frage....Wie mache ich das?
Nimmt man nun einfach viele Bilder hintereinander auf, am besten ein Video was man zerlegt?
Bleibt dabei der Fokus unverändert oder wie beim normalen Stacken die Schärfeebenen durchfahren?
Möchte das natürlich auch einmal ausprobieren.:-)
LG
Sascha
Hallo Sascha.
Am besten, man macht ein Video. Es gibt aber ein paar wichtige Dinge:
Das Objekt darf sich möglichst nicht bewegen und es ist auch sehr ungünstig, wenn um das Objekt herum andere Lebewesen herumschwimmen. Daher ist Registax für das Tümpeln nicht sehr gut geeignet. Man muß sich unter Umständen aus dem Video passende Passagen ohne Bewegung herraussuchen.
Das Video sollte keine Kompressionsartefakte, ... aufweisen.
Aber selbst für Mikro-Einzelbilder ist Registax verwendbar. Im Letzten Schritt gibt es viele Einstellungen, mit denen ein Bild verbessert, geschärft, ... werden kann.
Statt ein Bild mit Photoshop zu bearbeiten, kann man auch mal Registax ausprobieren. ;)
(https://www.mikroskopie-forum.de/pictures004/155457_38278098.jpg)
LG Jorrit.
Hallo,
ich würde gerne aussagekräftige Anwendungsbeispiele sehen. Bisher ist mir das zu viel Wischiwaschi. Kieselalge unters Mikroskop, Hellfeld, köhlern und aufnehmen. Danach gerne 10 mal aufnehmen und registacken. Diese Bilder möchte ich gerne sehen. Das kann doch nicht so schwer sein, kruzinesen!
Dann kann man eine Aussage treffen. Ansonsten ist es wie das Reden über das Wetter von übermorgen ;)
Herzliche Grüsse,
Eckhard
Hallo Eckhard,
wie würde man denn den Unterschied objektiv-quantitativ bewerten können?
Einen Unterschied von, sagen wir, 20 % in Auflösungsvermögen würde man vermutlich nicht zweifelsfrei visuell beurteilen können, denke ich, obwohl das rein objektiv schon ein hervorragender Wert wäre.
Viele liebe Grüße!
Timm
Hallo,
Zitat von: Eckhard in August 22, 2014, 10:03:20 VORMITTAG
Natürlich kann die Software nicht die NA erhöhen, so etwas geht nur bei Keyence ;)
hier lege ich ein Veto ein! Und zwar beim ,,natürlich".
Natürlich ,,stimmt" die Abbesche Gleichung für das Auflösungsvermögen, aber sie beschreibt ja wohl offensichtlich lediglich den Grenzfall unendlich vieler Photonen (aka Wellencharakter).
Ich schätze mal, ohne das vorrechnen zu können, vielleicht kann ja jemand das Gegenteil vorrechnen, dass ein normal (nicht maximal) belichteter Pixel eines Digitalkamera-Sensors dafür vielleicht so um die 10 000 Photonen einfangen muss. Das ist zwar sehr viel, aber bei weitem nicht unendlich, zumal die Trefferwahrscheinlichkeit in den entscheidenden fallenden Flanken der Beugungsscheibchen, bzw. der sie beschreibenden Funktionen, ja noch deutlich reduziert ist.
,,Natürlich" dürfte zunächst einmal sein, dass unter der Vorraussetzung, dass tatsächlich das Abbe-Limit die Auflösung der Aufnahme bestimmt, die tatsächliche Auflösung statistisch um die theoretische Auflösung streut. Die Varianz wird um so geringer sein, je mehr Photonen das Bild bestimmen, 0 wird sie erst im Grenzfall unendlich vieler Photonen.
Ob man diese Varianz ausnutzen kann, ob man das mit einem normalen Bildsensor kann, ob der Effekt möglicherweise von anderen Varianzquellen dominiert wird, sind natürlich berechtigte Zweifel, aber immerhin kann man ohne große Mühe nahezu beliebig viele Stichproben erzeugen. Natürlich unmöglich erscheint mir da dann doch etwas hochgegriffen?
Viele liebe Grüße!
Timm
Hallo Tim,
ZitatEinen Unterschied von, sagen wir, 20 % in Auflösungsvermögen würde man vermutlich nicht zweifelsfrei visuell beurteilen können, denke ich, obwohl das rein objektiv schon ein hervorragender Wert wäre.
was soll uns das sagen? Welchen Sinn hat eine hervorragende "objektive" Auflösungsverbesserung, wenn sie visuell nicht erkennbar ist? Bei 99% der Anwendungen in der Mikroskopie geht es doch um eine visuelle Bewertung des zu beobachtenden Objektes und nicht um Kennzahlen eines Messverfahrens.
ZitatNatürlich kann die Software nicht die NA erhöhen, so etwas geht nur bei Keyence ;)Zitathier lege ich ein Veto ein! Und zwar beim ,,natürlich".
Ich glaube hier liegt ein Missverständnis vor, zumindest verfehlt Dein Einwand die ursprüngliche inhaltliche Aussage von Jorrit:
ZitatDie Software errechnet aus mehreren Bildern eine höhere Auflösung oder ein schärferes Bild mit einer höheren N.A. als die Optik es eigentlich könnte.
Es gibt keinen Zweifel daran, dass man z.B. durch Reduzieren des Rauschen mit Hilfe von Stacking vieler Bilder ein Bild mit mehr Details und damit höherer Auflösung erhält. Denn u.a. das Rauschen kann ein maßgeblicher Faktor dafür sein, dass die theoretische Auflösung nicht erreicht wird. Das hat aber nichts mit der Steigerung der Auflösung über die theoretische Grenze hinaus zu tun. Das geht zwar mit speziellen bildverarbeitenden Methoden auch, weil die Auflösung nicht exakt definiert ist sondern indirekt über den Bildkontrast, aber nicht auf die Art und Weise wie es Registax macht. Du sagst, die tatsächliche Auflösung streut statistisch um die theoretische Auflösung, ich sage, sie liegt wegen des auflösungsverschlechternden Rauschens immer unter der theoretischen Auflösung.
Hubert
Hallo Timm,
nach meinem Verständnis ist die NA ein optisches Problem und alles, was damit zu tun hat (einfangen möglichst vieler Beugungsmaxima) passiert vor dem Kamerachip. Wenn ich dasselbe statische Motiv mit der selben Optik 10 x aufnehme, habe ich 10 x dasselbe Bild auf dem Sensor. Meine Fotodateien werden etwas unterschiedlich sein, denn es rauscht ja hier und da (Dunkelrauschen, Ausleserauschen und Photonenrauschen). Durch Kombinieren der 10 Bilder kann ich deshalb höchstens den Signal-Rausch-Abstand vergrössern, werde aber nie "neue" Informationen gewinnen (was ja für die Verbesserung der NA notwendig wäre). Die Ausnahme wäre nur dann gegeben, wenn der Signal-Rausch-Abstand so klein ist, dass die Bildinformation im Rauschen "verborgen" ist. In dem Fall würde ich aber eher die Kamera wechseln ;)
Herzliche Grüsse,
Eckhard
PS: Lieber Jorrit, es ist in einem Forum sinnvoll, auf andere Beiträge nicht durch Editieren eigener Beiträge, sondern durch Schreiben eines neuen Beitrags zu antworten ;)
Hallo Eckhard,
Zitat von: Eckhard in August 27, 2014, 09:45:54 VORMITTAG
nach meinem Verständnis ist die NA ein optisches Problem und alles, was damit zu tun hat (einfangen möglichst vieler Beugungsmaxima) passiert vor dem Kamerachip. Wenn ich dasselbe statische Motiv mit der selben Optik 10 x aufnehme, habe ich 10 x dasselbe Bild auf dem Sensor.
Genau! Mir ging es um die Prozesse bis praktisch direkt vor den Sensor.
definitiv und ganz ohne Zweifel hast Du keinesfalls das selbe Bild auf dem Sensor! Das Bild entsteht durch den ,,Einschlag" einzelner Photonen, die im Mittel das durch die Betrachtung des Strahlengangs ergebene Bild erzeugen. Ein einzelnes Photon würde ja logischerweise nicht das Bild ergeben, auch sagen wir mal 2x so viele Photonen wie Pixel würden noch kein vollständiges Bild ergeben, da es durch die Beugung eben zu echtem Zufall in der ,,Verteilung" der Photonen kommt.
Viele liebe Grüße
Timm
Hallo,
also dass Registax in der Mikroskopie eine Auflösungssteigerung bringt , die sonst nur mit einem höheren Apertur möglich ist glaube ich erst wenn es experimentell gezeigt wird.
Ich würde folgendes Experiment vorschlagen. Jeder hat ja sicher das Testobjekt "Pleurosigma angulatum" .
Mit dem Objektiv 25/0.6 (z.B. Zeiss Neofluar) kann man die Lochstruktur bei entsprechender Nachvergösserung und 500 nm Wellenlänge noch gut auflösen. Mit einem 25/0.45 bzw. 25/0.50 nicht mehr. Wenn mir jetzt einer der Registax Nutzer Pleurosigma mit einem 25/0.5 plus Registax aufgelöst zeigt glaube ich auch an die aperturvergösserungsaequivalente Wirkung von Registax.
Dass natürlich ein verrauschtes Bild durch Registax durch Mittelung vieler Bilder (selbst wenn sie sich wie z.B. in der Astronomie durch atmösphärische Störungen bewegen) verbessert ist evident. Aber auch dort gilt, wenn z.B. ein Doppelstern auf Grund der numerischen Apertur des Fernrohrs bei klarem Himmel nicht aufgelöst wird es bei schlechtem Himmel mit Registax auch nicht.
Also bitte "Butter bei de Fische".
Wilfried
Hallo Wilfried,
Zitat von: wilfried48 in August 27, 2014, 21:11:07 NACHMITTAGS
also dass Registax in der Mikroskopie eine Auflösungssteigerung bringt , die sonst nur mit einem höheren Apertur möglich ist glaube ich erst wenn es experimentell gezeigt wird.
nur noch kurz der Form halber:
Ich habe nicht behauptet, dass Registax das kann und glaube das auch nicht. Ich wollte nur feststellen, dass allein das
Abbe-Limit nicht dagegen spricht.
Vielleicht wage ich trotzdem mal einen Versuch. Ein 20x 0.5 sollte also unter keinen Umstände die Lochstruktur auflösen können, richtig? (25x habe ich nicht, sollte aber eigtl. auch egal sein?)
Viele liebe Grüße!
Timm
Zitat von: treinisch in August 27, 2014, 22:10:47 NACHMITTAGS
Vielleicht wage ich trotzdem mal einen Versuch. Ein 20x 0.5 sollte also unter keinen Umstände die Lochstruktur auflösen können, richtig? (25x habe ich nicht, sollte aber eigtl. auch egal sein?)
Hallo Timm,
das wirst du ja sehen, jedenfalls ist es hart an der Grenze zum Abbe-Limit. Und da kann man dann mit und ohne Registax gut vergleichen.
viel Erfolg
Wilfried
Hallo,
so die Aufnahmen laufen! Registax im Emulator wird wohl eher ein episches Rechenunterfangen. Eines kann ich aber schon mal sagen: Der Testfall ist definitiv das non plus ultra. Man kann in der 100% Ansicht gerade so erahnen, dass da eine Lochstruktur sein könnte, wenn man weiß, dass da eine ist. Bin sehr gespannt!
Viele liebe Grüße!
Timm
Hallo Wilfried,
Zitataperturvergösserungsaequivalente Wirkung
Danke für diese schöne Formulierung. Ich bin wahrlich kein Wortklauber und habe es deshalb auch nie moniert, aber mir fällt schon auf, dass in letzter Zeit häufiger in diversen Postings von einer "Vergrößerung der n.A." gesprochen wird, wenn tatsächlich eine Steigerung der Auflösung gemeint ist. Auch in einem anderen Forum wurde mal beschrieben, dass durch die "Verwendung eines Blaufilter die n.A. eines um 20 %" gesteigert werden könne. Das ist natürlich Unsinn! Selbstverständlich kann keine Maßnahe die "n.A." verbessern, denn sie ist allein eine bauliche Eigenschaft eines Objektivs. "n.A." und Auflösung stehen zwar in direktem Zusammenhang, sind aber selbstverständlich nicht synonym!!! Das wäre etwa so, als würde man behaupten, Reifen mit geringerem Rollwiderstand würden die PS/kW-Zahl des Motors erhöhen.
(Du weiß das natürlich besser als ich, ich erwähne es hier nur einmal ganz allgemein". Den passenden Begriff zu dem, was allgemein damit gemeint ist, hast Du hiermit gefunden.
Herzliche Grüße
Peter
Hallo,
tja, irgendwie hätte man sich das auch sparen können, der Erkenntnisgewinn im Vergleich zu Peters Test:
https://www.mikroskopie-forum.de/index.php?topic=17365.0
ist ziemlich genau Null. Trotzdem:
(https://www.mikroskopie-forum.de/pictures004/155726_57978865.jpg)
Aufgenommen mit einem Plan-Neofluar 20x / 0.5 bei 500 nm. Die Bilder zeigen einen 100% (1:1) Ausschnitt.
Nicht bearbeitet kann man so nicht sagen, aber beide wurden exakt gleich behandelt, um genau zu sein ist das rechte eins der Stapel-Bilder, die von der Software zu den 50% besten gekürt wurden.
Gut, die RAW-Konversion war etwas schlampig (Zeitmangel) durchgeführt, aber das trifft beide Bilder. Registax hat irrsinnig viele Einstellungsmöglichkeiten, ich habe so lange ziellos an den Parametern rumgewirkt, bis wenigsten alle Alignment-Points innerhalb der Pleurosigma lagen, ansonsten würde ich vermuten, dass es bestimmt noch besser ginge, wenn man verstehen würde, was man tut.
Viele Grüße
Timm
P.S. Nicht bearbeitet sind sie in sofern, dass sie nicht geschärft, unscharf maskiert, freigestellt, manuell nachgepinselt etc sind.
Hallo,
wobei das Problem natürlich in der Natur der Sache liegt. Die ,,fehlende" Auflösung äußert sich ja darin, dass sich bildlich gesprochen die Beugungsscheibchen zu weit überlappen, das geht doch eben auch mit einem Kontrastverlust einher, der im Grenzfall zu einer praktisch homogenen Fläche führt. Um das bisschen Auflösung, das vorhanden ist sichtbar zu machen, muss man die Farbwerte entsprechend spreizen, was natürlich dazu führt, dass das Rauschen auch gespreizt wird, also viel viel sichtbarer wird.
Bei grenzwertiger Auflösung kämpfen deswegen die Details logischerweise mit dem Rauschen um die Sichtbarkeit.
Viele Grüße
Timm
Hallo Timm,
die Idee, die Auflösung durch minimale Bewegungen zu erhöhen, setzt vorraus, das dieselbe vom Sensor limitiert wird und nicht von der Optik. Wenn das nicht der Fall ist, nützt eine Sub-Pixel-Auflösung bzw Interpolation durch die Software nichts. Was dann noch bleibt ist, ist die Rauschreduzierung durch Mittelung der Werte der Einzelpixel.
Die n.A. legt die maximal erreichbare Auflösung fest. Das sagt ja nicht, dass das Gesamtsystem diese auch erreicht, egal ob Auge oder Kamera als Sensor.
Gruss,
Stefan
Hallo,
Zitat von: Stefan_O in August 28, 2014, 11:10:12 VORMITTAG
die Idee, die Auflösung durch minimale Bewegungen zu erhöhen, setzt vorraus, das dieselbe vom Sensor limitiert wird und nicht von der Optik.
könntest Du für diese Behauptung eine Beleg liefern?
Zitat
Die n.A. legt die maximal erreichbare Auflösung fest.
Nein. Tut sie selbstverständlich nicht und das behauptet auch keines der mir vorliegenden Lehrbücher und auch nicht die Formel oder Herleitung des Abbe-Limits an sich.
Von 100 theoretischen, nur Abbe-Limitierten ,,Bildern" liegen um die 50 oberhalb des Abbe-Limits und der Rest unterhalb, wie ich bereits dargelegt habe, kein einziges wird genau die ,,Abbe-Auflösung" haben. Je mehr Photonen das Bild erzeugen, desto geringer wird diese Varianz, sie wird aber nie null. Das folgt trivial aus der Annahme, dass Licht als aus Photonen bestehend betrachtet werden darf.
Beschwerde: Wenn Du konkret mir widersprichst halte ich es nicht für angemessen einfach die von mir angezweifelte Behauptung zu wiederholen und dich in keiner Weise mit der von mir angeführten Begründung auseinanderzusetzen.
Also: Wie sollte es angehen, dass die Auflösung im Abbe-Limit, die ein Mittelwert ist, da sie Strahlenoptisch hergeleitet wird, gleichzeitig über beliebige Stichproben ein oberer Grenzwert sein soll. Das sollte sich sehr einfach beantworten lassen, wenn es so wäre.
Oder anders gefragt: Du behauptest die Point-Spread-Function sei keine Wahrscheinlichkeitsdichtefunktion sondern, dass ein Photon bei der Beugung delokalisiert wird und entsprechend delokalisiert wechselwirkt. Das sollte sich leicht belegen lassen, wenn es so ist.
Ob Registax das ausnutzen kann ist eine ganz andere Frage, die in keiner Schlussrichtung mit der Grundlagenfrage der statistischen Optik wechselwirkt.
Viele liebe Grüße
Timm
Edit
P.S. Ich habe im Indikativ geschrieben und leicht aufgeregt im Duktus größter Sicherheit, weil mich die entwürdigende Unsitte einfach die Behauptung zu wiederholen, ohne sich mit den angeführten Belegen auseinanderzusetzen extrem provoziert.
Ich bin aber natürlich kein Experte für statistische Optik, ich habe lediglich aus Spaß, weil ich lange Jahre in der Statistischen Thermodynamik geforscht habe, mal eine Vorlesung abgesessen, allerdings gehört die Annahme, dass es sich bei der PSF um eine Wahrscheinlichkeitsdichtefunktion handelt auch eher nicht zu den komplexen statistisch-optischen Fragen.
Zitateine Beleg liefern?
Um bei deinem harschen Ton zu bleiben: wozu? Lieferst Du Belege in deinen Antworten oder nur Behauptungen mit anderem Inhalt? Dennoch, hier ist ein Artikel zum Thema: http://www.sciencedirect.com/science/article/pii/1049965292900656.
Zur nA:
Die Idee ist, dass das Bild des Objektes im Fourier-Raum vorliegt und die Apertur den Frequenzbereich beschneidet. Das obere Limit und damit die Auflösung wird durch Abbes Formel als Grenzwert beschrieben. Das steht in etwas längerer Version in meinen Lehrbüchern. Natürlich ist das nur die Wellen-Anschauung der normalsterblichen Bevölkerung. Ob die Abweichung durch deine statistische Betrachtung
praktische Relevanz hat, vermag ich nicht zu beurteilen. Wenn bei dir die Hälfte deiner Bilder eine bessere Auflösung als das Abbe-Limit hat, freu' dich, was willst Du mehr?
Gruss,
Stefan
Hallo Timm,
das sieht doch schon mal gut aus. Aber warum vergleichst du das mit einem Einzelbild aus dem Videostapel das doch sicher mit entsprechend kurzer Belichtungszeit aufgenommen ist, wenn es so verrauscht ist.
Das Registax durch mitteln vieler Einzelbilder das Rauschen erniedrigt war ja klar und nicht die Frage.
Vergleichen musst du es mit einem rauscharmen Einzelbild der Kamera, oder reicht deine Beleuchtungsintensität nicht für ein rauschärmers Bild ?
Ausserdem ist man mit dem Neofluar 20/0.5 offensichtlich immer noch nicht unter dem Abbe-limit, wie das Einzelbild zeigt. Man sollte daher vielleicht doch ein Achromaten oder Plan-Achromaten 20/0.45 aus der unendlich - Welt oder 25/0.45 aus der endlich- Welt mit noch etwas kleinerer Apertur nehmen.
Das Ziel ist ja unverrauschtes Einzelbild (ohne Auflösung der Struktur) gegen unverauschtes Registax Bild (mit Auflösung der Struktur).
viele Grüsse
Wilfried
Hallo Steffen,
Entschuldigung.
Für den zu harschen Ton möchte ich mich entschuldigen. Ich habe mich halt sehr darüber geärgert, dass du mir widersprichst, aber die Begründung meiner Darstellung und auch deren Einordnung hinsichtlich der praktischen Relevanz komplett ignoriert hast. Das fand ich schon sehr unhöflich. Natürlich kein Grund harsch zu werden. Sorry.
Zitat von: Stefan_O in August 28, 2014, 13:29:31 NACHMITTAGS
Wenn bei dir die Hälfte deiner Bilder eine bessere Auflösung als das Abbe-Limit hat, freu' dich, was willst Du mehr?
So ist die Wissenschaft, sie wirkt bei jedem, bei dir auch und bei jedem anderen. In diesem Fall jedenfalls vor dem Sensor.
Ich habe übrigens in mehreren meiner Beiträge angemerkt, dass ich die
praktische Relevanz anzweifle. Wenn das der Punkt ist, müsstest du besser jemand anderem widersprechen.
Fest steht jedenfalls, das zwei nacheinander entstandene Abbildungen auch ohne sonstige Veränderungen am System nicht exakt identisch sind. Außer mit der Wellen-Anschauung der normalsterblichen Bevölkerung, die ja auch an anderen Stellen durchaus ihre Lücken offenbart.
Um zu der Anschauung im Fourier-Raum zu kommen: Hier sieht man um so besser, dass es so scharf nicht sein kann. Das Abbe-Limit ist ja kein mathematisches Skalpell, mit dem ex post bestimmte Bereiche herausgesäbelt werden, sondern eine inhärente Eigenschaft des abbildenden Systems.
Wenn man sich jetzt klar macht, dass die Fourier-Representation der Abbildung durch extrem viele einzelne Schüsse zustande kommt widerspricht es doch sowohl der mathematischen Logik, als auch meiner Lebenserfahrung, dass es hier plötzlich zu einem unendlich scharfen Schnitt kommen könnte. Gerade in der Fourier-Repräsentation.
Gruß
Timm
Nur noch mal zur Klarstellung: Meine Argumentation richtet sich gegen die Behauptung es sei schon
theoretisch unmöglich ohne Veränderungen in das System einzuführen (spatiale Superresoluton zum Beispiel) die Auflösung durch Verrechnung einer großen Zahl von Aufnahmen zu erhöhen.
Hallo Wilfried,
Zitat von: wilfried48 in August 28, 2014, 13:44:54 NACHMITTAGS
das sieht doch schon mal gut aus. Aber warum vergleichst du das mit einem Einzelbild aus dem Videostapel das doch sicher mit entsprechend kurzer Belichtungszeit aufgenommen ist, wenn es so verrauscht ist.
Neinnein, die Belichtungszeit ist normal. (Die Photographen hier im Forum könnten da sicher noch was rauskitzeln, normal meint normal für Normalbürger). Ich habe sogar ein wenig überbelichtet. Ich habe computergesteuert die Aufnahmen gemacht, deswegen konnte ich ganz normal belichten, weil ich ja nicht daneben sitzen musste. Noch länger als die Belichtung dauert allerdings das Speichern auf die SD Karte.
Aber ja, eine gute Idee, ich könnte die Serie noch mal machen und noch höher belichten, da war definitiv noch Raum nach oben.
Das Rauschen kommt daher, dass die Abbildung im Histogramm einfach sehr sehr schmal war, im wesentlichen Grau und man die Lochstruktur nur bei sehr genauem hinschauen als Unregelmäßigkeit im Rauschen erkennen konnte. Ich habe deswegen in der Tonwertkorrektur das Schwarz angehoben und das Weiß abgesenkt, damit man die leichten, so kaum wahrnehmbaren, Grau-Schwankungen besser sehen kann.
Dadurch sieht man auch das Rauschen entsprechend dramatisch stärker.
Das habe ich aber bei beiden Bildern genau gleich gemacht, über eine Manipulationsebene, die über den beiden Ebenen mit den beiden Bildern liegt und ganz ganz minimal schon beim RAW entwickeln, da sind aber ja auch alle Bilde gleich durchgegangen.
Zitat
Das Registax durch mitteln vieler Einzelbilder das Rauschen erniedrigt war ja klar und nicht die Frage.
Da habe ich auch drüber nachgedacht. Im Prinzip kommt doch die Auflösungsgrenze zustande (analoge Überlegung), weil sich die Airy-Scheibchen so weit überlagern, dass sie nicht mehr klar zu unterscheiden sind.
Das Tal zwischen den Bergen wird zu hoch und es gibt kaum noch Signalunterschied zwischen den Zentren und den Tälern. Man ,,sieht" keinen Unterschied mehr. Den kleinen vorhandenen Unterschied kann man natürlich vergrößern in dem man die Tonwerte einfach spreizt. Dabei zieht man dann natürlich das Rauschen ebenso mit hoch. Deswegen geht geringe Auflösung wenn man sie sichtbar macht ja geradezu zwingend mit massivem Rauschen einher, oder?
Zitat
Vergleichen musst du es mit einem rauscharmen Einzelbild der Kamera, oder reicht deine Beleuchtungsintensität nicht für ein rauschärmers Bild ?
Ich kann gerne das Bild auch normal entwickeln, da hätte ich dann den Skrupel, dass man dann ja sagen könnte, es wäre absichtlich so entwickelt, dass die Löcher nicht aufgelöst werden. Mache ich aber.
Bei der Beleuchtungsintensität werde ich jetzt gerade skeptisch. In meinem Weltbild ist es egal ob ich heller beleuchte oder länger belichte, stimmt das nicht?
Im Moment habe ich glaube ich 1/125 ich kann ja auch auf 1/60 oder noch länger gehen. Durch den 500 nm Filter mit 10 nm HWB ist von den 50 W Halogen in der Tat nicht mehr so extrem viel übrig, aber kann ich nicht einfach länger belichten?
Zitat
Ausserdem ist man mit dem Neofluar 20/0.5 offensichtlich immer noch nicht unter dem Abbe-limit, wie das Einzelbild zeigt. Man sollte daher vielleicht doch ein Achromaten oder Plan-Achromaten 20/0.45 aus der unendlich - Welt oder 25/0.45 aus der endlich- Welt mit noch etwas kleinerer Apertur nehmen.
Da bin ich dann aber leider raus, weil ich keine solchen Objektive habe. Ich könnte auch ohne den 500 nm Filter beleuchten, dann würde die Auflösung ja auch sinken.
Zitat
Das Ziel ist ja unverrauschtes Einzelbild (ohne Auflösung der Struktur) gegen unverauschtes Registax Bild (mit Auflösung der Struktur).
Ich bin vielleicht renitent aber nicht doof :-)) Im Ernst: Da sind wir uns einig. Ich probiere es noch mal mit einer helleren Belichtung, aber die Aufnahme ist wie gesagt nur so verrauscht, weil ich die Tonwerte so stark gespreizt habe.
Und: Ich habe als Kamera nur eine Lumix GH2 zu bieten, die rauscht natürlich schon mehr, als ,,größere" Kameras. Aber man kann schon normale Fotos damit machen.
Also: Ich mache noch mal einen zweiten Durchlauf mit mehr Licht und ohne 500 nm Filter.
Viele liebe Grüße!
Timm
Hallo Timm,
Entschuldigung angenommen! Widerspruch sollte allerdings eine Herausforderung sein, zur Selbst-Reflexion führen und dann der Diskussion dienen.
ZitatMeine Argumentation richtet sich gegen die Behauptung es sei schon theoretisch unmöglich ohne Veränderungen in das System einzuführen (spatiale Superresoluton zum Beispiel) die Auflösung durch Verrechnung einer großen Zahl von Aufnahmen zu erhöhen.
Hat das eigentlich jemand explizit behauptet (ohne alles nochmals durchlesen zu müssen)? Ich habe das Gefühl, dass niemand hier genau weiss, was Registax eigentlich macht. Von Mittelung über Pixel-Shift bis zum Gauss-Filter (der eigentlich eine Wavelet-Transformation ist) war bisher alles dabei. Das führt dazu, dass jeder hier von etwas anderem redet und die Wirkung schwer zu interpretieren ist.
Zitatjedenfalls vor dem Sensor
Aha, und dann? Der Sensor kann doch nicht besser als die Kette vor ihm, damit ist trivial das Ziel, diese Grenze zu erreichen. Ich hätte mir gewünscht, die komplette Diskussion ginge in diese Richtung, statt sich mehr oder weniger über die Natur der Grenze zu streiten. In die Richtung sollte eigentlich mein erster Beitrag zielen. Hat leider nicht geklappt.
ZitatDeswegen geht geringe Auflösung wenn man sie sichtbar macht ja geradezu zwingend mit massivem Rauschen einher, oder?
Eigentlich nicht. Wenn der Sensor (in
Dynamik und Pixeldichte) mit der Auflösung der Optik mitkommt, werden die Minima und Maxima auch so erfasst. Dazu addiert sich das Rauschen des Sensors und der Signalverarbeitung hinter ihm, unabhängig von der Grösse der Struktur. Oder bin ich jetzt auf der falschen Spur?
Vielleicht macht es Sinn Test mit einer Software zu machen, die nur einzelne Methoden anwendet, keine undurchschaubaren Mischungen.
Gruss,
Stefan
Hallo Tim,
ich hatte ja ursprünglich schon befürchtet, dass Du meinen Beitrag als Anlass für Deine harsche Kritik genommen hast, als ich behauptet hatte, dass die Auflösung wegen des Rauschens immer unter der theoretischen Auflösung liegt. Ich habe aber Deine Argumention noch nicht verstanden. Es gibt einerseits keinen Zweifel daran, dass durch die begrenzte Anzahl von Photonen die reale Intensität am Sensor örtlich und zeitlich schwankt und dadurch die wellentheoretische Intensitätsverteilung nicht exakt auftritt. Aber nur weil auch für einen beschränkten Zeitraum (und das auch nur in beschränkten Bereichen der Verteilungskurve) die "ideale" Intensitätsverteilung unterschritten wird, heißt das nicht, dass diese theoretische Intensitätsverteilung nicht die "Grenzkurve" für die Auflösung darstellt.
Deine Vorstellung, "von 100 theoretischen, nur Abbe-Limitierten ,,Bildern" liegen um die 50 oberhalb des Abbe-Limits und der Rest unterhalb" ist doch so nicht richtig, jedenfalls verstehe ich nicht was Du mit Bildern meinst. Wenn man von z.B. 10000 Photonen ausgeht, dann liegt nach einer groben Abschätzung die lokale statistische Intensitätsschwankung bei etwa max. 5% der Maximalintensität des Beugungsbildes, großteils aber deutlich darunter. Natürlich bezogen auf den gesamten Belichtungszeitraum. Wenn man das mit dem Intensitätsminimum des Rayleigh-Kriteriums vergleicht (26.5%), sieht man, dass die Photonen-Diskussion für dieses Problem eher akademisch ist.
@Stefan:
Eigentlich ist schon klar, was Registax macht. Es mittelt die ausgesuchten Bilder, und dazu muss es sie über Referenzpunkte einzeln ausrichten. Und dann kann man noch diverse Filter u.a. zum Schärfen einsetzen wenn man will, da die gemittelten Bilder naturgemäß etwas kontrastarm sind.
Ein zusätzlicher begrenzender Faktor für die Bildauflösung (neben der Beugungsunschärfe) ist aber m.E. die Methode, mit der das Programm auswertet: Die Bilder müssen an die richtige Position gebracht werden, und dazu dienen die Referenzpunkte. Diese sind aber natürlich ebenfalls unscharf, und das Programm versucht über eine sehr große Zahl dieser Punkte - und dadurch ebenfalls einer statistischen Auswertung - die jeweilige Position möglichst genau zu ermitteln. Das funktioniert offensichtlich erstaunlich gut, es verbleibt aber zwangsläufig eine Positionsungenauigkeit. Und diese Unschärfe durch Fehlpositionierungen addiert sich zu der unvermeidlichen Beugungsunschärfe des Bildes. Ich frage mich schon, ob es in der Mikroskopie, wo man das Problem der dauerhaft schwankenden Bildpositionen wie in der Astronomie nicht hat, nicht besser wäre, die Bilder unmittelbar ohne individuelle Positionierung zu stacken (der Test von Peter hatte ja einen anderen Hintergrund).
Hubert
Hallo Wilfried,
also mit meiner GH-2 hat das keinen Sinn, eine Kamera mit deutlich weniger Rauschen müsste her.
Viele liebe Grüße
Timm
Hallo Auflösungsorientierte,
grundsätzlich war es wohl Jorrits Absicht, zu sagen, dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.
Vermutlich wegen etwas unscharfer Formulierung kam dann die Zusatzfrage auf, ob das über die physikalische Auflösungsgrenze hinaus geht.
Alle Methoden, von denen ich gehört habe, dass sie die Auflösung über die klassische Grenze hinaus verbessern, tun das sozusagen durch gewisse Veränderungen des Lichts oder der "Lichtpunkte/-flächen" (räumlich, zeitlich), am Präparat, bevor es auf irgendeinen Chip oder Film oder Detektor trifft. Natürlich werden die Methoden gleichzeitig rechnerisch unterstützt.
Lieber Timm, Du kannst gerne Deine Photonenstatistik genauer erläutern, warum es dort ähnliche Unterschiede geben soll, aber bisher überzeugt mich Deine Argumentation noch nicht. Gibt es wirklich Unterschiede in den Bildreihen, wobei ein paar Bilder besser als die physikalische Auflösungsgrenze sind? Wenn nicht, aus welchen Unterschieden sollte man dann die Zusatzinformation ziehen? Woher sollte das Programm wissen, welches Photon jetzt "getroffen" hat und welches nicht?
Also, ich glaube, es geht nicht.
Viele Grüße
Sebastian
Hallo,
Zitat... dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.
Das ist überhaupt nicht unstrittig und deswegen auch kein interessanter Tip.
Herzliche Grüsse,
Eckhard
Hallo,
zumindest kann das Rauschen der Kamera in Extremsituationen damit zumindest reduziert werden, ohne Verlust der Schärfe und der Auflösung, wie es bei der normalen EBV schon der Fall wäre. Alleine schon aus diesem Grund ist dieses Programm doch ein interessanter Tipp. Natürlich muss man sich damit auch beschäftigen und nicht nur alles einfach schlecht reden. Probieren geht über studieren.......
Viele Grüße,
Johannes
Hallo,
ZitatNatürlich muss man sich damit auch beschäftigen und nicht nur alles einfach schlecht reden. Probieren geht über studieren.......
Johannes, das war ein inhaltlich richtig toller Beitrag ;D
Herzliche Grüsse,
Eckhard
Zitat von: Oecoprotonucli in August 29, 2014, 14:43:09 NACHMITTAGS
grundsätzlich war es wohl Jorrits Absicht, zu sagen, dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.
und ich muss sagen, dass die Ergebnisse schlicht erstaunlich sind! Bei meiner oben gezeigten Aufnahme muss man bedenken, dass es sich nur um ein 20x/0.5 Objektiv handelt und der Sensor der Kamera recht nah am Nyquist-Shannon Limit liegt. Dafür ist das Ergebnis – rein visuell – schon ganz hervorragend!
Zitat
Lieber Timm, Du kannst gerne Deine Photonenstatistik genauer erläutern, warum es dort ähnliche Unterschiede geben soll, aber bisher überzeugt mich Deine Argumentation noch nicht. Gibt es wirklich Unterschiede in den Bildreihen, wobei ein paar Bilder besser als die physikalische Auflösungsgrenze sind? Wenn nicht, aus welchen Unterschieden sollte man dann die Zusatzinformation ziehen? Woher sollte das Programm wissen, welches Photon jetzt "getroffen" hat und welches nicht?
Vorweg: Hubert hat recht, die Diskussion ist rein akademisch und die Varianz ist, wie ich mittlerweile an Hand einer Simulation gesehen habe, viel geringer, als ich sie mir vorgestellt habe. Wie gesagt, rein akademisch. Wobei ich ganz persönlich als Akademiker akademische Diskussionen nie schlecht fand.
Ich kann aber gern noch mal einen – rein akademischen – Versuch unternehmen zu erläutern, was ich meine.
Zitat
Gibt es wirklich Unterschiede in den Bildreihen, wobei ein paar Bilder besser als die physikalische Auflösungsgrenze sind?
Ich denke, rein akademisch, ja.
Nehmen wir zum Beispiel mal ein Bild das aus zwei Punkten besteht (die Details sind für das Prinzip ohne Bedeutung). Dann könnte das Beugungsmuster zum Beispiel so aussehen:
(https://www.mikroskopie-forum.de/pictures004/155809_25684638.jpg)
Beziehungsweise als Bild das auf den Sensor trifft so (etwas langweilig :-) )
(https://www.mikroskopie-forum.de/pictures004/155809_10807526.jpg)
Das Bild besteht aber aus einzelnen Einschlägen von Photonen, wären das zum Beispiel 10 Mio Stück, könnte das Bild so aussehen:
(https://www.mikroskopie-forum.de/pictures004/155809_64334170.jpg)
Wobei, Achtung! ich glaube mit einer sehr guten Kamera könnte man das schon fotografieren, aber man würde wohl (fast) nichts erkennen. Auf dem hellsten Pixel sind bloß 287 Photonen eingeschlagen.
Aus den Funktionen die dem Bild zugrunde liegen ergibt sich ein Unterschied zwischen Berg und Tal von 45 Prozent (45.4400), bei dem ,,realen" Bild, das du da siehst, ist der Unterschied nur 43 Prozent (43.3680). Das bedeutet, die Auflösung ist schlechter als theoretisch (im idealen Bild könnten die Scheibchen noch ein Stück weit zusammenrücken um auf den selben Höhenunterschied zu kommen, siehe Rayleigh Kriterium). Beim nächsten Bild wären es vielleicht 47 Prozent, die Auflösung wäre besser, weil die Hörnchen besser unterscheidbar sind.
Natürlich nimmt diese Streuung ab, je mehr Photonen das Bild erzeugen, mit den paar Mio. Photonen von oben ist sie natürlich vergleichsweise groß.
Viele Grüße
Timm
P.S. die 45% resultieren aus einem willkürlich gewählten Abstand der Beugungshörnchen, ist aber für das Prinzip natürlich auch egal.
Hallo Sebastian,
ein Problem bei solchen nichttrivialen Diskussionen mit Teilnehmern, die unterschiedlichsten Kenntnisstand und Diskussionskultur haben, ist u.a. dass man leidenschaftlich aneinander vorbei redet. Und dass Fachbegriffe unsauber eingesetzt werden. Insofern halte ich - im Gegensatz zu der Ersatzhandlung, Rechtschreibfehler anzuprangern - eine Korrektur falscher Fachbegriffe oder Formulierungen für wichtig.
Zitatgrundsätzlich war es wohl Jorrits Absicht, zu sagen, dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.
Vermutlich wegen etwas unscharfer Formulierung kam dann die Zusatzfrage auf, ob das über die physikalische Auflösungsgrenze hinaus geht.
Abgesehen davon, dass die Formulierung mehr als unscharf war ("Dieses läßt sich auch im mikroskopischen Bereich nutzen um ein schärferes Bild mit einer virtuell höheren N.A. zu erhalten."), müsste man schon klarer sagen, was man unter dem Begriff "Auflösung" versteht. Dokumentiert sind in diesem Thread bisher zwei Beispiele der Rauschunterdrückung von Johannes und Peter, und an den beiden Bildern von Peter kann man eigentlich schon erkennen, dass etwas mehr Details zu erkennen sind. Man muss aber bei solchen Aussagen extrem vorsichtig sein, denn die scheinbar höhere Auflösung entsteht aus dem gemittelten, rauschärmeren Bild meist erst nach zusätzlichem Schärfen des Bildes. Und die Strukturen, die beim Schärfen entstehen, sind nicht immer real. Die verschiedenen Bildbearbeitungsfilter werden oft ohne Kenntnis des Einflusses auf die Bildinhalte nach ästhetischen Gesichtspunkten eingesetzt. Z.B. erzeugt der Filter "unscharf Maskieren" an Grenzen mit Helligkeitsunterschied künstlich eine zusätzliche Struktur entlang der Grenze. Eine höhere Auflösung ist erst dann erwiesen, wenn tatsächliche Substrukturen erkennbar sind.
Hallo Tim,
auch ich finde akademische Diskussionen nicht uninteressant. ;)
Zu der von Dir gezeigten Simulation folgende Anmerkungen:
1. Du solltest Dir auch einmal ansehen, wie nahe Du die beiden Bilder heranrücken kannst, um den Intensitätsunterschied zwischen Berg und Tal von z.B. 2% in Deinem Beispiel auszugleichen. Wegen der relativ steilen Flanken der Funktion (im Bereich des Rayleigh-Kriteriums!) und der Addition beider Intensitäten kommt dabei ein erstaunlich geringer Wert heraus.
2. Mein früherer Beitrag basiert auf einer eigenen Simulation der Photonenstatistik. Wenn man sich das entsprechende Histogramm der Intensitätsverteilung zahlreicher Simulationen ansieht, erkennt man, dass natürlich auch die beiden "Berge" nach den Gesetzen der Statistik unterschiedliche Höhen haben, und auch innerhalb eines Teilbereiches der Flanken fluktuieren die Intensitäten. Die Photonenzahl schwankt zwar in der Summe mit im Mittel gleicher Wahrscheinlichkeit um die theoretische Verteilung, da hast du natürlich vollkommen recht. Aber deswegen noch nicht die Auflösung, die man ja bei dieser speziellen Betrachtung erst einmal definieren müsste. Nur bei einer theoretischen, glatten Intensitätsverteilung kann man ohne weiteres den Unterschied zwischen den gleichen Maxima und dem Minimum zu einer pauschalen Identifizierung der visuellen Trennung der Strukturen heranziehen.
3. Ich hoffe, Du hast zur Verifizierung untersucht, ob im Grenzfall einer sehr viel höheren Photonenzahl auch 45% Differenz Berg/Tal herauskommt.
Hubert
Guten Tag,
Hallo Timm, schön anschauliche Graphiken hast Du da zusammengestellt.
Mit den Fachbegriffen meine ich in aller Regel die, die in den Lehrbüchern stehen und über die dort weitgehend Einigkeit besteht. Zur Sicherheit ist es aber immer gut, sie zu nennen: Also mit Auflösung meine ich den Abstand d zweier Punkte, die noch als zwei getrennte Punkte erkannt werden können. Was Du für Deine "Photonen-Abbildung" beschreibst, verstehe ich eigentlich eher als eine gewisse Kontrastverstärkung.
Ich frage mich jetzt, ob Du diese Kontrastverstärkung umso besser hinbekommst, je weniger Photonen beteiligt sind bzw. wo das Optimum an Photonen dafür liegt (und wie Du das ausrechnest).
Zweite Frage: Wie groß (wieviel Prozent Unterschied) ist denn an diesem Optimum dieser Kontrastunterschied (Du hattest ja einmal ca. 45 % und einmal 43 % genannt)?
Dritte Frage: Brauchen wir also Deiner Meinung nach diese Zufallsstreuung mit wenigen Photonen, um in der Reihe unterschiedliche Bilder zu erzeugen?
Viertens: Wie sollte sich denn das Programm aus den Bildern die richtigen heraussuchen (und Zusatzfrage: Gibt es nicht auch Bilder, bei denen der Kontrast eher unterdurchschnittlich schlecht ist)?
Jetzt aber zur Auflösung. Ich habe mit Deinen Bildern etwas angestellt:
(https://www.mikroskopie-forum.de/pictures004/155867_33795447.jpg)
Um die Auflösung zu erhöhen, müsste man sich die Helligkeitsmaxima heraussuchen (rot markiert, jedenfalls so ungefähr :) ) und hervorheben, während man den Rest ausblendet. Zunächst einmal ist ja der Abstand d zwischen den beiden erkennbaren Punkten in beiden Fällen noch gleich, d1 = d2. Wenn man es natürlich schafft, diese Maxima aus dem Bild herauszusuchen (da müsste zumindest der Chip wohl empfindlich sein und viele kleine Pixel haben), könnte man vielleicht (?) auch dichter beieinanderliegende Punkte auflösen (d3). Aber würde denn das in der Realität funktionieren? Und hat das noch etwas mit dem vorgestellten Programm zu tun? Und brauche ich dazu überhaupt Deine Photonen-Zufallsstreuung (es geht doch mit beiden Bildern)? Denke ich grundsätzlich richtig?
Viele Grüße
Sebastian
P.S.:
Zitat von: Eckhard in August 29, 2014, 16:16:15 NACHMITTAGS
Das ist überhaupt nicht unstrittig und deswegen auch kein interessanter Tip.
Na dann musst Du Dir das auch noch beweisen lassen, ich hatte es jetzt mal so angenommen - jedenfalls ein etwas getrenntes Diskussionsthema, bei dem nicht gleich die Rede davon ist, physikalische Grenzen zu überwinden.
P.P.S.:
Zitat von: Lupus in August 29, 2014, 20:19:45 NACHMITTAGS
Insofern halte ich - im Gegensatz zu der Ersatzhandlung, Rechtschreibfehler anzuprangern - eine Korrektur falscher Fachbegriffe oder Formulierungen für wichtig.
Naja, das war ja keine
Ersatzhandlung, sondern eine
Zusatzhandlung, die ich schön getrennt vom sonstigen Forum im "Mikro-Café" verübt oder verbrochen habe.
Hallo,
vielleicht hilft dieses Bild euch weiter. Zu sehen ist eine Diatomee (Länge 110µm), die zwar mit einem Neofluar 40/0.75 noch aufzulösen war, jedoch mit dem Plan 25/0.45 nicht mehr. Um jedoch etwa den selben Bildausschnitt hinzubekommen wurde auch das Okular gewechselt.
(https://www.mikroskopie-forum.de/pictures007/155868_11075095.jpg)
Bei den letzten beiden Fotos habe ich absichtlich den Kontrast deutlich angehoben um das Rauschen sichtbarer zu machen.
Das einschwenken des nächsten Objektives mit höherer NA. bleibt einen wohl auch mit Restax nicht erspart, alles andere ist wohl auch zu schön um wahr zu sein. :D
Viele Grüße,
Johannes
Hallo Johannes,
Danke für den sehr schönen Vergleich! Meine persönliche Vermutung ist, dass die Grenzen des Programmes u.a. auch darin liegen, die einzelnen Bilder automatisch an die richtige Stelle zu positionieren. Ich hatte ja schon einmal angedeutet, dass eine Mittelung von Bildern mit statistisch von der richtigen Position abweichenden Justierung zu einer "Verschmierung" der Details führt.
Hallo Sebastian,
Ich glaube, Du hast Dich mit der Diskussion über die Photonenstatistik etwas auf den Holzweg führen lassen. Dabei ging es ja um statistisch fluktierende Details innerhalb der theoretischen Auflösungsgrenze, also innerhalb des Beugungsbildes, keine definierte Bildpunkte. Und üblicherweise sind die einzelnen Sensorpixel in der Mikroskopie gerade so groß, dass sie das gesamte Beugungsbild abdecken oder vielleicht auch nur 1/2 bis 1/3 so groß. Für die Auflösung von Tims Bildpunkten über die gesamte Bildfläche müssten riesige Sensoren verwendet werden.
Deine Idee, die Auflösung durch "Selektion" der Maxima zu vergrößern, ist nichts neues. Dazu gibt es seit längerer Zeit spezielle Software. Und wie Du richtig erkannt hast ist die Voraussetzung eine ausreichende Pixelanzahl, die das gesamte Beugungsbild eines Objektpunktes genau genug abbilden muss. Mit dem Programm hat das aber überhaupt nichts zu tun. Wenn es sich nur um zwei Bildpunkte handelt, ist das Problem im Grunde trivial - man kann allein durch Kontraststeigerung die Auflösung erhöhen. Wenn es aber um die Auflösungssteigerung eines komplexen Halbtonbildes geht, besteht das Problem dass die Beugungsbilder nicht mehr isoliert betrachtet werden können. Und hier muss mit komplexeren mathematischen Verfahren ("Dekonvolution") gearbeitet werden.
P.S. Das mit der "Ersatzhandlung, Rechtschreibfehler anzuprangern" war eigentlich nicht direkt gegen Dich gerichtet, nur zufälligerweise ist der Zusammenhang entstanden - das ist mir auch erst nachträglich aufgefallen. Es gab ja hier in letzter Zeit häufiger solche Diskussionen.
Hubert
Hallo Sebastian,
Zitat von: Oecoprotonucli in August 30, 2014, 14:13:37 NACHMITTAGS
Mit den Fachbegriffen meine ich in aller Regel die, die in den Lehrbüchern stehen und über die dort weitgehend Einigkeit besteht. Zur Sicherheit ist es aber immer gut, sie zu nennen: Also mit Auflösung meine ich den Abstand d zweier Punkte, die noch als zwei getrennte Punkte erkannt werden können.
Das dürfte im Wesentlichen die Bedeutung sein. Wobei natürlich der Teil ,,noch als zwei getrennte Punkte erkannt werden können" wichtig ist.
Wobei das Verb oder das Adjektiv noch eine ganze Reihe äquivalenter Formulierungen möglich machen:
Die beiden Punkte werden erst ab einer Wellenlänge von 400 nm aufgelöst. Etc. pp.
Oft sagt man, dass zwei Punkte noch unterscheidbar seien, wenn das Zentrum des einen Beugungsscheibchens auf dem Minimum des anderen zu liegen kommt:
(https://www.mikroskopie-forum.de/pictures004/155875_42472007.jpg)
rücken sie näher zusammen betrachtet man sie als nicht mehr aufgelöst:
(https://www.mikroskopie-forum.de/pictures004/155875_27960396.jpg)
Man kann jetzt die Auflösung als Abstand der beiden Maxima angeben. Die zugrundeliegende Ursache dafür, dass man diesen Abstand als Auflösung bezeichnet, ist aber, wie man in den Abbildungen auch gut sieht, dass der Unterschied zwischen den Intensitätsmaxima und dem dazwischen liegenden Intensitätsminimum noch groß genug ist.
Der aufgelöste Abstand ist das Resultat eines ausreichend tiefen Tals, denn das ist gerade das, was nötig ist, damit ,,noch als zwei getrennte Punkte erkannt werden können".
Ich kann ,,den Abstand d zweier Punkte, die noch als zwei getrennte Punkte erkannt werden können" also bestimmen, in dem ich die Beugungsscheibchen verschiebe, bis das Tal eine Tiefe von 36% hat (Rayleigh Kriterium). Ist es tiefer, sind die Punkte aufgelöst, ist es höher, sind sie nicht aufgelöst.
Es ergibt sich im betrachteten Fall zweier gleich intensiver Beugungsscheibchen trivial folgendes
Korollar:
d = Auflösung.
Wenn die Tiefe des Tals größer ist, als die Tiefe des Tals im Abstand d, ist der Abstand zwischen den beiden Beugungsscheibchen größer als die Auflösung.
Wenn die Tiefe des Tals kleiner ist, als die Tiefe des Tals im Abstand d, ist der Abstand zwischen den beiden Beugungsscheibchen kleiner als die Auflösung.
Zitat
Was Du für Deine "Photonen-Abbildung" beschreibst, verstehe ich eigentlich eher als eine gewisse Kontrastverstärkung.
Siehe oben.
Zitat
Ich frage mich jetzt, ob Du diese Kontrastverstärkung umso besser hinbekommst, je weniger Photonen beteiligt sind bzw. wo das Optimum an Photonen dafür liegt (und wie Du das ausrechnest).
Die ,,Kontrastverstärkung" hängt nicht von der Anzahl der Photonen ab, nur ihre Varianz. Wobei man bei wenigen Photonen natürlich gar nicht von ,,Bild" sprechen kann.
Zitat
Zweite Frage: Wie groß (wieviel Prozent Unterschied) ist denn an diesem Optimum dieser Kontrastunterschied (Du hattest ja einmal ca. 45 % und einmal 43 % genannt)?
Die 43% war eine Einzelmessung und 45% ist der Erwartungswert für den Abstand den ich gewählt habe.
Im Grenzfall unendlich vieler Photonen oder der Mittlung über unendlich viele Einzelbilder konvergiert dieser Wert gegen den Erwartungswert.
Zitat
Dritte Frage: Brauchen wir also Deiner Meinung nach diese Zufallsstreuung mit wenigen Photonen, um in der Reihe unterschiedliche Bilder zu erzeugen?
Rein akademisch!
Mir lag es am Herzen festzuhalten, dass es diese Streuung gibt! Würde es diese Streuung nicht geben könnte man trivial zwingend behaupten, dass eine Auflösungserhöhung über das Abbe-Limit hinaus durch Mitteln der Bilder nicht möglich sein kann.
Wenn es die Streuung gibt, ist diese Behauptung nicht mehr trivial zwingend. Darum ging es mir.
Daraus folgt natürlich keinesfalls das Gegenteil! Also, dass es dann eben trivial zwingend wäre, dass es möglich ist, die Auflösung über das Abbe-Limit zu erhöhen. Das nicht!
(Ich muss auch zugeben, dass mir persönlich diese Richtung nicht am Herzen liegt :-) )
Zitat
Viertens: Wie sollte sich denn das Programm aus den Bildern die richtigen heraussuchen (und Zusatzfrage: Gibt es nicht auch Bilder, bei denen der Kontrast eher unterdurchschnittlich schlecht ist)?
Das ist ja keine akademische Frage mehr! Vielleicht findet ja jemand irgendwann eine Lösung dafür?
Ich glaube es nicht, denn vermutlich ist die erzielbare Verbesserung die Mühe schlicht nicht wert. So kann es ja bei rein akademischen Diskussionen im Endeffekt kommen?
Zitat
Um die Auflösung zu erhöhen, müsste man sich die Helligkeitsmaxima heraussuchen (rot markiert, jedenfalls so ungefähr :) ) und hervorheben, während man den Rest ausblendet. Zunächst einmal ist ja der Abstand d zwischen den beiden erkennbaren Punkten in beiden Fällen noch gleich, d1 = d2.
na, das wolln wir doch mal hoffen! Sonst hätte sich ja die Position der ,,Objekte" verändert! Wir suchen ja kein ,,formgebendes" Abbildungsverfahren :-)
Zitat
Wenn man es natürlich schafft, diese Maxima aus dem Bild herauszusuchen (da müsste zumindest der Chip wohl empfindlich sein und viele kleine Pixel haben), könnte man vielleicht (?) auch dichter beieinanderliegende Punkte auflösen (d3).
Bestimmt! Ist aber nicht ganz das was ich meinte.
Zitat
Und hat das noch etwas mit dem vorgestellten Programm zu tun?
Nein.
Zitat
Und brauche ich dazu überhaupt Deine Photonen-Zufallsstreuung (es geht doch mit beiden Bildern)? Denke ich grundsätzlich richtig?
Abgesehen davon, dass die Varianz vermutlich zu klein ist, um sie auszunutzen:
Durch die Streuung bekomme ich ja Einzelaufnahmen mit verbessertem Kontrast, die Maxima sind besser zu unterscheiden! Wenn man das ausbeuten könnte, wäre es dadurch möglich, die Maxima in Fällen zu unterscheiden, in denen es sonst nicht geht.
Wie gesagt rein akademisch!
Viele liebe Grüße
Timm
Hallo Hubert und Timm,
vielen Dank für Eure Erläuterungen und Antworten! Jetzt sehe ich den Fall schon klarer!
Zitat von: Lupus in August 30, 2014, 15:50:15 NACHMITTAGS
Deine Idee, die Auflösung durch "Selektion" der Maxima zu vergrößern, ist nichts neues. Dazu gibt es seit längerer Zeit spezielle Software.
Zum Glück, womöglich hätte ich mich sonst geärgert, so eine Idee hier frei geäußert zu haben, statt endlich reich zu werden ;) !
Was ist das denn für eine Software? Vielleicht lohnt es sich ja, darüber auch mal einen Beitrag hier im Forum einzustellen?
Was den Bildvergleich von Fotos mit/ohne Registax angeht, ist nach Johannes Foto also nun wieder alles offen oder gar gegen das Programm entschieden? Brauchen wir noch mehr Fotos...?
Viele Grüße
Sebastian
Hallo,
Die Ergebnisse von Johannes und Timm haben Nichts gebracht.
Rein prinzipiell gibt es mehrere mögliche Verbesserungen:
1.) Rauschen des CCD Sensors verringern.
2.) Verrechnung mit Bildern mit einem Versatz der Pixel um z.B. 0,5 , ... Pixel.
3.) Verrechnung mit Bildern aus leicht unterschiedlichen Blickwinkeln
Wenn z.B. 20x identische Bilder (Position) gemacht wurden, dürfte sich nur das Rauschen der CCD Pixel mitteln lassen.
Egel ob man nun stackt oder nicht. Alleine die Wavelet-Filter sind eine nette Zugabe, um Bilder "aufzuhübschen".
Von daher würde Ich schon einen Nutzen in der Mikroskopie sehen, Eckhard, auch wenn man nicht stackt.
Wenn Ich irgendwann einmal Zeit erübrigen kann, werde Ich Bilder einstellen (die auch aussagekräftig sind).
Das Programm sucht sich automatisch z.B. die besten 30-50% (einstellbar) aller Bilder heraus. Wichtig ist die Markierung wesentlicher Bildelemente im Objekt. Die Markierungen wirken sich entscheidend auf das Stackingergebnis aus. Wichtig ist, daß es keine schnellen, starken Veränderungen beim Objekt gibt. Notfalls muß das Video oder die Bildreihe entsprechend gekürzt werden.
LG Jorrit.
Hallo Jorrit,
ZitatRein prinzipiell gibt es mehrere mögliche Verbesserungen:
...........
3.) Verrechnung mit Bildern aus leicht unterschiedlichen Blickwinkeln
das ist die Wiederholung einer früheren Behauptung. Was soll das bewirken? Wer hat mit welchem Ergebnis so etwas mit Registax gemacht (Referenz!)?
Hubert
Hallo Lupus,
Zitat
das ist die Wiederholung einer früheren Behauptung. Was soll das bewirken? Wer hat mit welchem Ergebnis so etwas mit Registax gemacht (Referenz!)?
Hubert
ich bewundere Eure Geduld, mit der ihr diesen hingeworfenen Knochen weiterhin auf Fleischbröckchen untersucht.
ZitatWenn Ich irgendwann einmal Zeit erübrigen kann, werde Ich Bilder einstellen (die auch aussagekräftig sind).
Aber eines wissen wir: Was auch immer die Software kann - es muss seeeehr zeitaufwändig sein!
Herzliche Grüße
Peter
PS: Ich schlage als nächste Software "Mandala Creator 2.0" vor. Wozu sie in der Mikroskopie dienlich sein soll? Ich weiß es nicht - aber ihr werdet es schon herausfinden ;D ;D ;D
Lieber Peter.
Einen Knochen kann man auf Knochenmark hin untersuchen. Ein Knochen ist kein Stück Fleisch. ;)
Ich biete Dir hiermit an, meine Verpflichtungen zu übernehmen. Dann fahre ich gerne nach Hause und mache Es.
Es dauert auch nicht lange.
LG Jorrit.
Hallo Peter,
Zitatich bewundere Eure Geduld, mit der ihr diesen hingeworfenen Knochen weiterhin auf Fleischbröckchen untersucht.
;D ;D ;D
Wenn ich das gesagt hätte gäb es bestimmt Kritik vom Moderator. Aber eine sehr treffende Formulierung ;)
Hubert
Hallo
Da die optimale Auflösung in der Praxis, bedingt durch Verwackeln nicht immer erreicht wird, ist in solchen Fällen der Einsatz von Registax, Deconvolution mit Fitswork und anderen Programmen erfolgreich, da die Information im Bild steckt, aber etwas verwischt ist. In der Mikroskopie kann Verwischung durch einen stabilen Aufbau oder sehr kurzen Belichtungszeit (mit Blitz) vermindert werden. Deconvolution zeigt dann keinen grossen Auflösungsgewinn. In der Astrofotografie ist dies nur bedingt möglich, deshalb erreicht man die optisch mögliche Auflösung annähernd, mit dem Einsatz von Registax (Deconvolution).
Kurt
Hallo:
Kleiner, erster Versuch. Mit der Webcam macht es aber wenig Sinn, da die Auflösung zu schlecht ist. Immerhin sieht man den Wavelet-Effekt ganz gut.
(https://www.mikroskopie-forum.de/pictures004/156030_35247457.jpg)
LG Jorrit.
Hallo Jorrit,
kann man tatsächlich mit Registax aus dem etwas derb wirkenden linken Original die subtilen Helligkeitsübergänge des rechten Bildes hervorzaubern und dabei die zahlreichen Artefakte entfernen? ;)
Hubert
Hallo in die Runde,
ich verschiebe das Thema mal in das allgemeine Forum.
Herzliche Grüsse,
Eckhard
Hallo,
Zitat von: Lupus in September 01, 2014, 14:26:56 NACHMITTAGS
kann man tatsächlich mit Registax aus dem etwas derb wirkenden linken Original die subtilen Helligkeitsübergänge des rechten Bildes hervorzaubern und dabei die zahlreichen Artefakte entfernen? ;)
herrlich, schön gesagt!
Viele Grüße
Timm