Anders Stacken mit Registax

Begonnen von the_playstation, August 09, 2014, 07:38:32 VORMITTAG

Vorheriges Thema - Nächstes Thema

Eckhard

Hallo,

Zitat... dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.

Das ist überhaupt nicht unstrittig und deswegen auch kein interessanter Tip.

Herzliche Grüsse,
Eckhard
Zeiss Axioscope.A1 (HF, DF, DIK, Ph, Pol, Epifluoreszenz)
Nikon SE2000U (HF, DIK, Ph)
Olympus SZX 12 (HF, DF, Pol)
Zeiss Sigma (ETSE, InLens SE)

www.wunderkanone.de
www.penard.de
www.flickr.com/wunderkanone

Johannes Kropiunig

Hallo,

zumindest kann das Rauschen der Kamera in Extremsituationen damit zumindest reduziert werden, ohne Verlust der Schärfe und der Auflösung, wie es bei der normalen EBV schon der Fall wäre. Alleine schon aus diesem Grund ist dieses Programm doch ein interessanter Tipp. Natürlich muss man sich damit auch beschäftigen und nicht nur alles einfach schlecht reden. Probieren geht über studieren.......

Viele Grüße,
Johannes
Biologische Mikroskop: Zeiss Standard 16
Stereomikroskop: Lomo MBS 10
Kameras:  EOS 1100D, EOS 1000D, EOS 1000Da, und EOS 350Da Peltier gekühlt

Sag es mir - und ich werde es vergessen. Zeige es mir - und ich werde mich daran erinnern. Beteilige mich - und ich werde es verstehen.
Laotse

Eckhard

Hallo,

ZitatNatürlich muss man sich damit auch beschäftigen und nicht nur alles einfach schlecht reden. Probieren geht über studieren.......

Johannes, das war ein inhaltlich richtig toller Beitrag  ;D

Herzliche Grüsse,
Eckhard
Zeiss Axioscope.A1 (HF, DF, DIK, Ph, Pol, Epifluoreszenz)
Nikon SE2000U (HF, DIK, Ph)
Olympus SZX 12 (HF, DF, Pol)
Zeiss Sigma (ETSE, InLens SE)

www.wunderkanone.de
www.penard.de
www.flickr.com/wunderkanone

treinisch

Zitat von: Oecoprotonucli in August 29, 2014, 14:43:09 NACHMITTAGS
grundsätzlich war es wohl Jorrits Absicht, zu sagen, dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.

und ich muss sagen, dass die Ergebnisse schlicht erstaunlich sind! Bei meiner oben gezeigten Aufnahme muss man bedenken, dass es sich nur um ein 20x/0.5 Objektiv handelt und der Sensor der Kamera recht nah am Nyquist-Shannon Limit liegt. Dafür ist das Ergebnis – rein visuell – schon ganz hervorragend!

Zitat
Lieber Timm, Du kannst gerne Deine Photonenstatistik genauer erläutern, warum es dort ähnliche Unterschiede geben soll, aber bisher überzeugt mich Deine Argumentation noch nicht. Gibt es wirklich Unterschiede in den Bildreihen, wobei ein paar Bilder besser als die physikalische Auflösungsgrenze sind? Wenn nicht, aus welchen Unterschieden sollte man dann die Zusatzinformation ziehen? Woher sollte das Programm wissen, welches Photon jetzt "getroffen" hat und welches nicht?

Vorweg: Hubert hat recht, die Diskussion ist rein akademisch und die Varianz ist, wie ich mittlerweile an Hand einer Simulation gesehen habe, viel geringer, als ich sie mir vorgestellt habe. Wie gesagt, rein akademisch. Wobei ich ganz persönlich als Akademiker akademische Diskussionen nie schlecht fand.


Ich kann aber gern noch mal einen – rein akademischen – Versuch unternehmen zu erläutern, was ich meine.

Zitat
Gibt es wirklich Unterschiede in den Bildreihen, wobei ein paar Bilder besser als die physikalische Auflösungsgrenze sind?

Ich denke, rein akademisch, ja.

Nehmen wir zum Beispiel mal ein Bild das aus zwei Punkten besteht (die Details sind für das Prinzip ohne Bedeutung). Dann könnte das Beugungsmuster zum Beispiel so aussehen:


Beziehungsweise als Bild das auf den Sensor trifft so (etwas langweilig :-) )



Das Bild besteht aber aus einzelnen Einschlägen von Photonen, wären das zum Beispiel 10 Mio Stück, könnte das Bild so aussehen:



Wobei, Achtung! ich glaube mit einer sehr guten Kamera könnte man das schon fotografieren, aber man würde wohl (fast) nichts erkennen. Auf dem hellsten Pixel sind bloß 287 Photonen eingeschlagen.

Aus den Funktionen die dem Bild zugrunde liegen ergibt sich ein Unterschied zwischen Berg und Tal von 45 Prozent (45.4400), bei dem ,,realen" Bild, das du da siehst, ist der Unterschied nur 43 Prozent (43.3680). Das bedeutet, die Auflösung ist schlechter als theoretisch (im idealen Bild könnten die Scheibchen noch ein Stück weit zusammenrücken um auf den selben Höhenunterschied zu kommen, siehe Rayleigh Kriterium). Beim nächsten Bild wären es vielleicht 47 Prozent, die Auflösung wäre besser, weil die Hörnchen besser unterscheidbar sind.

Natürlich nimmt diese Streuung ab, je mehr Photonen das Bild erzeugen, mit den paar Mio. Photonen von oben ist sie natürlich vergleichsweise groß.

Viele Grüße

Timm

P.S. die 45% resultieren aus einem willkürlich gewählten Abstand der Beugungshörnchen, ist aber für das Prinzip natürlich auch egal.
Gerne per Du!

Meine Vorstellung.

Lupus

Hallo Sebastian,

ein Problem bei solchen nichttrivialen Diskussionen mit Teilnehmern, die unterschiedlichsten Kenntnisstand und Diskussionskultur haben, ist u.a. dass man leidenschaftlich aneinander vorbei redet. Und dass Fachbegriffe unsauber eingesetzt werden. Insofern halte ich - im Gegensatz zu der Ersatzhandlung, Rechtschreibfehler anzuprangern - eine Korrektur falscher Fachbegriffe oder Formulierungen für wichtig.
Zitatgrundsätzlich war es wohl Jorrits Absicht, zu sagen, dass man die Auflösung auf seinen Fotos mithilfe des Programms verbessern kann. Das ist wohl unstrittig und ein interessanter Tip.
Vermutlich wegen etwas unscharfer Formulierung kam dann die Zusatzfrage auf, ob das über die physikalische Auflösungsgrenze hinaus geht.
Abgesehen davon, dass die Formulierung mehr als unscharf war ("Dieses läßt sich auch im mikroskopischen Bereich nutzen um ein schärferes Bild mit einer virtuell höheren N.A. zu erhalten."), müsste man schon klarer sagen, was man unter dem Begriff "Auflösung" versteht. Dokumentiert sind in diesem Thread bisher zwei Beispiele der Rauschunterdrückung von Johannes und Peter, und an den beiden Bildern von Peter kann man eigentlich schon erkennen, dass etwas mehr Details zu erkennen sind. Man muss aber bei solchen Aussagen extrem vorsichtig sein, denn die scheinbar höhere Auflösung entsteht aus dem gemittelten, rauschärmeren Bild meist erst nach zusätzlichem Schärfen des Bildes. Und die Strukturen, die beim Schärfen entstehen, sind nicht immer real. Die verschiedenen Bildbearbeitungsfilter werden oft ohne Kenntnis des Einflusses auf die Bildinhalte nach ästhetischen Gesichtspunkten eingesetzt. Z.B. erzeugt der Filter "unscharf Maskieren" an Grenzen mit Helligkeitsunterschied künstlich eine zusätzliche Struktur entlang der Grenze. Eine höhere Auflösung ist erst dann erwiesen, wenn tatsächliche Substrukturen erkennbar sind.

Hallo Tim,

auch ich finde akademische Diskussionen nicht uninteressant.  ;)
Zu der von Dir gezeigten Simulation folgende Anmerkungen:
1. Du solltest Dir auch einmal ansehen, wie nahe Du die beiden Bilder heranrücken kannst, um den Intensitätsunterschied zwischen Berg und Tal von z.B. 2% in Deinem Beispiel auszugleichen. Wegen der relativ steilen Flanken der Funktion (im Bereich des Rayleigh-Kriteriums!) und der Addition beider Intensitäten kommt dabei ein erstaunlich geringer Wert heraus.
2. Mein früherer Beitrag basiert auf einer eigenen Simulation der Photonenstatistik. Wenn man sich das entsprechende Histogramm der Intensitätsverteilung zahlreicher Simulationen ansieht, erkennt man, dass natürlich auch die beiden "Berge" nach den Gesetzen der Statistik unterschiedliche Höhen haben, und auch innerhalb eines Teilbereiches der Flanken fluktuieren die Intensitäten. Die Photonenzahl schwankt zwar in der Summe mit im Mittel gleicher Wahrscheinlichkeit um die theoretische Verteilung, da hast du natürlich vollkommen recht. Aber deswegen noch nicht die Auflösung, die man ja bei dieser speziellen Betrachtung erst einmal definieren müsste. Nur bei einer theoretischen, glatten Intensitätsverteilung kann man ohne weiteres den Unterschied zwischen den gleichen Maxima und dem Minimum zu einer pauschalen Identifizierung der visuellen Trennung der Strukturen heranziehen.
3. Ich hoffe, Du hast zur Verifizierung untersucht, ob im Grenzfall einer sehr viel höheren Photonenzahl auch 45% Differenz Berg/Tal herauskommt.

Hubert

Oecoprotonucli

#50
Guten Tag,

Hallo Timm, schön anschauliche Graphiken hast Du da zusammengestellt.

Mit den Fachbegriffen meine ich in aller Regel die, die in den Lehrbüchern stehen und über die dort weitgehend Einigkeit besteht. Zur Sicherheit ist es aber immer gut, sie zu nennen: Also mit Auflösung meine ich den Abstand d zweier Punkte, die noch als zwei getrennte Punkte erkannt werden können. Was Du für Deine "Photonen-Abbildung" beschreibst, verstehe ich eigentlich eher als eine gewisse Kontrastverstärkung.

Ich frage mich jetzt, ob Du diese Kontrastverstärkung umso besser hinbekommst, je weniger Photonen beteiligt sind bzw. wo das Optimum an Photonen dafür liegt (und wie Du das ausrechnest).

Zweite Frage: Wie groß (wieviel Prozent Unterschied) ist denn an diesem Optimum dieser Kontrastunterschied (Du hattest ja einmal ca. 45 % und einmal 43 % genannt)?

Dritte Frage: Brauchen wir also Deiner Meinung nach diese Zufallsstreuung mit wenigen Photonen, um in der Reihe unterschiedliche Bilder zu erzeugen?

Viertens: Wie sollte sich denn das Programm aus den Bildern die richtigen heraussuchen (und Zusatzfrage: Gibt es nicht auch Bilder, bei denen der Kontrast eher unterdurchschnittlich schlecht ist)?

Jetzt aber zur Auflösung. Ich habe mit Deinen Bildern etwas angestellt:



Um die Auflösung zu erhöhen, müsste man sich die Helligkeitsmaxima heraussuchen (rot markiert, jedenfalls so ungefähr  :) ) und hervorheben, während man den Rest ausblendet. Zunächst einmal ist ja der Abstand d zwischen den beiden erkennbaren Punkten in beiden Fällen noch gleich, d1 = d2. Wenn man es natürlich schafft, diese Maxima aus dem Bild herauszusuchen (da müsste zumindest der Chip wohl empfindlich sein und viele kleine Pixel haben), könnte man vielleicht (?) auch dichter beieinanderliegende Punkte auflösen (d3). Aber würde denn das in der Realität funktionieren? Und hat das noch etwas mit dem vorgestellten Programm zu tun? Und brauche ich dazu überhaupt Deine Photonen-Zufallsstreuung (es geht doch mit beiden Bildern)? Denke ich grundsätzlich richtig?

Viele Grüße

Sebastian

P.S.:
Zitat von: Eckhard in August 29, 2014, 16:16:15 NACHMITTAGS
Das ist überhaupt nicht unstrittig und deswegen auch kein interessanter Tip.
Na dann musst Du Dir das auch noch beweisen lassen, ich hatte es jetzt mal so angenommen - jedenfalls ein etwas getrenntes Diskussionsthema, bei dem nicht gleich die Rede davon ist, physikalische Grenzen zu überwinden.

P.P.S.:
Zitat von: Lupus in August 29, 2014, 20:19:45 NACHMITTAGS
Insofern halte ich - im Gegensatz zu der Ersatzhandlung, Rechtschreibfehler anzuprangern - eine Korrektur falscher Fachbegriffe oder Formulierungen für wichtig.
Naja, das war ja keine Ersatzhandlung, sondern eine Zusatzhandlung, die ich schön getrennt vom sonstigen Forum im "Mikro-Café" verübt oder verbrochen habe.
Ich benutze privat:
Leitz SM-Lux mit (LED-) Durchlicht und Phaco-Ausrüstung (ca. 1975-77)
Hensoldt Wetzlar Stereomikroskop DIAMAL (1950er Jahre)

Johannes Kropiunig

Hallo,

vielleicht hilft dieses Bild euch weiter. Zu sehen ist eine Diatomee (Länge 110µm), die zwar mit einem Neofluar 40/0.75 noch aufzulösen war, jedoch mit dem Plan 25/0.45 nicht mehr. Um jedoch etwa den selben Bildausschnitt hinzubekommen wurde auch das Okular gewechselt.


Bei den letzten beiden Fotos habe ich absichtlich den Kontrast deutlich angehoben um das Rauschen sichtbarer zu machen.

Das einschwenken des nächsten Objektives mit höherer NA. bleibt einen wohl auch mit Restax nicht erspart, alles andere ist wohl auch zu schön um wahr zu sein. :D

Viele Grüße,
Johannes
Biologische Mikroskop: Zeiss Standard 16
Stereomikroskop: Lomo MBS 10
Kameras:  EOS 1100D, EOS 1000D, EOS 1000Da, und EOS 350Da Peltier gekühlt

Sag es mir - und ich werde es vergessen. Zeige es mir - und ich werde mich daran erinnern. Beteilige mich - und ich werde es verstehen.
Laotse

Lupus

Hallo Johannes,

Danke für den sehr schönen Vergleich! Meine persönliche Vermutung ist, dass die Grenzen des Programmes u.a. auch darin liegen, die einzelnen Bilder automatisch an die richtige Stelle zu positionieren. Ich hatte ja schon einmal angedeutet, dass eine Mittelung von Bildern mit statistisch von der richtigen Position abweichenden Justierung zu einer "Verschmierung" der Details führt.


Hallo Sebastian,

Ich glaube, Du hast Dich mit der Diskussion über die Photonenstatistik etwas auf den Holzweg führen lassen. Dabei ging es ja um statistisch fluktierende Details innerhalb der theoretischen Auflösungsgrenze, also innerhalb des Beugungsbildes, keine definierte Bildpunkte. Und üblicherweise sind die einzelnen Sensorpixel in der Mikroskopie gerade so groß, dass sie das gesamte Beugungsbild abdecken oder vielleicht auch nur 1/2 bis 1/3 so groß. Für die Auflösung von Tims Bildpunkten über die gesamte Bildfläche müssten riesige Sensoren verwendet werden.

Deine Idee, die Auflösung durch "Selektion" der Maxima zu vergrößern, ist nichts neues. Dazu gibt es seit längerer Zeit spezielle Software. Und wie Du richtig erkannt hast ist die Voraussetzung eine ausreichende Pixelanzahl, die das gesamte Beugungsbild eines Objektpunktes genau genug abbilden muss. Mit dem Programm hat das aber überhaupt nichts zu tun. Wenn es sich nur um zwei Bildpunkte handelt, ist das Problem im Grunde trivial - man kann allein durch Kontraststeigerung die Auflösung erhöhen. Wenn es aber um die Auflösungssteigerung eines komplexen Halbtonbildes geht, besteht das Problem dass die Beugungsbilder nicht mehr isoliert betrachtet werden können. Und hier muss mit komplexeren mathematischen Verfahren ("Dekonvolution") gearbeitet werden.

P.S. Das mit der "Ersatzhandlung, Rechtschreibfehler anzuprangern" war eigentlich nicht direkt gegen Dich gerichtet, nur zufälligerweise ist der Zusammenhang entstanden - das ist mir auch erst nachträglich aufgefallen. Es gab ja hier in letzter Zeit häufiger solche Diskussionen.

Hubert

treinisch

Hallo Sebastian,

Zitat von: Oecoprotonucli in August 30, 2014, 14:13:37 NACHMITTAGS
Mit den Fachbegriffen meine ich in aller Regel die, die in den Lehrbüchern stehen und über die dort weitgehend Einigkeit besteht. Zur Sicherheit ist es aber immer gut, sie zu nennen: Also mit Auflösung meine ich den Abstand d zweier Punkte, die noch als zwei getrennte Punkte erkannt werden können.

Das dürfte im Wesentlichen die Bedeutung sein. Wobei natürlich der Teil ,,noch als zwei getrennte Punkte erkannt werden können" wichtig ist.

Wobei das Verb oder das Adjektiv noch eine ganze Reihe äquivalenter Formulierungen möglich machen:

Die beiden Punkte werden erst ab einer Wellenlänge von 400 nm aufgelöst. Etc. pp.


Oft sagt man, dass zwei Punkte noch unterscheidbar seien, wenn das Zentrum des einen Beugungsscheibchens auf dem Minimum des anderen zu liegen kommt:



rücken sie näher zusammen betrachtet man sie als nicht mehr aufgelöst:



Man kann jetzt die Auflösung als Abstand der beiden Maxima angeben. Die zugrundeliegende Ursache dafür, dass man diesen Abstand als Auflösung bezeichnet, ist aber, wie man in den Abbildungen auch gut sieht, dass der Unterschied zwischen den Intensitätsmaxima und dem dazwischen liegenden Intensitätsminimum noch groß genug ist.

Der aufgelöste Abstand ist das Resultat eines ausreichend tiefen Tals, denn das ist gerade das, was nötig ist, damit ,,noch als zwei getrennte Punkte erkannt werden können".

Ich kann ,,den Abstand d zweier Punkte, die noch als zwei getrennte Punkte erkannt werden können" also bestimmen, in dem ich die Beugungsscheibchen verschiebe, bis das Tal eine Tiefe von 36% hat (Rayleigh Kriterium). Ist es tiefer, sind die Punkte aufgelöst, ist es höher, sind sie nicht aufgelöst.


Es ergibt sich im betrachteten Fall zweier gleich intensiver Beugungsscheibchen trivial folgendes

Korollar:

d = Auflösung.
Wenn die Tiefe des Tals größer ist, als die Tiefe des Tals im Abstand d, ist der Abstand zwischen den beiden Beugungsscheibchen größer als die Auflösung.
Wenn die Tiefe des Tals kleiner ist, als die Tiefe des Tals im Abstand d, ist der Abstand zwischen den beiden Beugungsscheibchen kleiner als die Auflösung.


Zitat
Was Du für Deine "Photonen-Abbildung" beschreibst, verstehe ich eigentlich eher als eine gewisse Kontrastverstärkung.

Siehe oben.

Zitat
Ich frage mich jetzt, ob Du diese Kontrastverstärkung umso besser hinbekommst, je weniger Photonen beteiligt sind bzw. wo das Optimum an Photonen dafür liegt (und wie Du das ausrechnest).

Die ,,Kontrastverstärkung" hängt nicht von der Anzahl der Photonen ab, nur ihre Varianz. Wobei man bei wenigen Photonen natürlich gar nicht von ,,Bild" sprechen kann.

Zitat
Zweite Frage: Wie groß (wieviel Prozent Unterschied) ist denn an diesem Optimum dieser Kontrastunterschied (Du hattest ja einmal ca. 45 % und einmal 43 % genannt)?

Die 43% war eine Einzelmessung und 45% ist der Erwartungswert für den Abstand den ich gewählt habe.
Im Grenzfall unendlich vieler Photonen oder der Mittlung über unendlich viele Einzelbilder konvergiert dieser Wert gegen den Erwartungswert.

Zitat
Dritte Frage: Brauchen wir also Deiner Meinung nach diese Zufallsstreuung mit wenigen Photonen, um in der Reihe unterschiedliche Bilder zu erzeugen?

Rein akademisch!

Mir lag es am Herzen festzuhalten, dass es diese Streuung gibt! Würde es diese Streuung nicht geben könnte man trivial zwingend behaupten, dass eine Auflösungserhöhung über das Abbe-Limit hinaus durch Mitteln der Bilder nicht möglich sein kann.

Wenn es die Streuung gibt, ist diese Behauptung nicht mehr trivial zwingend. Darum ging es mir.

Daraus folgt natürlich keinesfalls das Gegenteil! Also, dass es dann eben trivial zwingend wäre, dass es möglich ist, die Auflösung über das Abbe-Limit zu erhöhen. Das nicht!
(Ich muss auch zugeben, dass mir persönlich diese Richtung nicht am Herzen liegt :-) )


Zitat
Viertens: Wie sollte sich denn das Programm aus den Bildern die richtigen heraussuchen (und Zusatzfrage: Gibt es nicht auch Bilder, bei denen der Kontrast eher unterdurchschnittlich schlecht ist)?

Das ist ja keine akademische Frage mehr! Vielleicht findet ja jemand irgendwann eine Lösung dafür?

Ich glaube es nicht, denn vermutlich ist die erzielbare Verbesserung die Mühe schlicht nicht wert. So kann es ja bei rein akademischen Diskussionen im Endeffekt kommen?


Zitat
Um die Auflösung zu erhöhen, müsste man sich die Helligkeitsmaxima heraussuchen (rot markiert, jedenfalls so ungefähr  :) ) und hervorheben, während man den Rest ausblendet. Zunächst einmal ist ja der Abstand d zwischen den beiden erkennbaren Punkten in beiden Fällen noch gleich, d1 = d2.

na, das wolln wir doch mal hoffen! Sonst hätte sich ja die Position der ,,Objekte" verändert! Wir suchen ja kein ,,formgebendes" Abbildungsverfahren :-)

Zitat
Wenn man es natürlich schafft, diese Maxima aus dem Bild herauszusuchen (da müsste zumindest der Chip wohl empfindlich sein und viele kleine Pixel haben), könnte man vielleicht (?) auch dichter beieinanderliegende Punkte auflösen (d3).

Bestimmt! Ist aber nicht ganz das was ich meinte.

Zitat
Und hat das noch etwas mit dem vorgestellten Programm zu tun?

Nein.

Zitat
Und brauche ich dazu überhaupt Deine Photonen-Zufallsstreuung (es geht doch mit beiden Bildern)? Denke ich grundsätzlich richtig?

Abgesehen davon, dass die Varianz vermutlich zu klein ist, um sie auszunutzen:

Durch die Streuung bekomme ich ja Einzelaufnahmen mit verbessertem Kontrast, die Maxima sind besser zu unterscheiden! Wenn man das ausbeuten könnte, wäre es dadurch möglich, die Maxima in Fällen zu unterscheiden, in denen es sonst nicht geht.

Wie gesagt rein akademisch!

Viele liebe Grüße

Timm
Gerne per Du!

Meine Vorstellung.

Oecoprotonucli

Hallo Hubert und Timm,

vielen Dank für Eure Erläuterungen und Antworten! Jetzt sehe ich den Fall schon klarer!

Zitat von: Lupus in August 30, 2014, 15:50:15 NACHMITTAGS
Deine Idee, die Auflösung durch "Selektion" der Maxima zu vergrößern, ist nichts neues. Dazu gibt es seit längerer Zeit spezielle Software.

Zum Glück, womöglich hätte ich mich sonst geärgert, so eine Idee hier frei geäußert zu haben, statt endlich reich zu werden  ;) !

Was ist das denn für eine Software? Vielleicht lohnt es sich ja, darüber auch mal einen Beitrag hier im Forum einzustellen?

Was den Bildvergleich von Fotos mit/ohne Registax angeht, ist nach Johannes Foto also nun wieder alles offen oder gar gegen das Programm entschieden? Brauchen wir noch mehr Fotos...?

Viele Grüße

Sebastian
Ich benutze privat:
Leitz SM-Lux mit (LED-) Durchlicht und Phaco-Ausrüstung (ca. 1975-77)
Hensoldt Wetzlar Stereomikroskop DIAMAL (1950er Jahre)

the_playstation

Hallo,
Die Ergebnisse von Johannes und Timm haben Nichts gebracht.

Rein prinzipiell gibt es mehrere mögliche Verbesserungen:
1.) Rauschen des CCD Sensors verringern.
2.) Verrechnung mit Bildern mit einem Versatz der Pixel um z.B. 0,5 , ...  Pixel.
3.) Verrechnung mit Bildern aus leicht unterschiedlichen Blickwinkeln

Wenn z.B. 20x identische Bilder (Position) gemacht wurden, dürfte sich nur das Rauschen der CCD Pixel mitteln lassen.

Egel ob man nun stackt oder nicht. Alleine die Wavelet-Filter sind eine nette Zugabe, um Bilder "aufzuhübschen".
Von daher würde Ich schon einen Nutzen in der Mikroskopie sehen, Eckhard, auch wenn man nicht stackt.

Wenn Ich irgendwann einmal Zeit erübrigen kann, werde Ich Bilder einstellen (die auch aussagekräftig sind).

Das Programm sucht sich automatisch z.B. die besten 30-50% (einstellbar) aller Bilder heraus. Wichtig ist die Markierung wesentlicher Bildelemente im Objekt. Die Markierungen wirken sich entscheidend auf das Stackingergebnis aus. Wichtig ist, daß es keine schnellen, starken Veränderungen beim Objekt gibt. Notfalls muß das Video oder die Bildreihe entsprechend gekürzt werden.

LG Jorrit.

Die Realität wird bestimmt durch den Betrachter.

Lupus

Hallo Jorrit,

ZitatRein prinzipiell gibt es mehrere mögliche Verbesserungen:
...........
3.) Verrechnung mit Bildern aus leicht unterschiedlichen Blickwinkeln
das ist die Wiederholung einer früheren Behauptung. Was soll das bewirken? Wer hat mit welchem Ergebnis so etwas mit Registax gemacht (Referenz!)?

Hubert

Peter V.

#57
Hallo Lupus,

Zitat
das ist die Wiederholung einer früheren Behauptung. Was soll das bewirken? Wer hat mit welchem Ergebnis so etwas mit Registax gemacht (Referenz!)?

Hubert

ich bewundere Eure Geduld, mit der ihr diesen hingeworfenen Knochen weiterhin auf Fleischbröckchen untersucht.

ZitatWenn Ich irgendwann einmal Zeit erübrigen kann, werde Ich Bilder einstellen (die auch aussagekräftig sind).

Aber eines wissen wir: Was auch immer die Software kann - es muss seeeehr zeitaufwändig sein!

Herzliche Grüße
Peter

PS: Ich schlage als nächste Software "Mandala Creator 2.0" vor. Wozu sie in der Mikroskopie dienlich sein soll? Ich weiß es nicht - aber ihr werdet es schon herausfinden  ;D  ;D  ;D
Dieses Post wurde CO2-neutral erstellt und ist vegan. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

the_playstation

Lieber Peter.
Einen Knochen kann man auf Knochenmark hin untersuchen. Ein Knochen ist kein Stück Fleisch. ;)

Ich biete Dir hiermit an, meine Verpflichtungen zu übernehmen. Dann fahre ich gerne nach Hause und mache Es.
Es dauert auch nicht lange.

LG Jorrit.
Die Realität wird bestimmt durch den Betrachter.

Lupus

Hallo Peter,

Zitatich bewundere Eure Geduld, mit der ihr diesen hingeworfenen Knochen weiterhin auf Fleischbröckchen untersucht.
;D ;D ;D
Wenn ich das gesagt hätte gäb es bestimmt Kritik vom Moderator. Aber eine sehr treffende Formulierung   ;)

Hubert