Liebes Forum,
derzeit schauen hier ja viele fasziniert auf die tollen Fotos von den Diatomeen-Proben aus Texas. Viele von den Gehäusen sind sogar doppelschalig (mit Epi- und Hypotheka) erhalten!
Das erfordert natürlich Stacking für durchgehend scharfe Aufnahmen. Anschließend sieht man dann aber von der Objektiv-abgewandten Seite wenig. Schließlich selektieren die Stacking-Programme die schärfsten Pixel, und die kommen nicht von der Unterseite...
Nun habe ich aus PICOLAY die lange vorhandene Funktion 'Weighted average' entfernt. Sie machte einen gewichteten Mittelwert aus den drei schärfsten Pixeln im Stapel an jeder Position und brachte meist nicht viel neue Erkenntnisse. Stattdessen habe ich nun die Funktion 'Pixels > min. score [_] %' eingebaut, die sicher einer Erklärung bedarf:
Die Prozedur selektiert alle Pixel, deren Schärfe-Bewertung (Score) größer als die unter 'Minimum score/Noise suppression' gesetzte untere Schwelle zur Rauschunterdrückung liegt. Dieser Wert sollte also im Anwendungsfall immer genügend groß gesetzt werden.
In der Folge kann es dann passieren, dass Pixel, die weniger Score als das Maximum an einer Position haben, die Maximal-Pixel überschreiben. Das führt zu weniger knackiger Schärfe, ist aber gewollt, um schwächer sichtbare Strukturen nicht verloren gehen zu lassen. Außerdem kommt es nun auf die Leserichtung des Stapels an. PICOLAY erwartet normalerweise das oberste (Objektiv-nächste) Bild als erstes im Stapel, liest dann aber bei der Analyse den Stapel von unten nach oben. Wenn man - wie alle normalen Stackingprogramme - nur die schärfsten Pixel im Stapel sucht, spielt die Leserichtung keine Rolle für das Ergebnis (wohl aber für die Tiefenkarte, die dabei erzeugt wird). Wenn aber unschärfere Pixel die schärfsten überschreiben dürfen, kommt es sehr wohl auf die Leserichtung an: Das zuletzt analysierte Pixel mit 'Score > Minimum' wird sichtbar.
Deswegen dreht man, wenn man etwa die Unterseite einer Diatomee sehen will, für die Analyse den Stapel um (Image list -> Reverse order of images). Man kann außerdem (wie bisher schon) die Wichtung der unteren (=nach dem Umdrehen oberen) Pixel erhöhen (Stacking parameters -> Prefer High images...) und das Ergebnis der neuen Prozedur mit dem der klassichen Suche nach den schärfsten Pixeln (von 0 - 100 %) mischen.
Hier nun ein Bildbeispiel, das vielleicht manche schon von meinen früheren Präsentationen kennen (tatsächlich ähnelt das Verfahren dem des Hologramm-Stackings bei PICOLAY):
(https://www.picolay.de/forum/max-top-bottom-view.jpg)
A zeigt klassisches Stacking mit der Suche nach den schärfsten Pixeln.
B die neue Prozedur in der Aufsicht. Man sieht nicht die in A durchschimmernde Gürtelbandkante, dafür die Oberfläche mit einem aufliegenden Partikel bei 4 Uhr.
C die Unterseite (zur realisten Darstellung um 180° um die Y-Achse gedreht, bzw. horizontal gespiegelt). Hier sieht man den 'Halm', der auf A und B bei 2 Uhr zu sehen ist, bei 10 Uhr hinter der Rückseite der Schale.
Nun noch ein Beispiel, für das ich MichaelK ganz herzlich danken möchte, der mir den Stapel zur Verfügung gestellt hat: Asteromphalus für die Anaglyphenbrille.
(http://www.picolay.de/forum/Asteromphalusrecy_zax41_pd1_vie3_x0_y0_z0.jpg)
(http://www.picolay.de/forum/Asteromphalusrecy_zax80_pd1_vie3_x0_y0_z0.jpg)
Im oberen normales Stacking. Man sieht sieben dunkle Finger/Täler und eine Naht bei 12 Uhr.
Im unteren sind es 14 Finger, sieben leicht versetzte in der unteren Schale sind hinzugekommen. Bei 1 Uhr ist eine Naht hinzugekommen, die man auf dem oberen Bild bei 11 Uhr nur hat erahnen können. Das untere Bild scheint auch - da um 180° gedreht - vor dem Bildschirm zu liegen, das obere dahinter. Wie oben schon erklärt, wirkt das untere Bild weniger scharf und komplizierter. Aber es liefert eindeutig zusätzliche Information...
So bald ich es schaffe, werde ich zu der neuen Methode und ihrer Anwendung in der Praxis ein YT-Video machen.
Herzlichen Dank für alle, die bis hierher gelesen haben!
Heribert
Danke Heribert.
Der Unterschied, im positiven Sinne, ist schon beeindruckend.
Grüße, Thomas.
Hallo Heribert,
dann ist Bild A eigentlich "falsch", da es ja nicht die wahre Oberfläche zeigt.
Ein Objekt auch von unten ansehen zu können und dann noch im semitransparent ist schon ein Gewinn.
Ohne 3D erkennt man eigentlich nicht viel.
Vielleicht lässt sich das bei gefärbten Glasobjekten mit geringer Tiefenschärfe fotografiert noch auf eine andere Weise darstellen?
Bin schon gespannt auf das Video.
Liebe Grüße
Rudolf