JPG- und RAW-Bilder mit einfachsten Mitteln - ein Vergleich

Begonnen von Lupus, Januar 14, 2024, 16:07:07 NACHMITTAGS

Vorheriges Thema - Nächstes Thema

Lupus

Hallo,

die letzten Diskussionen über Bildbelichtung und Bildverarbeitung haben mich angeregt, einen Vergleich zwischen JPG-Bildern wie sie direkt aus der Kamera kommen und entwickelter RAW-Bilder zu machen. Und um es vorweg zu sagen - nicht auf Basis einer hochwertigen Systemkamera und professioneller Bildbearbeitung sondern mit Smartphone- bzw. Tablet-Kamera und kostenlosen einfachen Programmen. Insgesamt also nur als Anregung und Information für eher unerfahrenere Anwender der Mikrofotografie gedacht.

Das Smartphone und in letzter Zeit auch ein Tablet verwende ich immer wenn es schnell gehen soll und zum Testen. Gerne auch aus Bequemlichkeit mit solchen Aufbauten:

Tabletkamera.jpg

Immerhin können moderne Smartphone- und Tablet-Modelle zusätzlich zu den üblichen JPG-Bildern auch RAW-Dateien abspeichern.
Ich will damit grundsätzliche Unterschiede zwischen beiden Bilddateien demonstrieren, die sich auch bei einfachen Ansprüchen und Aufnahmemethoden deutlich zeigen können. Im Unterschied zu besseren Systemkameras lassen sich beim Smartphone die Parameter wie Kontrast, Nachschärfung, Gammakurve u.a. nicht im Kameramenü einstellen, man ist also noch mehr der internen Kamerabearbeitung zum JPG-Bild ausgeliefert. Insofern sind meine Beispiele auch nicht direkt auf bessere Systeme übertragbar.

Zur Bildbearbeitung verwende ich meist (ebenfalls aus Bequemlichkeit) das einfache Paint.NET. Es enthält alle für seriöse Bearbeitung von Mikroskopbildern erforderliche Hilfsmittel. GIMP ist eine gute, aber viel komplexere kostenlose Alternative.

Zur einfachsten RAW-Entwicklung verwende ich einen Plug-in in Paint.Net, oder bei höheren und speziellen Ansprüchen das SILKYPIX Developer Studio.

Das Problem bei JPG-Bildern aus der einfachen "Consumer-Kamera" ist, dass sie meist für den breiten Geschmack mit höherem Kontrast und Kantenschärfung ausgelegt sind, meist auch stärker farbgesättigten Bildern. Einziger Vorteil ist die dort auch übliche Rauschunterdrückung, die aber die ursprüngliche Auflösung reduziert. Gleichzeitig entsteht durch solche kamerainternen Einstellungen im Grenzbereich höchster Auflösung, also bei nur wenigen Pixeln großen Objektdetails, eine schlechte und bezüglich Sättigung reduzierte Farbwidergabe. Das hat z.T. auch mit der JPG-Kompression zu tun. Gerade diese Auflösung durch einzelne Pixel ist aber speziell bei Mikrofotos oft wichtig.

Das nächste Bild zeigt ein Testobjekt (die 6 additiven und subtraktiven Grundfarben sowie Schwarz und Grau in verschiedener Größe), das mit Samsung Tablet Tab S5e in großer Entfernung aufgenommen wurde um die Kreise mit nur wenigen Pixeln abbilden zu können. Das Testobjekt ist mit Bildbearbeitung erzeugt und vom Bildschirm abfotografiert worden. Die Pixelauflösung der Aufnahme ist in den Bilder unverfälscht erkennbar, sie entspricht der realen Auflösung der Kamera.

Beim Vergleich der Vorlage mit dem JPG- und dem aus der RAW-Datei entwickelten Bild direkt darunter sieht man deutlich den schon beschriebenen Unterschied in der Wiedergabe. Das RAW-Bild wurde nicht weiter optimiert. Rechts in der selben Reihe ist noch zur Info das entsprechende Bild zu sehen, wie die Bayer-Matrix des Sensors das Objekt "sieht", und aus dem die Fotos durch die RAW-Entwicklungsprogramme erzeugt werden. Auf den in den unteren Reihen zum Beispiel dargestellten Farbauszügen (Grün und Blau) kann man ablesen wie die jeweiligen Farbkanäle die Objekte registrieren, und wie das Bild aus der unterschiedlichen Farbpixelzahl (Grün hat die doppelte Sensordichte wie Blau und Rot, siehe rechte Bildspalte) rekonstruiert wird.

Die Farbauszüge und das Bayer-Matrixbild wurde mit SILKYPIX erzeugt, einfachste Programme nur zum Einlesen von RAW-Dateien in das Bildbearbeitungsprogramm (wie mein Plug-in für Paint.NET) können das nicht. Diese sind auch hinsichtlich der erweiterten Einstellungen zum Entwickeln des RAW-Bildes sehr spartanisch und bedienerunfreundlich.

Vergleich Tablet RAW JPG FarbPunkte.jpg

Ein ähnliches Testobjekt, aber bezüglich der Farbabstufung deutlich feiner, ist im folgenden Bild zusehen. Wieder wurde das Objekt aus großer Entfernung fotografiert. Auch hier sieht man den deutlichen Vorteil des RAW-Bildes hinsichtlich der Farbwiedergabe und der fehlenden Artefakte durch Bildschärfung, Kontrasterhöhung und Bildkompression. Wie schon erwähnt entsteht die schlechte Farbwiedergabe bei JPG-Bildern meist nur bei kleinen Strukturen, bei größere Flächen erzeugen viele Kameras dagegen eine stärkere Farbsättigung.

Vergleich Tablet RAW JPG Farbkarte.jpg

Hier noch zwei Vergleichsbeispiele an realen Mikroskop-Objekten. Die RAW-Bilder wurden mit dem Plug-in von Paint.NET erzeugt und durch Verschieben der Histogrammverteilung vergleichbarer gemacht (keine Kontraständerung, Nachschärfung oder Änderung der Farbsättigung).

Links das Präparat eines Gewebeschnittes mit 5-facher Ausschnittsvergrößerung. Auch hier ist die differenziertere Farbwiedergabe des RAW-Bildes mit der kontrastärmeren Wiedergabe noch deutlich erkennbar. Auch wenn das JPG-Bild auf dem ersten Blick detailreicher erscheint - mehr Informationen als in der RAW-Datei sind nicht vorhanden. Nachgeschärfte und dadurch überhöhte Strukturkontraste werden auch durch den Wunsch der besseren Erkennbarkeit nicht realer, das sieht man auch recht gut an den Objektkanten der beiden JPG Farb-Testbilder.

Beim Vergleich einer Diatomeen-Aufnahme (rechts) wirkt interessanterweise auch bei kritischer Betrachtung das rechte JPG-Bild deutlich besser. Das liegt aber wiederum daran, dass hier gerade die Farbwiedergabe und differenzierte Helligkeitsabstufungen keine wesentliche Rolle spielen, dafür der Bildkontrast für die Detailwiedergabe im Grenzbereich der Auflösung. Mit entsprechenden Filtern lässt sich allerdings das gleiche Ergebnis auch aus dem RAW-Bild erreichen.

Vergleich Tablet RAW JPG Präparat Diatomee.jpg

Bei meinem Vergleich ging es nicht um die sonstigen Vorteile einer RAW-Bilddatei wie z.B. die Ausnutzung der höheren darin enthaltenen Bilddynamik. Manche einfache RAW-Konverter, die wie in meinem Fall direkt in 8 Bit Bilddateien des Bildbearbeitungsprogramms umwandeln, lassen sich nach meiner Erfahrung für diesen Zweck nur unbequem einstellen und verwenden.

Hubert

Wutsdorff Peter

Guten Abend  Hubert,
Frage eines Dummies?:
Bei der vorletzten Serie (6-Eck) sind alle Bilder unscharf.
Ist das wesentlich?
Gruß Peter

jcs

#2
Zitat von: Lupus in Januar 14, 2024, 16:07:07 NACHMITTAGSBei meinem Vergleich ging es nicht um die sonstigen Vorteile einer RAW-Bilddatei wie z.B. die Ausnutzung der höheren darin enthaltenen Bilddynamik.
Hallo Hubert,

der größere Dynamikbereich, der mit RAW-Dateien im Vergleich zu den typischen 8-bit-JPEGs dargestellt werden kann, ist in meinen Augen allerdings der Hauptvorteil der RAW-Bearbeitung.

Moderne Kameras haben bis zu 14-bit Dynamikbereich. Wenn man davon 6 Bit "wegschmeißt", indem man 8-Bit-Bildverarbeitung verwendet oder direkt mit Out-Of-Cam-JPEGs arbeitet, kann man das Potenzial moderner Sensoren nicht annähernd ausnützen. Ausgangspunkt für die Diskussion zur Bildbearbeitung war ja der Weißabgleich, hier ist die Konsequenz aus 8 versus 16 Bit besonders relevant: (1) Sensorchips sind im blauen Teil des Spektrums weniger empfindlich und (2) der Blauanteil im Spektrum der Halogenlampe ist sehr gering. Wenn man dann einen Weißabgleich durchführt, muss der Blaukanal des Bildes verstärkt werden. Das führt dazu, dass die ursprünglich nicht signifikanten Bits aus dem Sensorsignal plötzlich signifikant werden, oder anders formuliert: Wenn ich 6 Bits aus dem Sensorsignal eliminiere, muss die Bildbearbeitung aus 64 Tonwerten einen Tonwert machen. Das hat natürlich Folgen für die Feinkontraste im Bild und kann zu Tonwertabrissen führen.

Deshalb sollte man in meinen Augen entweder (1) perfekte Proben bei idealer Beleuchtung mikroskopieren oder (2) in schwierigeren Fällen auf RAW und entsprechend mächtige 16-Bit Bildverarbeitung (Lightroom, Photoshop, ...) zurückgreifen.
LG
Jürgen

Nochnmikroskop

Hallo zusammen,

kann man im Bild messen, welcher Dynamikumfang abgebildet wird? Photoshop verwende ich nicht.

Bei Affinity Photo 2 kann man neben Histogramm auch unter "Bandbreite" mehrere Varianten anzeigen lassen. Da ist aber nicht die Dynamic in Bit enthalten.

LG Frank
Meistens Auflicht, alle Themenbereiche
Zeiss Axiolab, Leitz Orthoplan, Keyence VHX, Olympus SZX16, Canon EOS 700D, Panasonic G9, Touptek u.a.
keine KI

Peter Reil

Hallo,

eigentlich hatte ich vom Titel her erwartet, mikroskopische Bilder zu sehen, die in RAW und im Vergleich dazu in jpg aufgenommen wurden, so dass man sofort sehen kann, wo die Qualitäts-Unterschiede liegen.

Ich wage mal ganz primitiv die These: Wenn am Mikroskop ein Bild erstellt wird und man dieses im Forum präsentiert, dass man nicht erkennen kann, ob das in RAW oder jpg aufgenommen wurde.
(Ohne Hilfsmittel wie Histogramm,...)

Vielleicht liegt das aber auch nur an meinem eingeschränkten Sehvermögen.

Freundliche Grüße
Peter
Meine Arbeitsgeräte: Olympus BHS, BHT, CH2, CHK, Olympus SZ 30, antikes Rotationsmikrotom

Stuessi

#5
Zitat von: Wutsdorff Peter in Januar 14, 2024, 17:47:40 NACHMITTAGSGuten Abend  Hubert,
Frage eines Dummies?:
Bei der vorletzten Serie (6-Eck) sind alle Bilder unscharf.
Ist das wesentlich?
Gruß Peter

Hallo Peter,

die Vorlage wurde aus so großer Entfernung aufgenommen, dass die einzelnen Bilder nur die Maße 53x53 Pixel haben. "Schärfe" kann man dann nicht erwarten. Ich habe es mal auf "100%" Ansicht verkleinert.

g-Vergleich Tablet RAW JPG Farbkarte-b180Pix.jpg

Dann sieht es schon schärfer aus. Allerdings kann man die einzelnen RGB Pixel nicht mehr sehen.


Viele Grüße,
Rolf




Lupus

Hallo,

ich sehe schon, dass jeder eine andere Sicht auf das Thema hat.  ;)

ZitatBei der vorletzten Serie (6-Eck) sind alle Bilder unscharf.
Bei den Testbildern ging es darum den Unterschied zwischen den aus der RAW-Datei direkt erzeugten Fotos und den von der Kamera im JPG-Format erzeugten Fotos und zu dokumentieren. Der Unterschied wird nur im Detail relevant, also in der Umgebung einzelner Bildpixel. Daher habe ich einen winzigen Ausschnitt aus dem Sensorbild ausgewählt auf dem man noch einzelne Bildpixel sieht, und zu diesem Zweck das Testbild so weit entfernt aufgenommen, dass das ganze Objekt nur wenige Pixel groß auf dem Sensor abgebildet wird.
Da wird aber
1. automatisch das Bild unscharf weil in der Praxis (sowohl bei normalen Kameras wie auch bei der Adaption einer Kamera an das Mikroskop) die durch Beugung u.a. bedingte Objektivunschärfe immer über ein einzelnes Bildpixel (meist mehrere) hinausragt. Alles andere wäre unwirtschaftlich.
2. Entsteht die Unschärfe dadurch, dass nicht jedes Kamerapixel einen unabhängigen Bildpunkt erzeugt sondern mit den direkt benachbarten anderen Farbpixeln der Bayer-Matrix verrechnet wird.
3. Beim JPG-Bild werden durch die mathematische Datenkompression mehrere benachbarte Pixel z.T. (speziell bezüglich der Farbdarstellung) nicht objektgetreu zusammen gefasst.

Zitatder größere Dynamikbereich, der mit RAW-Dateien im Vergleich zu den typischen 8-bit-JPEGs dargestellt werden kann, ist in meinen Augen allerdings der Hauptvorteil der RAW-Bearbeitung.
Moderne Kameras haben bis zu 14-bit Dynamikbereich. Wenn man davon 6 Bit "wegschmeißt", indem man 8-Bit-Bildverarbeitung verwendet oder direkt mit Out-Of-Cam-JPEGs arbeitet, kann man das Potenzial moderner Sensoren nicht annähernd ausnützen.
Das ist schon richtig, war aber wie schon erwähnt nicht das eigentliche Thema hier. Außerdem - in der Praxis wandelt man ja doch irgend wann auf 8 Bit um, spätestens wenn hier im Forum Bilder im JPG-Format dargestellt werden. Und ein Raw-Konverter kann (und muss) dann die höhere Dynamik von mehr als 8 Bit durch z.B. die Gradationskennlinie der Umwandlung den ganzen Bildinhalt in 8 Bit umwandeln.

Zitatkann man im Bild messen, welcher Dynamikumfang abgebildet wird? Photoshop verwende ich nicht.
Eigentlich hat doch jedes Bildbearbeitungsprogramm die Möglichkeit der Darstellung der Pixelverteilung im Histogramm. Da lässt sich direkt die Helligkeitsspannweite des betrachteten Bildes ablesen. Die z.B. von mir schon gezeigten Histogramme in PaintNet haben direkt die Anzeige 0 bis 255, also der Umfang von 8 Bit (= 28).

Zitateigentlich hatte ich vom Titel her erwartet, mikroskopische Bilder zu sehen, die in RAW und im Vergleich dazu in jpg aufgenommen wurden, so dass man sofort sehen kann, wo die Qualitäts-Unterschiede liegen.
Ich wage mal ganz primitiv die These: Wenn am Mikroskop ein Bild erstellt wird und man dieses im Forum präsentiert, dass man nicht erkennen kann, ob das in RAW oder jpg aufgenommen wurde.
U.a. habe ich ja auch ergänzend zwei unterschiedliche und m.E. typische Beispiele am Mikroskop gezeigt. Und auch erwähnt dass nicht immer RAW besser sein muss als JPG. Wenn man nur im großen Abstand und oberflächlich darauf blickt sieht man natürlich auch kaum einen Unterschied. Und wenn man nicht weiß wie das Original aussieht oder aussehen müsste, kann man selbstverständlich keine Unterschiede feststellen! Eine Aufnahme z.B. eines gefärbten Präparates kann im Ergebnis gut farbig wirken weil die Färbung intensiv war, weil man den Farbkontrast mit Bildbearbeitung verstärkt hat, oder weil es eben technisch besser in ein Foto umgewandelt wurde...

Hubert



Peter Reil

Zitat von: Lupus in Januar 14, 2024, 23:09:38 NACHMITTAGS... Und auch erwähnt dass nicht immer RAW besser sein muss als JPG. Wenn man nur im großen Abstand und oberflächlich darauf blickt sieht man natürlich auch kaum einen Unterschied. Und wenn man nicht weiß wie das Original aussieht oder aussehen müsste, kann man selbstverständlich keine Unterschiede feststellen!

Hallo Hubert,

danke für deine Antwort, die für mich alles wieder richtig rückt.
Freundliche Grüße
Peter
Meine Arbeitsgeräte: Olympus BHS, BHT, CH2, CHK, Olympus SZ 30, antikes Rotationsmikrotom

Peter V.

Hallo,

vielleicht bin ich ja manchmal schwer von Begriff, aber bislang habe ich noch nie verstanden, was dieser Begriff "Entwickeln" eigentlich im Zusammenhang mit RAW-Datein soll. Ok, der Unterschied von RAW zu JPG ist ja schonm einmal, dass ein kamerainterner Algoriothmus die "Entwicklung" der Rohdaten übernimmt und natürlich auch bereits ein Qualitätsverlust durch die JPG-Kompression eingetreten ist. Aber letztlich ist das "Entwickeln" ja auch kein objektiver Vorgang, sondern folgt den Vorstellungen des Entwicklers. Ähnlich wie es früher ja beim Entwickeln auch war. Das war ja ebenfalls kein objektiver Vorgang, sondern wir haben das Papier so lange im Entwicklerbad gelassen, bis es unseren Vorstellungen entsprach.
Derr Unterschied einer JPG-Datei zu dem vom Fotografen entwickelten RAW kann doch eigentlich nur der sei, dass das "Entwickeln" durch die Kamerafirmware vielleicht nach anderen Kriterien erfolgt als nach denen, die der "Selbstentwickler" vornimmt.

Es sei auch dazu gesagt, dass nicht alle, die hier im Forum als Spitzenfotografen gelten, mit RAW arbeiten.

Herzliche Grüße
Peter


Dieses Posting ist frei von kultureller Aneigung, vegan und wurde CO2-frei erstellt. Für 100 Posts lasse ich ein Gänseblümchen in Ecuador pflanzen.

KayZed

Hallo Peter,

der Begriff "Entwickeln" entspricht natürlich nicht (mehr) dem früheren Entwickeln analoger Bilder, ist aber meines Erachtens durchaus sinnvoll, weil ich mit einem guten RAW-Entwickler (ich verwende DXO) sehr viele Parameter einstellen kann, die mir bei der JPG-"Entwicklung" die Kamera-Software abnimmt. Trotzdem kann ein JPG-Bild manchmal genauso gut oder besser sein als ein wenig bearbeitestes RAW-Bild sein.
 
Die Vorzüge einer RAW-Entwicklung zeigen sich besonders in den Grenzbereichen was Weißabgleich, Schärfe, Rauschen, Schattenstrukturen etc. anbelangt. Eine ähnlich Nachbearbeitung von JPG-Fotos kann schnell zu Artefakten führen.

In der Mikrofotografie fällt der Unterschied zwischen JPG und RAW wahrscheinlich schon deshalb weniger ins Gewicht, weil die limitierenden Faktoren eher in der Schichtdicke und der Objektivauflösung liegen. Auch die Schattenbildung dürfte keine große Rolle spielen. Allerdings lassen sich Weißabgleich und Rauschen im RAW-Format besser kontrollieren.

Viele Grüße
Klaus
Zeiss Stemi 508
Zeiss Jenaval Kontrast
Nikon Z7

Nochnmikroskop

Zitat von: Lupus in Januar 14, 2024, 23:09:38 NACHMITTAGSDie z.B. von mir schon gezeigten Histogramme in PaintNet haben direkt die Anzeige 0 bis 255, also der Umfang von 8 Bit (= 28).


Hallo Hubert,
dieser Dynamikumfang scheint aber doch gerade bei RAW höher zu sein???!!! wenn von 14 Bit bei guten Kameras gesprochen wird. Oder ist doch 8 Bit die Grenze??? Also nicht nur 0-255 sondern???

Ich meine den Dynamikumfang in Blendenstufen, oder ist das gleich. Diese Werte werden bei Kameratests angegeben und erreichen tatsächlich bis >14 Blendenstufen. Das Histogramm geht dann aber auch immer von 0 bis 255???

Bei der Anzahl Farben sind die JPG auf 8 Bit begrenzt (ca.65000).

Oder schmeiße ich da Äpfel mit Birnen durcheinander?

LG Frank
Meistens Auflicht, alle Themenbereiche
Zeiss Axiolab, Leitz Orthoplan, Keyence VHX, Olympus SZX16, Canon EOS 700D, Panasonic G9, Touptek u.a.
keine KI

Lupus

Hallo,

ZitatOk, der Unterschied von RAW zu JPG ist ja schonm einmal, dass ein kamerainterner Algoriothmus die "Entwicklung" der Rohdaten übernimmt und natürlich auch bereits ein Qualitätsverlust durch die JPG-Kompression eingetreten ist. Aber letztlich ist das "Entwickeln" ja auch kein objektiver Vorgang, sondern folgt den Vorstellungen des Entwicklers. Ähnlich wie es früher ja beim Entwickeln auch war.
das ist immer so eine Sache mit Begriffen, die sich eingebürgert haben.

Der Punkt ist dass es sich bei der "Entwicklung" eigentlich um zwei unabhängige Schritte handelt. In der Analogfotografie musste man zweimal entwickeln, erst das Negativ aus der Kamera und dann nach Belichtung mittels Negativ das Papierpositiv. Auch wenn gern z.B. von Kameraherstellern die digitale Rohdatei des Bildes in der Kamera als Negativ bezeichnet wird, so würde ich - um bei der Begriffsanalogie zu bleiben - diese zunächst auch nur als belichtetes, aber unentwickeltes Negativ ansehen.

RAW-Konverter sind mittlerweile gleichzeitig Bildbearbeitungsprogramme mit fast allen Möglichkeiten. Zuerst muss aber die Datei von diesem Konverter in ein normales Bild umgewandelt werden indem die fehlenden RGB Farbpixel ergänzt werden. D.h. es entstehen drei vollwertige Farbauszüge des Bildes. Und normalerweise wird dann auch z.B. der in der Kamera eingestellte und in den Metadaten enthaltene Weißabgleich auf dieses Bild angewendet, und auch minimale Rauschunterdrückung.

Ansonsten entsprechen die Daten aber möglichst unverfälscht den maximalen Bildinformationen der Originalaufnahme, und besitzen auch die volle Intensitätsdynamik des Sensors. Erst in einem zweiten Schritt wird dieses Bild dann nach den Vorstellungen des Anwenders bearbeitet. Das wäre dann im übertragenen Sinn die Positiventwicklung.

D.h. dass der Ausgangspunkt dieses "2. Entwicklungsschrittes", die Bildbearbeitung im engeren Sinn, lediglich ein anderer ist im Vergleich RAW-Bild und JPG-Bild. Das JPG-Bild aus der Kamera hat nur noch eine reduzierte 8 Bit Dynamik, und wurde auch schon bezüglich Kontrast, Farbsättigung, Kantenschärfe nach den "Geschmacksvorstellungen" des Herstellers verarbeitet (bei guten Kameras lassen sich Einstellungen auch im Kameramenü verändern), was sich aber bei nachträglicher Bildbearbeitung nicht mehr verlustlos rückgängig machen lässt.

Hubert

Lupus

Hallo Frank,

Zitatdieser Dynamikumfang scheint aber doch gerade bei RAW höher zu sein???!!! wenn von 14 Bit bei guten Kameras gesprochen wird. Oder ist doch 8 Bit die Grenze??? Also nicht nur 0-255 sondern???
ich habe mich in meinem Beispiel lediglich auf die auf 8 Bit beschränkte Dynamik des Programmes PaintNET bezogen. Natürlich verwendet ein Bildbearbeitungsprogramm für 16 Bit auch diese entsprechend. Also 216= 65536 Intensitätsabstufungen.

Die Farbabstufung bei JPG sind 2563 = 17.8 Mio Farben. Denn eine Farbe wird aus allen drei Kanälen durch Mischung erzeugt.

Hubert

TStein

Hallo in die Runde,

vllt. sollte man sich auch von dem Begriff Entwickeln etwas lösen, ist halt eben nur eine einfache Umschreibung des sogenannten "Debayerings" und verschiedener Bildbearbeitungsschritte, wie Gamma-Korrektur, Kontrastanpassung, Weißabgleich, Schärfung, usw.
Bei einem Farbsensor mit Bayer-Pattern gibt es nämlich jeweils immer 4er Blöcke von Pixeln, welche für gewöhnlich mit einem Roten, 2 Grünen und einem blauen Farbfilter beschichtet sind (RGGB). Das Debayering verwendet unterschiedlich genaue Algorithmen, wie AMAZE, AHD, usw. um aus dem Pixelquadrupel für jeden einzelnen der jeweils einfarbigen Pixel die fehlenden Farbinformationen zu interpolieren, sodass die Pixelanzahl des Sensors erhalten bleibt. Dies macht die Kamera mit einer integrierten aber möglichst effizienten Berechnungsvorschrift, falls Jpg als Output gewählt ist. Wenn man bspw. RAW verwendet, bzw speichert, kann man halt schlauere und bessere, aber vllt auch langsamere bzw. rechenintensivere Algorithmen im Rahmen von diversen Softwareprogrammen auf den Rechner auswählen, oder halt welche, die für die gewählte Aufgabe mglw. weniger Artefakte, wie Moiree-Effekte erzeugen. Außerdem hat RAW den Vorteil, dass die volle Bit-Tiefe gespeichert wird und man kann, wenn beispielsweise sehr große Dynamikumfänge im Bild auftreten (POL-Mikroskopie usw.), dunkel Bildpartien ohne Informationsverlust aufhellen oder abdunkeln, das Gamma verändern und auch den Weißabgleich anpassen und dann jeweils unterschiedliche Jpgs erzeugen.
Im Grunde ist RAW nicht besser oder schlechter, sondern einfach nur universeller, erfordert aber auch etwas Nacharbeit und Bildbearbeitungskenntnisse.
Ist aber wie gesagt sehr stark vom Bildthema und den Ansprüchen abhängig, ich denke aber wenn man sich eh die Arbeit macht und hier im Forum präsentiert, sollte man die Aufmachung und Bildästethik schon etwas im Blick haben. Und da ist RAW einfach flexibler. Oder man speichert in der Kamera beides gleichzeitig ab. Ist denke ich auch längst Stand der Technik.

Lg Tino     

Peter Reil

Hallo,

ich will es mal auf den Punkt bringen:

Wer trotz intensivster Beschäftigung mit jpg-Dateien im Bildbearbeitungsprogramm an seinen fertigen Bildern etwas vermisst oder auszusetzen hat (Bittiefe, zu wenig Farbtöne,....), der könnte vielleicht mit RAW einen Weg finden um dies zu verbessern. - Gute fotografische Grundkenntnisse vorausgesetzt.

Ob diese Verbesserungen von anderen auch wahrgenommen werden sei mal dahingestellt.
Gruß
Peter
Meine Arbeitsgeräte: Olympus BHS, BHT, CH2, CHK, Olympus SZ 30, antikes Rotationsmikrotom