Hasselblad Scanner sind raus

  • Es wäre in diesem Fall ein Schwindel, wenn ich irgendeine Art von Komprimierung verwendet hätte. Denn die ganze Zeit von einem RAW in einem unkomprimierten Zustand die Rede war. Auf jedem Fall dieses Bild mit dem geschlossenen Deckel hat nur 30,7 Mb wobei die RAW Dateien bei dieser Kamera bis 50 MB groß werden können.

  • Ich habe keine übertriebene Neigung zu Klugscheißerei, die bringt nix. Aber unkomprimierte TIFFs sind inhaltsunabhängig gleichgroß (bei gleicher Pixelzahl und Farbtiefe). Wenn RAWs unterschiedlich werden, muss eine Komprimierung im Spiel sein, wie bemerkt, eine ganz sicher verlustfreie. Da wird die Redundanz rausgerechnet (bei einfarbigen Bildern ist die Redundanz recht hoch, da bleibt nur das nicht rausrechenbare Grundrauschen, sonst würden die Dateien noch kleiner). Das ist keineswegs ehrenrührig. Signifikant kleiner werden Dateien nur bei verlustbehafteter Komprimierung, wie z.B. JPEG.

    Ich hoffe, die informationstechnische Klugscheißerei (s.o.) ist jetzt nicht allzu nervig.

    Grüße von hp

    Al é bun sciöch' al é ...

  • Es gab mal ein wenig Zoff, weil Sony in einigen Kameras verlustbehaftete Kompression für RAWs verwendet hatte. Auch wurde z.T. ein Denoise-Algorithmus zum Einsatz gebracht, der z.B. Sterne in einer Aufnahme des Sternenhimmels dezimieren konnte. (google nach: "Sony star-eater")

    RAW-Dateien _sollten_ eigentlich die originalen, unbearbeiteten Sensor-Daten enthalten (gerne auch komprimiert, aber dann bitte verlustfrei!) -- ohne irgendwelche "Aufhübschungen" oder "Optimierungen". Offenbar sehen manche Hersteller das jedoch anders.

    Gruß
    Wilfried

  • Offenbar sehen manche Hersteller das jedoch anders.

    Vielleicht ist der Begriff "RAW" doch nicht so klar definiert wie ich mir das in meiner Gutgläubigkeit vorgestellt hatte? Die Sonygeschichte ist ja nett. Die hatte ich allerdings nicht weiter wahrgenommen; so intensiv verfolge ich die Berichterstattung nicht.

    Al é bun sciöch' al é ...

  • Auch wurde z.T. ein Denoise-Algorithmus zum Einsatz gebracht, der z.B. Sterne in einer Aufnahme des Sternenhimmels dezimieren konnte. (google nach: "Sony star-eater")

    Genau das machen wir in der Astronomie, indem wir diese O-III Filter einsetzen, also Filter, die das Oxygen-III hervorheben. Damit sehen wir die Nebel besser, aber der Filter nimmt Sternenlicht weg und läßt nurdie O-III Linie durch.

  • RAW-Dateien _sollten_ eigentlich die originalen, unbearbeiteten Sensor-Daten enthalten (gerne auch komprimiert, aber dann bitte verlustfrei!) -- ohne irgendwelche "Aufhübschungen" oder "Optimierungen". Offenbar sehen manche Hersteller das jedoch anders.

    Ich bin nicht sicher ob es so etwas wie ›unbearbeitete‹ Sensor-Daten überhaupt gibt. Ich glaube mich zu erinnern, das die Daten verarbeitet werden müssen damit überhaupt eine Bilddatei entsteht – möglicherweise bringe ich da aber auch etwas durcheinander.

    Könnten die unterschiedlichen Dateigrößen evtl. durch die eingebetteten JPEGs zustandekommen?


    Gruesse, klw

  • Natürlich sind RAW-Daten Ergebnis von Algorithmen. Das ergibt sich allein schon aus der Struktur, wie Pixel auf dem Sensor angeordnet sind.

    Jeweils ein rot-, ein blau- und 2 grünempfindliche Pixel sind quadratiswch angeordnet. Man stelle sich jetzt eine diagonale rote Linie vor, die fotografiert werden soll. Dieses Licht fälklt nun mal nicht ständig auf rote Pixel, kann es gar nicht. Wenn auf dem fertigen Bild also doch eine rote Diagonale zu sehen sein soll, so ist das Ergebnios von Interpolation.
    Dazu kommt noch die Fähigkeit der meisten Kameras, "tote" Pixel auszublenden. Dort ist dann aber am fertigen Bild auch kein leerer Fleck.

    Und da waren wir noch gar nicht bei irgendwelchen Optimierungen...

    LG Ralph

    • Offizieller Beitrag

    Richtig. Raw-Dateien in der einfachsten Form enthalten lediglich Informationen über Helligkeitswerte der Pixel, die die R-G-B-Sensoren aufgezeichnet haben. Erst bei der Raw-Konvertierung werden diese Informationen in Farbwerte pro Pixel übersetzt, mit Tonwertkurven versehen und in Farbräume gepackt, und so ein Bild erzeugt.

    Eine "echte" Raw-Datei enthält somit für alle Pixel auf dem Sensor lediglich eine Helligkeitsinformation. Unkomprimiert sollten diese Dateien daher (zumindest theoretisch) immer die selbe Größe haben, nämlich Anzahl Pixel (Höhe x Breite in Pixeln) x Bytes (die benötigt werden, um den Helligkeitswert darstellen zu können). Hinzu kommen aber immer noch Metainformationen (z.B. Exif-Daten wie das Aufnahmedatum, Kamera- und Objektivinformationen, Belichtungszeit, Blende, ISO-Einstellung etc.) und ggf. der Raw-Datei angefügte Vorschaubilder, meist kleine JPEGs. Daher können auch unkomprimierte Raw-Dateien in der Grösse leicht variieren.

    Allerdings verwenden die Kamerahersteller auch komprimierte Raw-Dateien. Statt also 36 Millionen Pixel jeweils einzeln byteweise zu beschreiben, werden dabei Werte zusammengefasst. Bei einer weissen Wand steht dann zum Beispiel kurz drin: 36 Millionen x 1 Pixel in "Weiss". Das ist deutlich weniger Speicheraufwand, als 36 Millionen einzelne Pixel mit "Weiss" zu beschreiben. Im Prinzip funktioniert so eine Art der Komprimierung. Mit komprimierten Raw-Dateien schwankt dann die Dateigrösse um einiges mehr.

    Grüsse
    Andreas

  • Ok, war verkürzt. Worauf ich hinaus wollte: Auch wenn ich in meinem Raw-Editor gar nichts einstelle, kriege ich zwangsläufig bereits eine Interpretation der Daten zu sehen, die der Sensor liefern kann.

  • Ein RAW-Editor wandelt die Daten des RAW-Files in ein Bild um, nicht in eine 1:1 Darstellung der Pixel-Werte.
    Ich habe vor vielen Jahren mal RAW-Dateien im Format der Dynax 7D selbst geschrieben und dann von unterschiedlichen Interpretern darstellen lassen. Ziel war in diesem Beispiel ein Siemensstern
    1. Bild: so hatte ich die Pixelorte (in der Datei) mit den Werten entweder 0 oder 4095 gefüllt
    2. Bild: Interpretationen meiner Daten von 3 verschiedenen RAW-Editoren

  • Man sollte eine verlustfreie Kompression nicht mit einer Interpretation verwechseln.

    Es ist sehr wohl möglich, Sensordaten so zu speichern, daß die Sensor-Ausgabe, so wie sie "frisch digitalisiert" vorlag, aus den gespeicherten Daten verlustfrei rekonstruierbar ist.

    Diese Daten sind dann zwar streng genommen noch kein "fertiges Bild", aber enthalten die maximale, sprich: vollständige Information über das, was der Sensor aufgezeichnet hat. Und genau das ist es, was eine RAW-Datei ausmachen sollte.*

    Verlustfreie Kompression hat in der Informatik eine lange Tradition. Ihre Eigenschaft ist, daß eine Datei zwar "verkleinert" wird, aber die ursprüngliche Datei in jedem Fall und ohne Verlust aus der komprimierten Datei wiederhergestellt werden kann. Wieviel Speicherplatz dabei eingespart werden kann, ist sehr stark von der Beschaffenheit der zu komprimierenden Daten abhängig. Sind diese Daten sehr "gleichförmig", z.B. viele tiefschwarze Bildpunkte (die in der Regel durch Nullen dargestellt werden), so lassen sie sich sehr stark komprimieren, denn es muß in diesem Fall nicht jeder Bildpunkt einzeln gespeichert werden, es genügt jeweils zu wissen, wieviele Nullen aufeinander folgen. Dies ist ein stark vereinfachender Extremfall, tatsächlich sind verlustfreie Kompressionsalgorithmen heutzutage erstaunlich raffiniert und schaffen es, auch sehr komplexe Bilddaten spürbar zu verkleinern. Das hat jedoch nichts mit Interpretation zu tun -- hier handelt es sich lediglich um eine hocheffiziente Datenverwaltungsmethodik. Es ist also nichts ehrenrühriges dabei, verlustfreie Kompression für RAW-Dateien zu verwenden. Die Information bleibt vollständig erhalten.

    Anders sieht es bei verlustbehafteter Kompression aus. Diese _sollte_ eigentlich für RAW-Dateien tabu sein. Denn hier wird tatsächlich interpretiert, um "unwichtige" Informationsbestandteile wegzufiltern, so daß das gefilterte Resultat sehr stark komprimiert werden kann. Bei verlustbehafteter Kompression sind enorm hohe Kompressionsraten möglich (sehr viel höher als bei verlustfreier Kompression), ohne daß der Unterschied mit bloßem Auge leicht zu erkennen wäre.

    Worin besteht nun die Verlockung für einen Kamerahersteller, so etwas zu tun? Nun -- heutzutage gibt es sehr leistungsfähige, und trotzdem preisgünstige Prozessoren, die verlustbehaftete Kompression hocheffizient durchführen können. Bei "geeigneter" Einstellung ist diese Kompression sehr subtil und mit bloßem Auge kaum feststellbar -- außer in "unglücklichen Sonderfällen" (wie u.U. z.B. Sternenhimmel). Aber warum tut man das, wo Speicher doch so billig ist? Nun, es ist noch nicht lange her daß viele Flash-Speichermedien in ihrer Datenübertragungsrate recht begrenzt waren. Verlustfreie RAW-Dateien sind jedoch bei hochauflösenden Sensoren oft ziemlich groß, das bedeutet dann allerdings auch, daß die Serienbildgeschwindigkeit in der Praxis spürbar eingeschränkt wird: Irgendwann ist der Bildpuffer voll, dann muß gewartet werden, bis genug Bilder auf das Speichermedium geschrieben wurden. Das ist etwas, was für den Anwender deutlich spürbar werden kann. Und hier gibt es durchaus einen gewissen Druck für Kamerahersteller, durch "kreative" technische Lösungen eine deutliche Leistungssteigerung zu erzielen. Der Einsatz verlustbehafteter Kompression kann hier einen klaren Performance-Vorsprung ermöglichen.

    In naher Zukunft wird sich diese Verlockung allerdings wahrscheinlich in Luft auflösen. Es gibt zur Zeit extreme Performance-Zuwächse bei Flash-Speichermedien.

    *Zusätzlich zu den Sensordaten enthält eine RAW-Datei natürlich in der Regel noch vielerlei "Metadaten", welche bei der Interpretation der Sensordaten durchaus sehr behilflich sein können. Dies können Dinge wie Kameraeinstellungen, Orientierung der Kamera bei der Aufnahme, Uhrzeit, GPS-Koordinaten usw. usw. sein.

    Viele Grüße
    Wilfried

  • Nachdem ich zuvor am Anfang schon mal eine "dumme" Frage gestellt habe, nun noch eine:

    Ich habe eih JPEG-Bild, also komprimiert und mit Verlust behaftet.
    Aber was macht JPEG eigentlich? - Es sucht nach absolut gleichen Pixeln (ich sag`s jetzt mal falsch, nach gleichen Farben und Helligkeit) und führt diese zusammen, also 129.875 x sowiso rot... als 1 "Datei".

    Öffne ich nun die Datei, dann kommt jeder Pixel dorthin, wo er hingehört.
    Frage nun: warum ist das NICHT verlustfrei ? Jeder Pixel kommt doch wiederan den vorbestimmten Platz.

    Vielleicht ene dumme Frage, aber ich bin Fotograf und kein Informatiker und mit Mathe hab ìch`s nicht so....

    Gruß
    Winfried

  • Hi @Winfried Berberich,

    ich bin zwar Informatiker, aber mit den genauen Algorithmus jetzt auch nicht vertraut. Aber im Kern erfolgt der Verlust aufgrund der Tatsache, dass irgendwann gesagt wird, dass bspw. ein roter Bereich entdeckt wird, dieser aber schwankt (also rot, rot+1, rot-1 etc.). Und dann wird halt einfach gesagt, egal - an diese Stelle setzen wir einfach rot. Die Schwankungen werden also eliminiert, uns so kommt es zum Verlust.
    Oder anders ausgedrückt, der Algorithmus probiert u.a. die Anzahl der verwendeten Farbabstufungen zu reduzieren. Bei extremer JPEG-Kompression sieht man das sehr gut an stufenweisen Farbverläufen, die im Original ggf. noch fliessend sind. Andererseits wäre ein sehr flächiges Bild (a la Mondrian) wieder beinahe verlustfrei herzustellen.

    Das ist wirklich ein sehr vereinfachte Sichtweise, aber hilft ggf. zu verstehen, wo Verluste auftreten können.
    Gruß
    Markus

  • Ich find`s ja auch lustig.

    Hat aber gaaaanz weitläufig damit zu tun, daß wir in der heutigen Zeit ja unsere Großbild-Analogaufnahmen irgendwie zeigen müssen, sollten, können...
    Damit sind wir mit modernster Technik gerade mal da gelandet, wo man 1860 mal war.....

    Gruß
    Winfried

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!