Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Bekanntlich wird ein Objektpunkt als ein Lichtscheibchen mit einem bestimmten Durchmesser auf dem Sensor abgebildet.

Das innerhalb dieser Scheibe abgebildete Licht ist ausserdem nicht gleichmässig verteilt. In dieser Verteilung sind aber an jeder Stelle alle Farben des abgebildeten Objektpunktes in selben Anteil enthalten (chromatische Aberration zunächst einmal vernachlässigt).

Auf dem Sensor sind die Pixel in einem Viereckraster angeordnet, jeweils abwechselnd R-, G-, G-, B-empfindlich.

Um die volle Farb- und Helligkeitsinformation eines Objektpunktes aufzunehmen, muss das erwähnte Lichtscheibchen alle 4 Pixel abdecken, und jedes Pixel nimmt den ihn treffenden Anteil an farbigem Licht auf (das ist auf jeden Fall weniger als für diese Farbe in der gesamten Scheibe enthalten ist).

Meine Fragen:

1. Sind meine Annahmen richtig?

2. Speichert RAW pro Byte die Werte so wie sie aus dem "physischen Sensorpixel" kommen, also R, G, G, B getrennt, oder wird daraus schon ein "Bildpixel" mit einem Farbwert aus mehreren benachbarten Pixeln errechnet?

3. Entspricht die Diagonale des Pixelmosaiks dem "früher" gebräuchlichen Unschärfekreis (also wenn z.B. 3,3 Millionen Pixel pro cm² auf dem Sensor sind, dann beträgt diese Diagonale ca. 15µm)?

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Jo,

 

hast Du dies und das schon gelesen? Da wird eigentlich alles erklärt wie das mit dem Bayer Filter vor den Sensorpixel und dem RAW Format funktioniert. Desweiteren findet man dort zahlreiche Links zu weiteren Informationen.

 

Gruß Michael

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Jo,

 

hast Du dies und das schon gelesen? Da wird eigentlich alles erklärt wie das mit dem Bayer Filter vor den Sensorpixel und dem RAW Format funktioniert. Desweiteren findet man dort zahlreiche Links zu weiteren Informationen.

 

Gruß Michael

 

Hallo Michael, das ist mir schon bekannt, gibt aber keine klare Antwort auf meine Fragen 2 und 3.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Jo,

 

ich fang mal an mit 2. was ich so weiß.

In deiner RAW Datei ist folgendes:

1.Die Information des Rot Kanales

2.Die Information des Blau Kanales

3.Die Information des 1. Grün Kanales

4.Die Information des 2. Grün Kanales der ist aber verschlüsselt

5.Das Schwarz Weiß Bild

6.Die Helligkeitsinformation

7.Das JPG

8.Weitere verschlüsselte Informationen( z.B. Objektiv Daten)

 

Ich habe auch schon mehrere Versuche gemacht, die beste Entwicklung der Raw Daten der G1 ist in der Vollversion von Silkypix, bei der beigelegten SE Version sind die Bilder nicht so gut und in Photoshop noch schlechter.Mit schlechter meine ich nicht die Bildqualität die kommt in Photoshop auch gut sondern die Farben von der G1 sind in der Vollversion einfach besser.

 

Frank

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Frank,

das sind einige interessante Statements; hast du die Unterschiede zwischen Vollversion und SE aus eigener Anschauung und kann das auch mit den verwendeten Versionen zusammenhängen? Ich würde das bei Gelegenheit gerne einmal nachvollziehen, weil ich immer noch die AUsgabe von 300,- Euro für Lightroom scheue (obwohl das Programm sein Geld wert ist, so begibt man sich doch wieder ganz in die Hand eines Anbieters)

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Jo,

 

ich fang mal an mit 2. was ich so weiß.

In deiner RAW Datei ist folgendes:

1.Die Information des Rot Kanales

2.Die Information des Blau Kanales

3.Die Information des 1. Grün Kanales

4.Die Information des 2. Grün Kanales der ist aber verschlüsselt

5.Das Schwarz Weiß Bild

6.Die Helligkeitsinformation

7.Das JPG

8.Weitere verschlüsselte Informationen( z.B. Objektiv Daten)

...

Hallo Frank,

 

kanst Du dein Wissen etwas verklaren? Denn mit 1 und 2 stimme ich überein, aber schon bei 3+4 mache ich Fragezeichen. Unser Auge kann wegen der höchsten Empfindlichkeit in Grün-Bereich am besten Grün-Farbnuancen differenzieren, und deshalb spendiert man Grün eine doppelte Pixelzahl, um den Farbwert bei der Quantifizierung, der Umwandlung des analogen Spannungsniveaus in einen Zahlenwert, durch Durchschnittsbildung der benachbarten Grün-Pixel genauer zu erhalten als mit nur einem Pixel.

 

Deshalb muss diese Durchschnittsbildung schon in der Kamera erfolgen und es gibt nur einen Grün-Kanal in den RAW Daten.

 

Das SW-Bild und die Helligkeitsinformation werden bei RAW-Daten sicher aus den RGB-Werten in den EBV-Programmen errechnet, und auch das JPEG wird vom EBV-Programm beim Speichern berechnet.

 

Zusammenfassung: Ein RAW-File hat eine 1:1 Wiedergabe pro Bildpunkt in RGB-Werten und ein paar Daten über die Aufnahmesituation, die über EXIF hinausgehen. Mehr nicht! Und auch ein RAW-File ist EDV-technisch verlustfrei komprimiert.

 

Grüße ... Rolf

bearbeitet von RoDo
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Hallo Frank,

 

kanst Du dein Wissen etwas verklaren? Denn mit 1 und 2 stimme ich überein, aber schon bei 3+4 mache ich Fragezeichen. Unser Auge kann wegen der höchsten Empfindlichkeit in Grün-Bereich am besten Grün-Farbnuancen differenzieren, und deshalb spendiert man Grün eine doppelte Pixelzahl, um den Farbwert bei der Quantifizierung, der Umwandlung des analogen Spannungsniveaus in einen Zahlenwert, durch Durchschnittsbildung der benachbarten Grün-Pixel genauer zu erhalten als mit nur einem Pixel.

 

Deshalb muss diese Durchschnittsbildung schon in der Kamera erfolgen und es gibt nur einen Grün-Kanal in den RAW Daten.

 

Das SW-Bild und die Helligkeitsinformation werden bei RAW-Daten sicher aus den RGB-Werten in den EBV-Programmen errechnet, und auch das JPEG wird vom EBV-Programm beim Speichern berechnet.

 

Zusammenfassung: Ein RAW-File hat eine 1:1 Wiedergabe pro Bildpunkt in RGB-Werten und ein paar Daten über die Aufnahmesituation, die über EXIF hinausgehen. Mehr nicht!

 

Grüße ... Rolf

 

Hallo Rolf,

Deine Ausführungen bestätigen meine Erwartung, dass im RAW-Modus die RGB-Werte pro Kanal so abgespeichert werden, wie diese auf jedem einzelnen Sensorpixel gemessen wurden (also - bis auf das gegenüberliegende G - nicht mit Nachbarpixeln verrechnet sind). Dann sollten auch aber auch Kontrast- und Schärferegulierungen in den Kameraeinstellungen bei RAW keine Auswirkung auf die weitergegeben Werte haben. Damit kommt es dann ausschliesslich auf den verwendeten RAW-Konverter auf dem PC an, wie "gut" das Foto entwickelt wird.

Danke.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Rolf,

Deine Ausführungen bestätigen meine Erwartung, dass im RAW-Modus die RGB-Werte pro Kanal so abgespeichert werden, wie diese auf jedem einzelnen Sensorpixel gemessen wurden (also - bis auf das gegenüberliegende G - nicht mit Nachbarpixeln verrechnet sind). Dann sollten auch aber auch Kontrast- und Schärferegulierungen in den Kameraeinstellungen bei RAW keine Auswirkung auf die weitergegeben Werte haben. Damit kommt es dann ausschliesslich auf den verwendeten RAW-Konverter auf dem PC an, wie "gut" das Foto entwickelt wird.

Danke.

Hallo Joachim,

alles richtig mit der kleinen Korrektur, dass ein RGB-Pixel die Rot-Grün-Blau-Quantifizierung enthalt (z. B. als 8 Bit pro Farbe, zusammen also 24 Bit) und die Kanaltrennung dann wieder in der EBV-Software erfolgt.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Joachim,

alles richtig mit der kleinen Korrektur, dass ein RGB-Pixel die Rot-Grün-Blau-Quantifizierung enthalt (z. B. als 8 Bit pro Farbe, zusammen also 24 Bit) und die Kanaltrennung dann wieder in der EBV-Software erfolgt.

 

Grüße ... Rolf

Hallo Rolf,

ich meine gelesen zu haben, daß beispielsweise bei der G1 mit erheblich größerer Quantifizierung gearbeitet wird, also ein RAW (*.rw2) enthält mehr als 8 Bit je Farbkanal.

Bestätigen tut das meine Erfahrung, daß man durchaus zwei volle Blendenstufen Reserve mit RAW fährt, ohne daß Banding auftritt (auch nicht in kritischen Verläufen).

Was ich nicht genau weiß, ist die Frage wie der "zweite" grüne Subpixel verrechnet wird? oder ob der nicht doch "unbearbeitet" im RAW gespeichert ist?

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Rolf,

ich meine gelesen zu haben, daß beispielsweise bei der G1 mit erheblich größerer Quantifizierung gearbeitet wird, also ein RAW (*.rw2) enthält mehr als 8 Bit je Farbkanal.

Bestätigen tut das meine Erfahrung, daß man durchaus zwei volle Blendenstufen Reserve mit RAW fährt, ohne daß Banding auftritt (auch nicht in kritischen Verläufen).

Was ich nicht genau weiß, ist die Frage wie der "zweite" grüne Subpixel verrechnet wird? oder ob der nicht doch "unbearbeitet" im RAW gespeichert ist?

Gruß Thorsten

Hallo Thorsten, die 8-Bit Auflösung war auch nur eine Annahme von mir. Es könnte ja auch sein, dass in den RAW-Dateien R und B nur mit 8 und G mit höherer Auflösung untergebracht ist. Auf alle Fälle müssen die Daten auch im RW2-Format kompromiert sein, denn eine kleine Rechnung zeigt das notwendige Datenvolumen:

 

( 24 bit x 4000 x 3000 ) / 8 (bit/byte) = 34.3 Mbyte

 

Die RW2-Dateien sind aber deutlich kleiner, also komprimiert. Und wenn die Auflösung höher liegt, vielleicht bei 10 oder 12 Bit, so spricht das noch mehr für eine Komprimierung.

 

Würde im RW2 in RGGB Format vorliegen, dann müssten die Dateien noch größer werden. Das spricht für mich dafür, dass nur ein Grün-Kanal kommt.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Ich glaube mal irgendwo gelesen zu haben, dass der Sensor der GH-1 pro Farbkanal in 12bit aufnimmt und in RAW speichert. Jpeg ist ja immer 8bit.

 

Ich denke auch, daß bei RAW eine verlustfreie Komprimierung angewendet wird, also ähnlich wie bei einer Zip-Datei geht keine Information verloren und die tatsächliche Dateiengröße spricht eben absolut für diese Vermutung.

Link zum Beitrag
Auf anderen Seiten teilen

Die RAW-Daten meiner E510 müssen irgendwie komprimiert sein:

 

Bildgrösse ist 3648x2736. Wenn alle RGGB-Pixel (also 1Byte/Pixel) direkt gespeichert wären, müsste die Datei konstant mindesten 9,747 MB gross sein; falls die beiden Gs schon gemittelt wären 7,31MB (und 10,78MB falls es 12 bit/Px sind).

Die RAW-Dateien schwanken aber in der Grösse zwischen 8,44 und 10,78 MB (Stichprobe aus 17 Dateien) je nach Detailreichtum der Bilder.

 

Aufgefallen ist mir dabei ausserdem, dass bei einer Belichtungs-BKT-Reihe (-1, -2, +0) desselben Motivs die RAW-Datein unterschiedlich gross sind (10,0; 9,41; 10,78) und in der sofortigen Wiederholung derselben Reihe (10; 9,44; 10,76).

 

Also findet bereits in der Kamera eine gewisse Kompression der RAW-Daten statt, die abhängig von Details und Helligkeit ist.

Link zum Beitrag
Auf anderen Seiten teilen

Die RAW-Daten meiner E510 müssen irgendwie komprimiert sein:

 

Bildgrösse ist 3648x2736. Wenn alle RGGB-Pixel (also 1Byte/Pixel) direkt gespeichert wären, müsste die Datei konstant mindesten 9,747 MB gross sein; falls die beiden Gs schon gemittelt wären 7,31MB (und 10,78MB falls es 12 bit/Px sind).

Die RAW-Dateien schwanken aber in der Grösse zwischen 8,44 und 10,78 MB (Stichprobe aus 17 Dateien) je nach Detailreichtum der Bilder.

 

Aufgefallen ist mir dabei ausserdem, dass bei einer Belichtungs-BKT-Reihe (-1, -2, +0) desselben Motivs die RAW-Datein unterschiedlich gross sind (10,0; 9,41; 10,78) und in der sofortigen Wiederholung derselben Reihe (10; 9,44; 10,76).

 

Also findet bereits in der Kamera eine gewisse Kompression der RAW-Daten statt, die abhängig von Details und Helligkeit ist.

 

Hallo Joachim,

 

nö, deine Rechnung ist nicht richtig, weil Du bei RGGB und einer 8-Bit Auflösung von 4 Byte/Pixel ausgehen musst.

 

Das Schwanken in der Dateigröße ist sicher nicht eine Kompression der Details und der Helligkeit, sondern hängt von den Algorithmen der EDV-technischen Kompression ab. Bei einer Überbelichtung kann der höhere Anteil von gesättigten weißen Pixeln zu einer kleineren Datei führen, umgekehrt, wie bei deinen Unterbelichtungen die abgesoffenen Schatten - alles schwarz - genauso. (10,76 > 10 > 9,4). Die kleinen Unterschiede sind sicher auf Bildrauschen zurückzuführen.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Hallo,

 

ich wollte hier über die Raw's nichts falsches schreiben, ich bin darauf gekommen durch die Software RawTherapee die ja das plugin Dcraw verwendet und in dem Entwickler Forum stand das ungefähr so drin.

Selbst Adobe nutzt die Erkentnisse von Dcraw für Photoshop und gerade bei den Panasonic Raws können Sie nur die reinen RGB Informationen auslesen und darum sind die DNG Dateien auch so Groß.

Achso die Raws sind von Panasonic alle Verlustfrei komprimiert, also stimmen die vorrangeganenen Pixelberchnugen von Jo nicht wirklich weil man ja nicht weiß wie Panasonic komprmiert.

Eins ist kar das Panasonic nur die Sensor Rohdaten speichert ohne jegliche Interpolation und nur Silkypix kennt die Geheimnisse von Panasonic alle andern raten nur.

Ich jedenfalls habe mir die Vollversion von Silkypix geholt und seit dem gefallen mir die bilder aus der G1 immer besser.

Frank

Link zum Beitrag
Auf anderen Seiten teilen

Eins ist kar das Panasonic nur die Sensor Rohdaten speichert ohne jegliche Interpolation und nur Silkypix kennt die Geheimnisse von Panasonic alle andern raten nur.

Ich jedenfalls habe mir die Vollversion von Silkypix geholt und seit dem gefallen mir die bilder aus der G1 immer besser.

Frank

Hallo Frank, meines Wissens nach wird Adobe auch mit allen Informationen versorgt, es gibt einige denen gefallen die Farben dort noch besser. Wobei ich das sonst so sehe wie du .. Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Thorsten,

das dachte ich auch aber bei Dcraw steht es anders, vielleicht hat sich jetzt bei Adobe was geändert aber vor knapp einen Jahr war das so.

Silkypix muß man erst mal erlernen aber wenn man es geschnallt hat merkt man das aus den Raws noch mehr geht.

Die 16bit Tif's bearbeite ich dann weiter bei Adobe aber für die Entwicklung bleibt bei mir Silkypix.

Ich werde wenn ich ein bisschen Zeit habe, hier ein paar Vergleiche zeigen zwischen Silkypix SE und Vollversion. Es kann sich jeder ja die Vollversion zum Testen kostenlos laden für einen Monat.

 

Frank

Link zum Beitrag
Auf anderen Seiten teilen

nö, deine Rechnung ist nicht richtig, weil Du bei RGGB und einer 8-Bit Auflösung von 4 Byte/Pixel ausgehen musst.

Warum das denn? Erklär mal.

 

Bis jetzt bin ich immer davon ausgegangen dass in einer Raw-Datei überhaupt keine Pixel abgelegt werden, sondern die Helligkeitswerte der einzelnen Photosites. Davon gibt es annähernd so viele wie es hinterher Pixel gibt ("annähernd", weil hinterher beschnitten wird), und pro Photosite dürften kaum mehr als 2 Byte notwendig sein (falls mal ein Hersteller wirklich mit 16 Bit arbeiten sollte, ich kenne aber nichts mit mehr als 14 Bit). Pixel, also Bildpunkte mit Farb- und Helligkeitsinformation, gibt es erst nach dem Bayer-Demosaicing, also erst nach der Raw-Konvertierung.

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Warum das denn? Erklär mal.

 

Bis jetzt bin ich immer davon ausgegangen dass in einer Raw-Datei überhaupt keine Pixel abgelegt werden, sondern die Helligkeitswerte der einzelnen Photosites. Davon gibt es annähernd so viele wie es hinterher Pixel gibt ("annähernd", weil hinterher beschnitten wird), und pro Photosite dürften kaum mehr als 2 Byte notwendig sein (falls mal ein Hersteller wirklich mit 16 Bit arbeiten sollte, ich kenne aber nichts mit mehr als 14 Bit). Pixel, also Bildpunkte mit Farb- und Helligkeitsinformation, gibt es erst nach dem Bayer-Demosaicing, also erst nach der Raw-Konvertierung.

 

Grüße

Andreas

 

Hallo Andreas, was ich Sensorpixel benannt habe, heisst bei Dir Photosite. Physikalisch meinen wir vermutlich dasselbe, nämlich die in elektrische Werte umgewandelten Helligkeitsanteile R, G, G, B des abgebildeten Unschärfekreises, der diese 4 Sensororte abdeckt.

Bei der Oly E510 soll die Bittiefe 12bit pro Farbanteil sein. Wenn G schon gemittelt ist, würden 3x12/8 also 5Byte ausreichen, um Helligkeit und Farbe des Bildpixels zu errechnen. Da läge ich nach meiner Rechnung unkomprimiert wieder bei 12MB Dateigrösse (die zusätzlichen Ränder zunächst mal ausserachtgelassen).

Mir ging es bei meiner Überlegung nur darum, zu erfahren, ob in der Kamera bereits ein Verschnitt mehrerer "Photsites" über mehr als 4 direkt nebeneinander liegende erfolgt, um RAW-Daten herzustellen.

Link zum Beitrag
Auf anderen Seiten teilen

An meine beiden "Vorschreiber":

 

Wenn eine Angabe der Sensorauflösung in Pixeln erfolgt, dann hat jedes Pixel mindestens 3, wenn man davon ausgeht, dass die Grünverdoppelung in den RAW-Daten verbleibt, sogar 4 Farbwerte gesetzt. Bei einer 8-Bit Auflösung sind dann 255 Werte pro Farbe enthalten, bei 12 Bit 4095.

 

3 x 8 Bit sind 24 bit (= 3 Byte), 3 x 12 sind 36 Bit (= 4,5 Byte)

 

Ein 1:1 Pixelbild in der Auflösung von 3648x2736 Pixeln und RGB kommt dann mit 28,6 MB daher, bei 12 Bit sind das dann 42,8 MB

 

Helligkeitswerte sind bei RGB überhaupt nicht gespeichert und auch nicht notwendig. Dieses spielt nur bei den alten Videosignalen eine Rolle, wo mit Farbe überlagertes Schwarz-Weiß-Bild vorliegt.

 

Warum jetzt eine Umwandlung Pixel in Photosites (was ist das? Habe das Wort noch nie gehört) plötzlich den Datenumfang auf die Hälfte reduzieren (können) soll, kann ich mir nun überhaupt nicht vorstellen, den binäre Zahlen brauchen nun mal Bit-Platz.

 

Die Daten laufen 1:1 in die RAW-Files. Lade ich ein RW2 in Raw Therapee, dann hat dieses Bild genau 4000 x 3000 Pixel. Wirft man dann die Objektiventzerrung an, dann wächst das Bild und hat dann z.B. 4168 Pixel auf der langen Achse. Das ist aber dann ein Ergebnis der Entzerrungsrechnung und hat nichts mit den Rohdaten zu tun.

 

Bei der G1 hat ein 12-Bit aufgelöstes Bild 51,5 MB. Diese werden verlustfrei auf ca. 20 MB komprimiert. Das dauert. Und das erklärt, warum bei Reihenaufnahmen im RAW-Format nach 4-5 Bildern Schluss ist.

 

Grüße … Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Wenn eine Angabe der Sensorauflösung in Pixeln erfolgt, dann hat jedes Pixel mindestens 3, wenn man davon ausgeht, dass die Grünverdoppelung in den RAW-Daten verbleibt, sogar 4 Farbwerte gesetzt.

Rolf, du machst da einen Denkfehler.

 

Du beziehst dich auf den Zustand nach dem Bayer-Demosaicing, wie er zum Beispiel in einer TIFF-Datei vorliegt (und die ist dann tatsächlich auch so groß).

 

In der Raw-Datei ist aber dieser Zustand überhaupt nicht abgebildet. Dort wird pro Photosite nur ein Helligkeitswert abgelegt. Dieser Helligkeitswert gibt aber nicht die Helligkeit des endgültigen Pixels wieder, die wird unter Berücksichtigung des jeweils vorgeschalteten Filters ermittelt.

 

Bei der Raw-Verarbeitung wird für jedes Photosite ein Pixel erzeugt, das dann sowohl Helligkeitsinformationen als auch Farbinformationen trägt. Gewonnen werden diese Informationen aus cleveren Interpolationen mit den umgebenden Werten. Genau das werfen die Anhänger des Foveon-Sensors den Bayer-Sensoren doch immer vor.

 

Bei einem 12-Megapixel-Sensor werden in der Raw-Datei also (grob) 12 Millionen Werte gespeichert (in welcher Bittiefe auch immer), nicht 12 Millionen * 3 oder 4.

 

Nachlesen kann man das ganze Verfahren (einschließlich des recht komplexen Bayer-Demosaicing) im (ganz gut dokumentierten) C-Quellcode von dcraw, auf das Frank ja schon hingewiesen hat.

 

Der Unschärfekreis hat mit diesem Thema reinweg überhaupt nichts zu tun. Wenn ich nicht richtig fokussiere, dann enthält die Raw-Datei trotzdem noch genau so viele Meßwerte.

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Andreas,

SilkyPix sagt ausdrücklich, daß die Software das DeMosaic durchführt; ergo kommen vom Sensor mit RAW tatsächlich die einzelnen SubPixel Daten, keine aufbereiteten oder bereits "ent-mosaik_iierten" Bilder. Entsprechend sind im RAW je nach Farbtiefe und SubPixel-Anordnung mehrfache der resultierenden Pixel-Auflösung gespeichert.

 

Bei JPEG unkomprimiert bzw. TIFF haben wir pro Pixel drei Farbinformationen, die kombiniert (über eine Formel) die Helligkeitsinformation enthalten. Entsprechend 3* Pixelanzahl Bytes Gesamtgröße.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Der Unschärfekreis hat mit diesem Thema reinweg überhaupt nichts zu tun.

 

Oh, doch! Denn wenn sein Durchmesser größer ist als die Diagonale der 4 Sensorpixel zusammen, wird die Information dieses Objektpunktes noch auf benachbarte Sensorpixel verteilt, und umgekehrt enthalten diese 4 dann Information benachbarter Objektpunkte. Für Auflösung und Kontrast ist das schon von Bedeutung, für die Grösse der Datei allerdings nicht.

Link zum Beitrag
Auf anderen Seiten teilen

Rolf, du machst da einen Denkfehler.

 

Du beziehst dich auf den Zustand nach dem Bayer-Demosaicing, wie er zum Beispiel in einer TIFF-Datei vorliegt (und die ist dann tatsächlich auch so groß).

 

Danke Andreas, du hast ich wieder auf die Spur gebracht. Ich hatte mich wirklich verrannt. Mein Fehler war, bei einer n-Pixel Auflösung stillschweigend für jedes n 3 eigene Pixel zu erwarten. Aber da war ich verkehrt. Ziehe die meisten meiner Beträge zurück. :(

 

Das Studium bei dcraw zeigt, dass in den meisten oder allen Fällen mit einer 12-bit Auflösung gearbeitet wird. Und manche Herstellen benutzen Huffman-Compression.

 

Beeindruckend, wieviele verschiedene RAW-Formate es gibt und wie diese alle durch reverse engineering geknackt wurden.

 

Grob gesagt kann man also davon ausgehen, dass 1,5 x Anzahl Pixel des sensors an Bytes in einem Raw file vor einer evtl. Kompression vorhanden sind. Plus Steuerdaten wie Exif, WB-Einstellungen und andere Randdaten. Das erklärt dann auch die Größe eines 4000 x 3000 G1 Bilds, das dann mit ca. 16 MB anfällt.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

könnt ihr mich bitte nochmal eingleisen (oder aufspuren)?

 

Die G1 hat 12 Millionen Pixel netto (13,1 brutto). Sind das jetzt die Sub-Pixel (je ein Farbkanal) im RAW-File und werden aus diesen 12 MP (Einzelfarben, also 3 MP rot, 6 MP grün und 3 MP blau) dann die resultierenden 12 MP ermittelt/interpoliert (Bayer-Demosaicing)?

ODER

besteht ein Pixel (resultierend) aus üblicherweise vier Sub-Pixeln?

 

Daß die Sigma das anders macht ist mir klar, mir geht es jetzt mal um übliche Sensoren.

bearbeitet von matadoerle
Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

könnt ihr mich bitte nochmal eingleisen (oder aufspuren)?
Aber gerne.
Die G1 hat 12 Millionen Pixel netto (13,1 brutto). Sind das jetzt die Sub-Pixel (je ein Farbkanal) im RAW-File und werden aus diesen 12 MP (Einzelfarben, also 3 MP rot, 6 MP grün und 3 MP blau) dann die resultierenden 12 MP ermittelt/interpoliert (Bayer-Demosaicing)?
Exakt so. Es gibt aber immer zwei 'Sorten' von grün gefilterten Pixel, einmal die in der blauen und einmal die in der roten Nachbarschaft. Es wird oftmals behauptet, daß diese zwei Arten Grünpixel auch durch unterschiedliche Filter gewonnen werden, realen Hintergrund dafür habe ich allerdings noch nicht gefunden.
Daß die Sigma das anders macht ist mir klar, mir geht es jetzt mal um übliche Sensoren.

Auch nicht viel anders. Bei Foveon macht man sich eine Stoffeigenschaft des Siliziums zunutze (unterschiedliche Farbempfindlichkeit je nach Eindrungtiefe des Lichtes), es gibt daher pro Foveon-Pixel drei verschiedene Farbinformationen.

Rotes Licht dringt am tiefsten und blaues Licht am wenigsten tief ein. Die drei entkoppelten Signale entsprechen also (von oben nach unten) rot+grün+blau, rot+grün und rot. Das ist natürlich sehr vereinfacht, weil die Anteile der Farbintensitäten nicht linear mit der Eindringtiefe sind, aber als Modell ist es hinreichend geeignet.

Es folgt dann im RAW-Konverter kein 'Entmosaiken' sondern eher ein 'Enttiefen'. Die Anzahl der einzelnen Farbinformationen kann man dann mit 3x der physischen Photozellen ansetzen. Die physikalische Auflösung bleibt aber 1x die Anzahl der Photozellen. Alles was bei einem Foveonsensor über die Pixelzahl hinausgeht ist reine (absolut reine) Interpolation.

Bei einem landläufigen Sensor mit Bayerfilter hingegen wird 'nur' der Farbanteil interpoliert, der Luminanzanteil (Helligkeit) entspricht der wahren, physikalischen Pixelanzahl.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...