chippy Geschrieben 30. Juli 2010 Share #1 Geschrieben 30. Juli 2010 Werbung (verschwindet nach Registrierung) Moin, zusammen, ich bin ein neuer Forums"säugling" und ich brauche mal etwas Nachhilfeunterricht. Es geht um Sensoren und Abspeichern. Der Sensor der Lumix GH1 hat eine Größe von 17,3 X 13 mm und hat 4000 x 3000 Pixel. Im Videobetrieb nutzt die Software - so denke ich mal - die volle Breite des Sensors von 4000 Pix und schneidet oben und/oder unten soviel ab, dass im Verhälnis 16 zu 9 etwa 2250 Pix "Bildhöhe" übrigbleiben. Und diese Daten nutzt die Kamerasoftware um intern den Monitor und den Sucher zu füttern. Nach der wunnerbaren Formel: 4000 / 2250 = 16 / 9 Nun ergäbe - wenn es denn so wäre - 4000 mal 2250 eine Pixelanzahl von 9 Mio Pixel. Da das 16/9 Full HD-Video aber nun mal eine Auflösung 1.920x1.080 Pixel hat, also 2.073.600 Pixel, muß es ja irgendein Verfahren geben, dass die Bildinfos von 9 Mio Pix auf 2.07.. Mio Pix herunterrechnet. 1) Liege ich da richtig mit meinen Überlegungen? Grob gerechnet kommen ja auf jeden abgespeicherten Bildpunkt 4 Bildpunkte auf dem Sensor. (9 Mio zu 8,2944 Mio). Und was macht der Rechner, wenn eine Hell/Dunkelgrenze des Motivs genau diagonal diese 2 * 2 Pixel-Rasterung schneidet? Also von der linken unteren Ecke bis in die rechte obere Ecke? Dann bekämen das obere linke Pixel volles Licht. Das untere linke und das obere rechte Pixel bekämen die halbe Lichtmenge zu schmecken und das untere rechte Pixel würde im Dunkeln tappen. Wie kriegt der das hin? 2) Man hat ja für die Fotos die Pixelanzahl auf 12 Mio hochgetrieben. Wenn dieser Sensor nur für Video konzipiert wäre, dann hätte man - logischerweise - auf dieser Sensorfläche "nur" 2.073.600 Pixel aufgebracht. Das würde eine 4fache Fläche pro Pixel bedeuten, mit den bekannten Vorteilen für geringes Bildrauschen und hohe Lichtaubeute. Meine Frage ist nun: Ist es für das Bildrauschen und die Lichtaubeute egal ob man vier kleine Pixel auswertet oder einen viermal so großen? Helft´ mir bitte mal auf´s Fahrrad. Gruß Rolf Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Werbung Geschrieben 30. Juli 2010 Geschrieben 30. Juli 2010 Hi chippy, Das könnte für dich interessant sein: Abspeichern von Video-MFT-Sensordaten . Da findet jeder was…
surfag Geschrieben 31. Juli 2010 Share #2 Geschrieben 31. Juli 2010 (bearbeitet) Hallo Rolf, die GH1 hat ja einen Multiformat-Sensor, das bedeutet, der hat etwas mehr Pixel in der Breite, um eben bei 16:9 (4352 x 2448) auch mehr rauszuholen. Siehe auch den Post hier: https://www.systemkamera-forum.de/micro-four-thirds-fourthirds-kamera-technik/6334-panasonic-gh1-oder-lieber-panasonic-g2.html#post51851 Viele Grüße, Andi bearbeitet 31. Juli 2010 von surfag Link zum Beitrag Auf anderen Seiten teilen More sharing options...
chippy Geschrieben 1. August 2010 Autor Share #3 Geschrieben 1. August 2010 Hallo Andi, danke für die Antwort und die darin enthaltenen Links. Sehr interessant. Der Chris schrieb : Was man auch bedenken sollte ist, dass wegen der hohen Auflösung des mFT Sensors z.B. nur jede Dritte Zeile ausgelesen wird, das erzeugt aber automatisch Moiree, also ist die Bildqualität eines gleich großen Sensors mit nativer HD Auflösung immer besser! ????? Wenn das so wäre, dann würden doch bei dem MFT Sensor mit 2448 Zeilen bei 16:9 Video nur max. 816 Zeilen abgespeichert werden können. Das reichte dann doch nur für 720 ger AVCHD- lite, oder? Mmmh. Gruß Rolf und schönen Sonntag allerseits. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Mirko Geschrieben 5. August 2010 Share #4 Geschrieben 5. August 2010 Hallo, 1)Liege ich da richtig mit meinen Überlegungen? Grob gerechnet kommen ja auf jeden abgespeicherten Bildpunkt 4 Bildpunkte auf dem Sensor. (9 Mio zu 8,2944 Mio). Und was macht der Rechner, wenn eine Hell/Dunkelgrenze des Motivs genau diagonal diese 2 * 2 Pixel-Rasterung schneidet? Also von der linken unteren Ecke bis in die rechte obere Ecke? Dann bekämen das obere linke Pixel volles Licht. Das untere linke und das obere rechte Pixel bekämen die halbe Lichtmenge zu schmecken und das untere rechte Pixel würde im Dunkeln tappen. Wie kriegt der das hin? So ganz verstehe ich das Problem nicht, was Du da siehst, aber ich glaube das Lösungswort lautet "Interpolation": http://de.wikipedia.org/wiki/Interpolation_(Fotografie) Die Kamera muss doch (außer bei RAW) ohnehin ständig Pixel durcheinander matschen, bei geringeren Auflösungen halt im größeren Rahmen. Mirko Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden