Jump to content

Empfohlene Beiträge

schwarz oder silber?

Eigentlich wollte ich schwarz, aber ich kann mich mit der gehämmerten Oberflächenoptik nicht anfreunden.

 

 

Gab's es nicht irgendwo eine Titanversion der M5ii zu bestaunen? Darauf zu warten erfordert auf jeden Fall etwas Geduld, 6-12 Monate etwa . . . 

 

 

denn: Titan ist das neue schwarz  ;)

 

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Zu  flyingrooster 1

Endlich mal ne Aussage, Danke! :)

 

 

Zu flyingrooster 2

Glaube auch, der Stabi schaltet irgendwann ab wenn eine bestimmte Serienzahl eingestellt ist. Hab zwar gerade keinen Einstellpunkt diesbezüglich im Menü gefunden aber eventuell steht im Einstellungsführer ein Hinweis.

 

Zu specialbiker

Seh ich auch so. Zwar habe ich eigentlich immer das Ministativ dabei doch nicht sehr oft in Anwendung. Aber wie man immer so schön sagt "Haben oder nicht Haben man weiß nie wann(ob) mans mal braucht" oder so ähnlich. Das mit dem EV nehmen wir dankbar an, egal aus welchem Grund sie das eingebaut haben (Marketinggeschwafel oder nowendiges Übel für die 40 Mpx). Nebeneffekt ist noch die Rauschentfenung durch die Mehrfachbelichtung, feine Sache.

 

Grüße auch.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich mich nicht täusche hängt die Stabilisierung auch von der Einstellung der max. Bildfrequenz ab.

Ich bin zwar kaum jemals im Uzi-Modus unterwegs, werd mir aber in den nächsten Tagen mal das 100-300 an die E-M5 II hängen und schauen wie sich der IBIS bei Serien @ 1/50 sek / 300 mm verhält.

 

Danke für deine präzise Antwort. Für mich ist wichtig im stabilisierten Serienmodus:

 

Live view mit Einfeld AF-C, damit der AF präzise an der gewünschten Stelle gehalten werden kann. Neben 300 mm auch bei Freihandmakros komfortabel.

Link zum Beitrag
Auf anderen Seiten teilen

Ich weiss ja nicht was da gemacht wurde, aber diese Bilder kann ich in keinster Weise nachvollziehen. Ich habe in SP6 die Schatten um 3 EV aufgehellt, und zusätzlich den HDR Regler (der auch nochmal die Schatten hochzieht) voll nach rechts gestellt, und quasi keinen relevanten Unterschied zwischen den beiden "Rauscharten" festgestellt, bzw. sogar weniger Farbrauschen beim EV (siehe meine Beispiele vorher, oder auch diese).

 

Das Bild im von dir verlinkten Thread sieht eher so aus als wäre einmal mit und einmal ohne NR getestet worden, vielleicht lags auch an der verwendeten Silkypix Version?.

(im übrigen hat die Auslesegeschwindigkeit wenig mit dem Rauschen bzw. DR zu tun, 10 bit bleiben 10 bit)

 

Da komme ich technisch an meine Grenzen :) das lasse ich besser einen anderen erklären. Wenn es Dich interessiert, wäre es vielleicht eine Idee den Autor des Beitrags anzuschreiben.

 

Ich nehme die Info wie sie ist, bis mir einer nachvollziehbar das Gegenteil erklärt.

Link zum Beitrag
Auf anderen Seiten teilen

(im übrigen hat die Auslesegeschwindigkeit wenig mit dem Rauschen bzw. DR zu tun, 10 bit bleiben 10 bit)

 

Stichwort: Quantisierungsrauschen - steigt an, wenn Du beim Abtasten vergröberst, also mit 10 statt 12 Bit unterwegs bist. Die 10 Bit wiederum wählt Panasonic vermutlich aus Geschwindigkeitsgründen - das wäre dann der gesuchte Zusammenhang.

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Alignemnent hat nichts mit schätzen zu tun, es werden in diesem Fall identische Punkte in einem (z.B. 5x5 Pixel) Raster auf den verschiedenen, leicht verschobenen Bilder gesucht und anhand dieser die Bilder wieder deckungsgleich ausgerichtet. Funktioniert seit Jahren auch z.B. bei sämtlichen HDR oder Pano Tools.

 

 

Sag ich doch :)

Entsprechende Rechenpower ist sicher notwendig.

Wenn sie aber nichts anderes in der Kamera zu tun hat doch wesentlich effizienter als auf irgendeinem externen Rechner.

Auch jetzt schon muss bei der neuen O das ganze Bild zusammengetopselt werden, trotz der ganzen Klappermechanik am Sensor, also gehts doch.

 

mfg

e.l.

Link zum Beitrag
Auf anderen Seiten teilen

Stichwort: Quantisierungsrauschen - steigt an, wenn Du beim Abtasten vergröberst, also mit 10 statt 12 Bit unterwegs bist. Die 10 Bit wiederum wählt Panasonic vermutlich aus Geschwindigkeitsgründen - das wäre dann der gesuchte Zusammenhang.

 

Hans

 

Das Quantisierungsrauschen spielt  zu den sonstigen Rauschursachen bei 10 Bit eine untergeordnete

und bei 12 Bit überhaupt keine Rolle.

Link zum Beitrag
Auf anderen Seiten teilen

Vergleicht mal keine Äpfel mit Birnen.

Es ist schon ein Unterschied, ob man einen dedizierten Bereich geordnet mehrfach abscannt, um die „richtige“ Farbinformation zu erhalten, oder eine Information aus mehrere chaotischen Scanvorgänge eines zufällig aufgenommenen Bereichs mit stochastischer Methoden schätzt. Das Ergebnis wird niemals so sein, wie bei einem geordnet abgetasteten Motiv.

....

 

Ich finde es jedenfalls gut, dass Olympus einen Ausweg aus der Pixelrennerei beschritten hat und uns diese "nice to have" Feature bereitstellt.

Für mich ist das wirkliche Highlight der E-M5II ohnehin der genial gute Stabi.

 

 

Bei jeder dieser leidigen Diskussionen, die ich bisher gelesen habe, wird immer wieder vergessen, wie ein Sensor überhaupt aufgebaut ist. Es ist ja nicht so, dass auf dem Sensor Pixel direkt an Pixel liegt. Vielmehr verlaufen zwischen den Pixeln verhältnismässig breite "Gräben" in denen die Signale transportiert werden müssen. Wenn ich den Sensor nun leicht verschiebe, fangen die einzelnen Pixel plötzlich auch Informationen auf, die vorher ungenutzt auf eine Datenleitung gefallen sind.

Solange wir keine Sensoren haben, deren Erschliessung der Pixel von "hinten her" unter der lichtsensiblen Schicht gelöst wird, bringt ein Sensorshift logischerweise einen gewissen Gewinn. Denn nur so kann die Information überhaupt auf der gesamten belichteten Fläche abgegriffen werden.

bearbeitet von tw463
Link zum Beitrag
Auf anderen Seiten teilen

Bei jeder dieser leidigen Diskussionen, die ich bisher gelesen habe, wird immer wieder vergessen, wie ein Sensor überhaupt aufgebaut ist. Es ist ja nicht so, dass auf dem Sensor Pixel direkt an Pixel liegt. Vielmehr verlaufen zwischen den Pixeln verhältnismässig breite "Gräben" in denen die Signale transportiert werden müssen. Wenn ich den Sensor nun leicht verschiebe, fangen die einzelnen Pixel plötzlich auch Informationen auf, die vorher ungenutzt auf eine Datenleitung gefallen sind.

Solange wir keine Sensoren haben, deren Erschliessung der Pixel von "hinten her" unter der lichtsensiblen Schicht gelöst wird, bringt ein Sensorshift logischerweise einen gewissen Gewinn. Denn nur so kann die Information überhaupt auf der gesamten belichteten Fläche abgegriffen werden.

 

Du weißt es offensichtlich auch nicht. Auch beim BSI-Sensor liegen die RGB-Pixel nebeneinander. Da geht es nicht nur um die Gräben (die übrigens auch gar nicht so riesig breit sind), sondern darum, an jeder Stelle alle drei Farbinformationen zu erhalten. Das ist dann in etwa so, als hätte man die drei Farbpixel übereinander (wie beim Foveon-Sensor).

http://www.dpreview.com/previews/olympus-om-d-e-m5-ii/4

Link zum Beitrag
Auf anderen Seiten teilen

Du weißt es offensichtlich auch nicht. Auch beim BSI-Sensor liegen die RGB-Pixel nebeneinander. Da geht es nicht nur um die Gräben (die übrigens auch gar nicht so riesig breit sind), sondern darum, an jeder Stelle alle drei Farbinformationen zu erhalten. Das ist dann in etwa so, als hätte man die drei Farbpixel übereinander (wie beim Foveon-Sensor).

http://www.dpreview.com/previews/olympus-om-d-e-m5-ii/4

 

Das ist mir schon klar. Da die Verschiebung bei Oly aber (wie ich irgendwo gelesen habe) im Bereich von halben Pixelschritten stattfindet, gehe ich davon aus, dass auch der Umstand der Pixelzwischenräume berücksichtigt worden ist.

Und, auf die Gesamtfläche des Sensors gesehen, kommt dann doch so einiges an unsensibler Fläche zusammen.

 

PS:

Meine Annahme bestätigt sich ja wunderbar in der von dir verlinkten Ansicht.

bearbeitet von tw463
Link zum Beitrag
Auf anderen Seiten teilen

Da kommt bei mir gerade noch eine Frage auf, deren Beantwortung ich noch nirgends gefunden habe.

 

Ich meine, irgendwo gelesen zu haben, dass die Sensor Shift-Funktion bei Blende 8 "abgeriegelt" werden soll. Wie steht es nun mit meinen lieben Nokton-Objektiven und anderen tollen manuellen Scherben? Erlaubt mir Olympus überhaupt, Sensor-Shift mit manuellen Objektiven zu verwenden?

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Da kommt bei mir gerade noch eine Frage auf, deren Beantwortung ich noch nirgends gefunden habe.

 

Ich meine, irgendwo gelesen zu haben, dass die Sensor Shift-Funktion bei Blende 8 "abgeriegelt" werden soll. Wie steht es nun mit meinen lieben Nokton-Objektiven und anderen tollen manuellen Scherben? Erlaubt mir Olympus überhaupt, Sensor-Shift mit manuellen Objektiven zu verwenden?

 

Warum sollten sie das nicht erlauben? (Ich weiß es allerdings nicht, denn ich habe keine E-M5II) Was dann dabei herauskommt wird man ja sehen.

Abgeriegelt wird für Blendenzahlen über 8, also kleinere Öffnungen. Der Grund ist einfach. Wenn ich genau hinschaue, dann kann ich bereits bei Blende 5,6 den Einfluß der Beugung sehen (ein entsprechend gutes Objektiv vorausgesetzt). Mit kleineren Öffnungen ist High-Res. sinnlos.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Das Quantisierungsrauschen spielt  zu den sonstigen Rauschursachen bei 10 Bit eine untergeordnete

und bei 12 Bit überhaupt keine Rolle.

 

Sagen wir mal: Keine (große) praktische Rolle. Ich hab mal einen Bildvergleich gesehen, wo der Nachweis des Rauschens hätte erbracht werden sollen, aber das war schon sehr schwierig, da einen Unterschied zu erkennen.

 

Theoretisch ist der Unterschied jedenfalls da.

 

Hans 

Link zum Beitrag
Auf anderen Seiten teilen

Solange wir keine Sensoren haben, deren Erschliessung der Pixel von "hinten her" unter der lichtsensiblen Schicht gelöst wird, bringt ein Sensorshift logischerweise einen gewissen Gewinn. Denn nur so kann die Information überhaupt auf der gesamten belichteten Fläche abgegriffen werden.

 

Der von Dir beschriebene Effekt kommt noch hinzu. Aber auch bei einem "idealen" Sensor, bei dem randlose Pixel ohne Zwischenraum angenommen würden, liefert das PixelShift Verfahren (Verschieben im Subpixelbereich) mehr Informationen gegenüber einer Einfachbelichtung. Ich will jetzt nicht alles wiederholen, was an Theorie dazu existiert, aber ich sage mal knapp: Es ist so. ;) 

 

Hans 

Link zum Beitrag
Auf anderen Seiten teilen

Der von Dir beschriebene Effekt kommt noch hinzu. Aber auch bei einem "idealen" Sensor, bei dem randlose Pixel ohne Zwischenraum angenommen würden, liefert das PixelShift Verfahren (Verschieben im Subpixelbereich) mehr Informationen gegenüber einer Einfachbelichtung. Ich will jetzt nicht alles wiederholen, was an Theorie dazu existiert, aber ich sage mal knapp: Es ist so. ;)

 

Hans

Das war ja eh schon klar, aber bisher sind immer alle nur von "idealen" Sensoren ausgegangen.

Link zum Beitrag
Auf anderen Seiten teilen

Alignemnent hat nichts mit schätzen zu tun, es werden in diesem Fall identische Punkte in einem (z.B. 5x5 Pixel) Raster auf den verschiedenen, leicht verschobenen Bilder gesucht und anhand dieser die Bilder wieder deckungsgleich ausgerichtet. Funktioniert seit Jahren auch z.B. bei sämtlichen HDR oder Pano Tools.

 

Die Bilder sind nicht nur verschoben sondern auch verkantet und niemals dekungsgleich auf subpixelebene. Deshalb kommt da auch kein nennenswerter Auflösungsgewinn raus. Bei HDR stört es nur nicht das die Auflösung dadurch etwas leidet und wenn man hochwertige Qualität haben will nimmt man für HDR ein Stativ und und bewegt die Kamera zwischen den Bildern überhaupt nicht.
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...