Jump to content

Empfohlene Beiträge

Der ideale Brennweitenbereich für 3D Aufnahmen liegt zwischen 1,2 m und 4 m; natürlich kann aber alles zwischen 1,2 m und Unendlich aufgenommen werden (Motive, die weiter weg sind, sehen nicht aus wie 3D Aufnahmen).

 

Das dürfte dann auch auf das neue mFT-Objektiv zutreffen, weil dort der Linsenabstand ähnlich gering ist, also ich halte das für Murks, wo ist der Sinn von Räumlichkeit, wenn es ab 4 Meter nicht mehr funktioniert? Erst recht bei so einem kleinen Bildfeld, das 58mm auf diese Entfernung erzeugt.

Link zum Beitrag
Auf anderen Seiten teilen

Das dürfte dann auch auf das neue mFT-Objektiv zutreffen, weil dort der Linsenabstand ähnlich gering ist, also ich halte das für Murks, wo ist der Sinn von Räumlichkeit, wenn es ab 4 Meter nicht mehr funktioniert? ....

Das eigentliche Problem ist nicht der relativ kleine Abstand zwischen den Objektiven (Stereobasis). Denn bei fernen Objekten sieht der Mensch ohnehin nicht sehr räumlich. Und Nahmotive sind auch sehr viel spannender.

 

Viel kritischer ist, dass die Stereobasis für ein gutes Ergebnis schon bei der Aufnahme an die Entfernung des Nah- und Fernpunktes in jeder einzelnen Szene sehr genau angepasst werden muss.

 

Dabei sollten die Bilder eigentlich in jeder Szene auch korrekt zueinander justiert werden, damit die Tiefe richtig auf dem Bildschirm liegt (in den wichtigen Teilen nicht zu viel davor oder dahinter).

 

Wer eine Rot/Grün-Brille hat, kann im Forum ein gutes Beispiel sehen

(# 15 - 19 ff):

 

https://www.systemkamera-forum.de/small-talk/7891-3d-stereofotografie-mein-n-1-versuch.html

 

Eine 3D-Videokamera sollte eine solche Justierung ermöglichen. Und die Nutzer sollten diese Justierung auch wirklich ernst nehmen, um zu guten Ergebnissen zu kommen. Wie umfangreich die neue Panasonic 3D-Videokamera da genau eingestellt werden kann, überblicke ich allerdings noch nicht. Nach dem oben verlinkten Test scheint eine Justierung möglich aber nicht ganz einfach zu sein.

 

Im Stereostandbild ist die Korrektur durch die Rahmung oder durch Beschneiden nachträglich gut zu machen. Im Stereovideo wird es da schon schwieriger, weil die Nachbearbeitung doch sehr aufwändig ist. Viele werden die damit verbundene Mühe nicht leisten wollen oder können.

 

Siehe dazu auch:

 

Sonys 3D Strategie: Mach´s in der Postproduktion

 

Ich befürchte, dass wegen der Mühen bei Aufnahme oder Nachbearbeitung massenhaft falsch justierte Videos betrachtet werden und dadurch die Freude am eigenen 3D-Film leider sehr schnell verblasst.

 

Gruß Olybold

bearbeitet von Olybold
Link zum Beitrag
Auf anderen Seiten teilen

Eine 3D-Videokamera sollte eine solche Justierung ermöglichen. Und die Nutzer sollten diese Justierung auch wirklich ernst nehmen, um zu guten Ergebnissen zu kommen. Wie umfangreich die neue Panasonic 3D-Videokamera da genau eingestellt werden kann, überblicke ich allerdings noch nicht. Nach dem oben verlinkten Test scheint eine Justierung möglich aber nicht ganz einfach zu sein.

Hallo Olybold,

wenn heute etwas nicht auf Knopfdruck funktioniert, sechint es nicht ganz einfach zu sein ;) wenn ich das richtig sehe, dann werden dem Benutzer wenigstens Hilfsmittel zur Justage auf den Weg gegeben.

 

Was mir aber noch nicht ganz klar ist: muß die Justage auf die "Fokus-Entfernung" erfolgen? Heißt das in der Folge, daß ich bei der angebotenen Lösung mir vor der Aufnahme eine Schärfeebene (Fokussier-Entfernung) festlegen muß und diese während der Aufnahme nicht ändern darf?

 

Wird jetzt der "Schielfaktor" justiert, so daß das anvisierte Objekt im Schärfezentrum auch deckend übereinanderliegt? Oder funktioniert das ganz anders als beim menschlichen Auge, wo eine solche Korrelation von Blickrichtung der Augen (Konvergenz) und Akkommodation auf die entsprechende Entfernung stattfindet?

 

Sind die zwei Linsen, die ja zwei abhängige aber getrennte Bilder auf dem Sensor erzeugen, zwingend beweglich zueinander (neben der Möglichkeit den gewünschten Abstand zu fokussieren, was man ja durch eine gemeinsame Linse erreichen könnte (und hier vielleicht auch tut?)

 

Ich sehe die Technik als sehr interessant, aber weniger gebrauchsfähig für den Alltagseinsatz an; zumal ja wohl die wichtigste Forderung, endlich zu erkennen ob der Ball auf dem Fußballfeld sich nur seitlich von der Blickrichtung oder auch in der Tiefe des Feldes erfolgt, offensichtlich nicht geleistet werden kann. :rolleyes:

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Was mir aber noch nicht ganz klar ist: muß die Justage auf die "Fokus-Entfernung" erfolgen? Heißt das in der Folge, daß ich bei der angebotenen Lösung mir vor der Aufnahme eine Schärfeebene (Fokussier-Entfernung) festlegen muß und diese während der Aufnahme nicht ändern darf?

 

Wird jetzt der "Schielfaktor" justiert, so daß das anvisierte Objekt im Schärfezentrum auch deckend übereinanderliegt? Oder funktioniert das ganz anders als beim menschlichen Auge, wo eine solche Korrelation von Blickrichtung der Augen (Konvergenz) und Akkommodation auf die entsprechende Entfernung stattfindet?

 

Sind die zwei Linsen, die ja zwei abhängige aber getrennte Bilder auf dem Sensor erzeugen, zwingend beweglich zueinander (neben der Möglichkeit den gewünschten Abstand zu fokussieren, was man ja durch eine gemeinsame Linse erreichen könnte (und hier vielleicht auch tut?)

Die Linsen werden sicherlich nicht schielen und die Stereobasis wird auch nicht veränderlich sein. Unterschiedliche Basisbreiten für unterschiedliche Entfernungen wären natürlich nützlich, denn mit dem normalen Augenabstand bekäme man im Makrobereich keine verwertbaren Ergebnisse und für Teleaufnahmen wäre eine größere Basis nötig, damit sich ein räumlicher Eindruck einstellt, aber bei einer Consumer-Videokamera würde das zu aufwendig. Man wird sich daher auf einen mittleren Entfernungsbereich beschränken müssen. Außerdem ist ein Parallaxausgleich zwischen den Stereobildern nötig, der wiederum entfernungsabhängig ist. Fujis Real 3D W1 macht das beispielsweise so, dass sie die Parallaxe entsprechend der vom Autofokus gemessenen Entfernung kompensiert; in dieser Entfernung kommen die Bilder also optimal zur Deckung (eine manuelle Einstellung ist ebenfalls möglich); das ist sicherlich die naheliegendste Lösung. Aber es gehört zum Wesen des Parallaxausgleichs, dass er Bildbreite kostet; man kann ja nur in dem Bereich räumlich sehen, der auf beiden Bildern zu sehen ist, und je geringer dieser gemeinsame Teil wird, desto schmaler wird das Stereobild. Im Nahbereich findest Du Dein Motiv dann vielleicht nur noch in einem der beiden Bilder wieder, oder in einem Bild hart am linken Rand und im anderen Bild am rechten.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Hallo Olybold,

...

Was mir aber noch nicht ganz klar ist: ....

mjh hat die Frage ja eigentlich schon beantwortet. Trotzdem will ich sie noch mal aufgreifen.

 

Das Problem kann ich am besten an Hand einer Stereoaufnahme eines unbewegten Objektes mit nur einer Kamera im Nahbereich auf Diafilm beschreiben.

 

Du machst zunächst die 1. Aufnahme für das linke Auge und verschiebst die Kamera um die Stereobasis absolut waagrecht nach rechts (also ohne "Schielen" der Kamera) und machst dann die 2. Aufnahme für das rechte Auge. Bei einer Nahaufnahme ist die Stereobasis zwar sehr klein, trotzdem wird auf dem linken Bild links und auf dem rechten Bild rechts mehr vom Motiv zu sehen sein.

 

Wenn Du nun beim Rahmen der Dias die Filmstückchen in den nebeneinander liegenden Diarähmchen zu- oder gegeneinander waagrecht verschiebst, kannst Du bestimmen, welcher Teil des Motivs in der Projektion vor, auf oder hinter die Leinwand zu sehen sein soll. Motivteile, die in beiden Diarahmen (bezogen auf den seitlichen Rand des Ausschnitts) an exakt der gleichen Stelle liegen, erscheinen z.B. in der Projektion in der Ebene der Leinwand. Dadurch stellst Du gewissermaßen nachträglich das "Schielen" der Kamera her. Schlecht und dem menschlichen Seheindruck nicht entsprechend sieht es z.B. aus, wenn vom Bildrand abgeschnittene Teile des Motivs in der Projektion vor der Leinwand erscheinen. Daher sollten solche Motivteile hinter der Leinwand liegen. Ungünstig ist es auch, wenn der nächste Punkt des Motivs erst ganz weit hinter der Leinwand in der Ferne zu sehen ist. Daher justiert man ihn durch die Verschiebung so, dass er weiter vorrückt. Durch diese Justierung geht natürlich links und rechts etwas von der Aufnahme verloren. Daher sind Stereodiarähmchen für Kleinbild idealerweise 23 x 28 mm groß und haben Leisten, die eine seitliche Verschiebung der Filmstücke ermöglichen. Wenn die optische Achse der Kamera dagegen schon bei der Aufnahme jeweils auf das Motiv angepasst wird ("Schielen"), hast Du gleich die richtige räumliche Position des Motivs.

 

Wichtig ist auch noch, dass die Motive in beiden Bildern horizontal exakt in einer Linie liegen, also keinen sogenannten Höhenfehler aufweisen. Die Bilder dürfen selbstverständlich auch nicht gegeneinander verdreht sein. Daher gibt es zu manchen Stereodiarähmchen Leisten, die eine leichte Drehung bzw. eine Höhenverschiebung des Dias in Schritten von 1/10 mm ermöglichen.

 

Dann ist natürlich die Stereobasis abhängig von der Entfernung, d.h. mit einer festen Stereobasis kann nur in einem bestimmten Entfernungsbereich fotografiert werden. Wird dieser überschritten, schwindet der 3D-Effekt. Wird er unterschritten, gibt es den sogenannten Bildzerfall, ein entspanntes Schauen ist dann nicht mehr so ohne weiteres drin.

 

Wenn Du das alles auf das 3D-Video anwendest, kannst Du erkennen, was eine 3D-Videokamera alles können müsste bzw. was in der Postproduktion vom Filmer alles veranstaltet werden sollte, um ein technisch halbwegs ordentliches Stereobild auf den 3D-Fernseher zu bringen. Von der fotografischen Arbeit und der Motivauswahl will ich erst gar nicht reden.

 

Wenn das mal in der Praxis gut geht :eek:

 

Gruß Olybold

Link zum Beitrag
Auf anderen Seiten teilen

... da muß ich noch ein wenig dran knabbern ..

 

:)

 

Es ist aber gut, dass es dieses schönen Forum hier gibt. Wenn das mit dem 3D-Video in der Praxis nämlich erst mal so richtig los geht, werden hier die Fragen der User zu 3D nur so sprudeln. Ich freue mich schon darauf.

 

Gruß Olybold

Link zum Beitrag
Auf anderen Seiten teilen

  • 4 weeks later...
  • 1 month later...

Ich glaube, ihr macht euch da zu komplexe Gedanken über die Aufnahme von Stereobildern oder -filmen. Ich mache beinahe nur noch 3D Fotos, aber was ihr da an Kriterein anführt, hat mich bisher bei der Aufnahme noch nie beschäftigt, konnte es zum Beispiel auch gar nicht mit dem ersten erhältlichen 3D-Videcamcorder von Toshiba. Leider sind die Ergebnisse auf NTSF (Amerikanisches Fernsehsystem) nicht so berauschend, so dass ich gar nicht mit ihnen hier protzen kann. Ihr könnt ja trotzdem mal schauen, wenn ihr wollt. Mit dieser Suchoption bekommt ihr einige 3D-Filme von mir bei Youtube:

YouTube - expatpeter 3D stereo

Da ließ sich bei der Aufnahme nichts verstellen. Was die parallele Ausrichtung der linken und rechten Aufnahme anbelangt, so habe ich auch schon Makroaufnahmen gesehen, die durch kreisförmige Verschiebung der Objekte entstanden sind.

Und natürlich kann man auch die stereoskopische Wirkung intensivieren, wenn man die Kamerastandpunkte auseinander rückt. Dann wirken auch noch Objekte in weiter Entfernung räumlich.

So ist die Basis also durchaus von Belang, wie weit also die beiden Objektive voneinander entfernt sind.

Kann denn jemand von euch im Kreuzblick Stereobilder räumlich sehen?

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...