Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich vermute auch, dass die Sensorgröße nicht egal ist (Vermutung deshalb, weil ich mich damit nicht wirklich auskenne, zumindest digital), sonst würde doch kein Mensch auf die Idee kommen, einen 9X11 Zoll Sensor mit 12 Magapixel zu bauen. :o:huh::)

 

Irgend einen Sinn muss diese Großbildkamera haben. ;):confused:B)

 

http://www.photoscala.de/2017/04/06/largesense-ls911-digitale-grossformatkamera-ist-fertig-und-kann-ab-sofort-bestellt-werden/

Die Kamera aus dem Photoscala Link ist sicher sehr speziell, nur SW und eher zu speziellen Einsätzen gedacht.

Grundsätzlich gibt es allerdings bei größeren Sensoren, z.B. 6x6 oder ähnliche Formate, ein Interesse der Produktfotografie, denn die arbeiten teilweise heute gezielt auf Film z.B. mit Fachkameras um per Balgen die Physik bei der Entzerrung oder Schärfentiefe zu kompensieren und aus anderen Gründen. Eben alles sehr speziell.

 

:)

Link zum Beitrag
Auf anderen Seiten teilen

Verschiebung der Objektivstandarte macht man heute digital, manche cams können das sogar schon bei der aufnahme (z.b. keystone-entzerrung in der oly em 1), die anderen können bei bedarf sogenannte shift-objektive nehmen oder adaptieren

 

 

 

Das ist richtig, das shiften geht auch so.

 

Das mit dem Verschwenken, wird allerdings schwierig ;) so rein digital

 

 

Und man bedenke, dass man bei einer entsprechenden Kamera ja beide Standarten bewegen kann.

 

 

Bist Du Dir sicher, dass die Keystoneentzerrung tatsächlich bei der Aufnahme arbeitet? Ich dachte das wäre eine JPG Sache?

 

Wo man schon ein bisschen shiften kann, ist zB bei Pentax, wo einfach der Sensor verschoben wird.

 

 

Gegen die Möglichkeiten einer entsprechenden Grossformatkamera, ist das jedoch alles ein Witz, was Dir vermutlich auch klar ist ;) stimmts?

Link zum Beitrag
Auf anderen Seiten teilen

Das mit dem Verschwenken, wird allerdings schwierig ;) so rein digital

nicht wirklich schwierig, wenn man mathematiker ist und programmieren kann (braucht nichtmal lichtfeld cams, postfokus reicht)

 

Bist Du Dir sicher, dass die Keystoneentzerrung tatsächlich bei der Aufnahme arbeitet? Ich dachte das wäre eine JPG Sache?

dunno, ich kann es in der oly cam jedenfalls als "wysiwyg" einstellen, wie auf der mattscheibe der standartencam

 

Gegen die Möglichkeiten einer entsprechenden Grossformatkamera, ist das jedoch alles ein Witz, was Dir vermutlich auch klar ist ;) stimmts?

ich sehe die vor- wie nach-teile (onsite vs. post), von einem "witz" würde ich jedenfalls nie sprechen

Link zum Beitrag
Auf anderen Seiten teilen

nicht wirklich schwierig, wenn man mathematiker ist und programmieren kann (braucht nichtmal lichtfeld cams, postfokus reicht)

 

das wird aber komplex, wenn man tatsächlich die Schärfeebene kippen will und nicht nur die Schärfe durchgehend berechnet.

 

Ich kenne so eine Software noch nicht, welche benutzt Du?

Link zum Beitrag
Auf anderen Seiten teilen

Bei Grossformat gehts oft nicht um Auflösung alleine, sondern um Verschwenkung und Verschiebung der Objektivstandarte ... eine Welt der Fotografie, die inzwischen den meisten Fotografen verschlossen ist.

 

Mit den Möglichkeiten und Anwendungsgebieten von Grossfomat/Fachkameras hatte ich mich in den 90er Jahren intensiv auseinandergesetzt, und habe mir vor lauter Begeisterung damals selbst eine Kamera gebaut (siehe Bild).  :rolleyes:

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

Mir ging es nur um die Sinnhaftigkeit des großen 9 X 11 Zoll Sensors mit 12 Magapixel, diese Kombination muss man erst mal verstehen.  ;)

bearbeitet von Lichtmann
Link zum Beitrag
Auf anderen Seiten teilen

Bist Du Dir sicher, dass die Keystoneentzerrung tatsächlich bei der Aufnahme arbeitet? Ich dachte das wäre eine JPG Sache?

 

Es ist eine "JPG-Sache". Man kann die Keystoneentzerrung auch nach der RAW-Aufnahme per RAW-Entwicklung des nicht entzerrten RAWs in der Kamera beliebig verändern.

 

Eine Keystoneentzerrung bereits am RAW würde ja ohnehin nur begrenzten Sinn ergeben, da in jedem Fall "digital verbogen" wird und man sich auf diese Art für Nachbesserungen aller Art das RAW bereits verhunzt hätte.

 

So wie die Funktion implementiert wurde, finde ich sie sehr gelungen. Entwickelt man ohnehin das RAW, interessiert sie kaum. Möchte man fertige JPGs aus der Kamera, lassen sich damit u.a. nicht vernünftig vermeidbare stürzende Linien effektiv beseitigen - ohne extern noch Hand anlegen zu müssen.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mir ging es nur um die Sinnhaftigkeit des großen 9 X 11 Zoll Sensors mit 12 Magapixel, diese Kombination muss man erst mal verstehen.  ;)

 

Das sind halt etwa. 8 x 10 Inch, also wie das gängige Planfilmformat - und mit 12 Megapixeln eigentlich nur für die professionelle Anwendung bei den Firmen, die sich den Planfilm, samt Entwicklung und Scan sparen wollen. Wenn man mal die Anschaffungskosten von der Large Sense Kamera ansieht muss es schon gut gerechnet sein, wenn man damit das analoge Arbeiten kostengünstig digital erledigen möchte - zumal die Frage wäre, ob das analoge Ergebnis per Scanner nicht vielleicht besser ist im Resultat als die 12 mPx.

 

Man rechne mal teuer: 10 Blatt Planfilm liegen um 35-40 Euro, wenn man dann noch den Scan rechnet, der irgendwo zwischen 10-15 Euro liegt pro Blatt, dann kommt man auf etwa 15-20 Euro pro Foto - zzgl. Entwicklung von etwa 2-3 Euro beim Dienstleister - rechnet man also teure 18-23 Euro pro Blatt, dann sind das bei ca. 100.000 Euro Anschaffung der Kamera gute 4350 Fotos wenn man dabei den Film und die Dienstleister oder auch eigenes Personal spart. Ein weiterer Vorteil wäre das sofort sichtbare Ergebnis.

 

Wenn man als Firma eine Fachkamera mit Optik, Film und einen Trommelscanner und die Entwicklungsausrüstung kauft, dann relativiert sich der Preis vielleicht langfristig.

 

:)

Link zum Beitrag
Auf anderen Seiten teilen

 ein Interesse der Produktfotografie, denn die arbeiten teilweise heute gezielt auf Film z.B. mit Fachkameras um per Balgen die Physik bei der Entzerrung oder Schärfentiefe zu kompensieren und aus anderen Gründen. Eben alles sehr speziell.

 

:)

 

Na die können gut mit einem riesigen Scannerrückteil arbeiten, das sogar farbige Pixel haben kann.

Wogegen 11x9 und 12 Mp auf die Dunkelheit zielt.

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

 zumal die Frage wäre, ob das analoge Ergebnis per Scanner nicht vielleicht besser ist im Resultat als die 12 mPx.

:)

 

Das frage ich mich auch, eine 8X1o inch Analogaufnahme mit einem Trommelscanner müsste doch top sein (zumindest war das zu Analogzeit noch so).  B)

 

Ich glaube die Kamera ist einfach zu speziell für was auch immer.  ;)

 

Ich frage mich auch, warum noch kein Digital Back Hersteller, ein Ansel Adams Gedächtnis-Back heraus gebracht hat?  :)

 

bearbeitet von Lichtmann
Link zum Beitrag
Auf anderen Seiten teilen

Das frage ich mich auch, eine 8X1o inch Analogaufnahme mit einem Trommelscanner müsste doch top sein (zumindest war das zu Analogzeit noch so).  B)

Das ist auch so, ein richtig Trommelscan löst locker mal den Planfilm auf 8000 DPI auf, das ist schon extrem gut im Vergleich zu 12 mPX bei 8x10 inch.

 

Ich glaube die Kamera ist einfach zu speziell für was auch immer.  ;)

Das hat der Hersteller auch bemerkt, die Seite liest sich in etwa so "wenn Interesse besteht bauen wir mal eine Kamera"

 

:)

Link zum Beitrag
Auf anderen Seiten teilen

Ich greife da noch mal das auf:

 

Wenn die Belichtung nahe der Sättigung (ohne Ausfressen, was an sich ohne Not und/oder Absicht schon ein Belichtungsfehler ist) nach + oder - verschoben wird, dann hat das gravierende Auswirkungen auf die Eingangsdynamik. Der Sensor nimmt nämlich die Helligkeitswerte linear auf, d. h. ohne die logarithmische Augenkurve. Die wird erst später im Imageprozessor gemacht (Gradationskurve).

Wenn man die Belichtung von 100% (gerade Sättigung) um nur 1% (!) nach unten (-) "korrigiert", dann hat das am dunklen Ende zur Folge, dass das untere eine Prozent weiter in das Rauschen des Sensors, bzw. unterhalb des Read Noise und der Quanteneffizienz geschoben wird. Damit wird die Eingangsdynamik schon auf nur ca. 7 Blendenstufen reduziert!

Unter 100:(2^7) = 0,78 muss nun der Imageprozessor noch retten was zu retten ist.

Was bleibt also übrig, wenn ein Sensor theoretisch 14 Stufen kann, aber nicht bis 100% ausgereizt wird?

Nach dem obigen Beispiel muss der Imageprozessor die 7 Stufen darunter innerhalb der 0,78% verteilen.

 

 

 

womöglich habe ich irgendwo nicht aufgepasst, aber kannst du mir erklären wie du auf diese Rechnung kommst? Vor allem, wo plötzlich einfach diese 7 herkommt und, was diese 0,78 darstellen soll.

 

Ich verstehe den Beitrag auch nicht. Ich interptetiere den Text so, dass bei einer Belichtungsänderung um -1 % gleich 7 Stufen an Dynamik verloren gehen sollen?

 

Der Gedankengang dahinter ist wahrscheinlich dieser:

 

Wenn ich ca 16000 Helligkeitsstufen habe (14 bit), dann ist 1 % 160 Helligkeitsstufen. Das sind etwas mehr als 7 bit (2 hoch 7 ist 128).

Der Denkfehler ist:

1 % weniger Licht macht die 14bit-Zahl um so viel kleiner wie in den unteren 7 bits dargestellt werden können.

 

Aber ich lösche bei -1 % Belichtung diese unteren 7 bits ja nicht aus.

 

Die Rechnung gilt wohl für den Fall, dass ich nicht 1 % weniger belichte sondern nur mehr 1 % belichte, also 99 % weniger.

 

Um 7 bits zu verlieren muss ich 1/128 des Lichts auf den Sensor lassen, also 7 Blendenstufen unterbelichten.

Link zum Beitrag
Auf anderen Seiten teilen

Ich greife da noch mal das auf:

 

Ich verstehe den Beitrag auch nicht. Ich interptetiere den Text so, dass bei einer Belichtungsänderung um -1 % gleich 7 Stufen an Dynamik verloren gehen sollen?

 

(...)

 

Du hast zu recht Zweifel.

Mit Neto-Zeme hatte ich diesbezüglich schon PN-Kontakt und habe gespannt abgewartet, bis es noch jemand merkt.

 

 

Der Sensor ist, wie gesagt, linear.

Die Gradationskurve ist in etwa quadratisch mit unten und oben noch sanfteren Ausläufen. Jetzt kommt auch Net-Zemes Link

https://de.wikipedia.org/wiki/Lichtwert

zum Zug mit den Logarithmus zur Basis 2.

Das ist in etwa auch die Augencharkteristik. Das Auge adapiert mittels der Irisblende und im Dunkeln zusätzlich noch mit Netzhautverändrungen.

Wenn die Belichtung um einen Betrag reduziert wird, dann verliert die Gesamtdynamik um diesen Betrag. In den Tiefen geht es ja nicht tiefer.

 

Der Satz "Damit wird die Eingangsdynamik schon auf nur ca. 7 Blendenstufen reduziert!" ist allerdings Käse. Wie ich darauf gekommen bin ist mir schleierhaft, weiß nicht was ich dabei gerade im Kopf hatte. Vermutlich hatte ich die /(2^7) im Kopf, was bezogen auf 100% eben 0,78% ist.

(An Neto-Zeme hatte ich dann geschrieben 'Bin mal gespannt, ob noch andere darauf kommen'.)

 

Die 7 Blendenstufen rutschen bezogen auf das reduzierte Belichtungslevel etwas nach unten.

Natürlich wird da nichts negativ und absolut 0 auch nichts. Nehmen wir mal den Maßstab feiner, sagen wir wie bei üblichen Wandlern 16 Bit Tiefe, also 65536 Stufen statt 100 (%). Beispielsweise 18, 20 oder 24 Bit wäre auch möglich, bringt nur nichts, weil die Wandler nur mit sehr viel Aufwand stabil genug zu machen wäre. Das war mal mein mühevolles Geschäft. Das kann man für Kameras ohne Temperaturkostanthaltung und ohne diffizieles Layout für jeden einzelnen Wandler vergessen.

Bleiben wir aber mal bei 65536 Stufen, also 0 bis 65535, und arbeiten wir mal nicht mit 1% sondern mit jeweils 1/2 der Belichtung (-1 EV), also mit den Logarithmus zur Basis 2 oder wie ich schrieb:

Sättigung :(2^x) wobei Sättigung, also die Pixel voll bis zum Rand = 65536 ist.

1/2 ist also 65536 : (2^1) = 32768

Das können wir jetzt weiterspinnen bis z. B. 14 EV zurück, also

65536 : (2^14) = 65536 : 16384 = 4

Bei den 4 Stufen kann man nicht mehr viel Helligkeitsauflösung erwarten. Außerdem wird damit klar, was von einer Dynamik von 14 Blendenstufen zu halten ist.

Gehe ich von einer Korrektur von -1 EV aus, dann ist mein Wandler nur bis zur Hälfte gefüllt und ich beginne bei 32768.

Dann bin ich mit 13 EV weniger schon bei 32768 : (2^13) = 32768 : 8192 = 4

 

Deshalb wird auch nicht linear, sonder quadratisch und zusätzlich mit sanfteren Übergängen an den Enden gearbeitet.

http://www.elmar-baumann.de/fotografie/ebv/grundlegend-19.html

Der Funktionsgraph ist zwar zunächst eine gerade, aber der Maßstab ist quadratisch, was einfach einen praktischen Grund hat und außerdem ja der Augencharakteristik entspricht. Anderenfalls würde man mit dem Maßstab alle Sheets sprengen.

Interessant ist in diesem Zusammenhang, dass viele der ersten Bits "weggeworfen" werden und die Kurve erst viel später angesetzt wird.

Das wird nur fast nie irgendwo dargelegt. Am Ende werden meist 12 Bits = 4096 Stufen verwendet oder bei dem elektronischen Verschluss sogar (bei den älteren Kameras zumindest) nur 10 Bit (1024 Stufen). Diese Stufen werden dann zwischen Rauschen und Sättigung in einer Tonwertkurve gelegt.

 

Es ist wie bei der Audiotechnik, wo man das mit den dB an Stelle der Blendenstufen oder EV macht.

Die "4" in dem Beispiel:

Heißt, dass bei linearer Teilung für die untere Stufe (EV) nur 4 Stufen Auflösung bleiben.

Von -10 EV bis -9 EV sind es für diese eine Blenden-Stufe dann schon

65536 : (2^9) - 65536 : (2^10) = 64 Stufen Auflösung.

Für die höchste Helligkeitsstufe bis zur Sättigung sind es dann (also für die oberen 50% der Helligkeit, immer bei linearer Teilung) sinnlose 32768 Stufen. Das Auge verhält sich wie das Gehör.

Deshalb die nichtlineare (in etwa quadratische) Quantisierungskennlinie mit flachem Auslauf an den Enden:

https://www.systemkamera-forum.de/index.php?app=core&module=attach&section=attach&attach_rel_module=post&attach_id=300069

Dann bleiben in den Schatten mehr Stufen und in den Lichtern weniger Stufen zur Verarbeitung.

 

Beispiel aus der Praxis mit LED-Beleuchtung für ein optisches Instrument:

Eine LED hat in ihrem Arbeitsbereich eine lineare Emissionskennlinie. Wenn die LED mit einem Maximalstrom von 5 A betrieben werden kann, dann würde der Strom von 2,5 A bis 5 A gerade eine Blenden-Stufe bedeuten. Diesen Bereich von 50% bis 100% Helligkeit mit einem 8-Bit-Wandler mit einer Auflösung von 256 : 2 = 128 Quantisierungsstufen zu betreiben ist Quatsch. Dafür reichen für praktisch nicht mehr sichtbare Helligkeits-Abstufung 5 Quantisierungsstufen. Anders ist das im Bereich ab 1 mA. Das Leuchten der LED (nicht alle, aber es gibt welche, die diesen Dynamikbereich können) ist dabei deutlich sichtbar. 19,53 mA entspricht - 8 EV. Für den Bereich bis 39 mA habe ich dann nur 1 Quantisierungsstufe zur Verfügeng, was einen riesigen und sehr deutlich sichtbaren Helligkeitssprung, nämlich 1 Blendenstufe, erzeugt. Bei Bildern nennt man solche Stufen Tonwertabrisse.

Den ebenfalls interessanten Bereich unter 19 mA kann man dann gar nicht sinnvoll einstellen. Also muss dafür eine andere Lösung her, um auch in den Bereich geringer Helligkeit bis runter zu einem LED-Strom von 1 mA eine kleine Abstufung zu erreichen.

Ein 12-Bit-Wandler reicht dafür auch noch nicht, weil dann immer noch ein Sprung von 1,22 mA bis 2,44 mA entsteht, was einer Blendenstufe entspricht und ebenfalls als großer Sprung empfunden wird. Dagegen hilft nur eine wesentlich feinere Abstufung in den niedrigen Werten, die man z. B. genauso wie bei der Sensordatenverarbeitung in Form einer flacher werdenden Kurve bei der Zuordnung der ursprünglich linearen Werte realisiert.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Der Satz "Damit wird die Eingangsdynamik schon auf nur ca. 7 Blendenstufen reduziert!" ist allerdings Käse. Wie ich darauf gekommen bin ist mir schleierhaft, weiß nicht was ich dabei gerade im Kopf hatte. Vermutlich hatte ich die /(2^7) im Kopf, was bezogen auf 100% eben 0,78% ist.

(An Neto-Zeme hatte ich dann geschrieben 'Bin mal gespannt, ob noch andere darauf kommen'.)

 

Ich möchte mal anmerken, auch nachgefragt zu haben, ob das eine Fehlbelichtung von 7EV vorliegt (#422). Ist zwar kein mathematischer Ansatz, aber von der Praxis her konnte das nicht sein.

 

Link zum Beitrag
Auf anderen Seiten teilen

;) ... drei von ..?.. Lesern. Das ist nicht viel.

 

Was erwartest Du? Ich wäre schon erstaunt, wenn drei Leute Dein letztes Posting bis zum Ende gelesen hätten.

 

Sowas tut sich ein Hobby Fotograf am Samstag Vormittag in einem freien Land doch nicht an    :D

bearbeitet von dapeda
Link zum Beitrag
Auf anderen Seiten teilen

Wenn man jeden Käse der hier geschrieben wird korrigieren wollte hätte man viel zu tun. Zumindest ich weiß in der Regel besseres mit meiner Zeit anzufangen ;)

 

Grüße

Phillip

 

 

Ich finde es eher schlimm das solche Threads immer so eine hohe Frequentierung haben.........

Link zum Beitrag
Auf anderen Seiten teilen

;) ... drei von ..?.. Lesern. Das ist nicht viel.

 

Deine Beiträge sind gut, manchmal einfach zu wissenschaftlich, haben zu wenig Bildzeitungscharakter   :D , da steigt zB einer wie ich einfach aus, und denkt sich: ja ja, erzähl du mir mal was von 7Blenden Dynamikverlust, habe ich in der Praxis noch nie erlebt (und kann es rechnerisch nicht begründen und belegen).

 

Übrigens, verstehe auch nicht, warum sich so viele das Bild meiner selbstgebastelten Kamera herunterladen.  :huh:

 

bearbeitet von Lichtmann
Link zum Beitrag
Auf anderen Seiten teilen

Wenn man jeden Käse der hier geschrieben wird korrigieren wollte hätte man viel zu tun. Zumindest ich weiß in der Regel besseres mit meiner Zeit anzufangen ;)

 

Grüße

Phillip

 

Noch schlimmer ist, wenn man sich in dieser Art gegenüber einem Mitforenten persönlich äußert. Wolfgang hat zugegeben, dass er mit einer Äußerung nicht richtig lag.

 

Link zum Beitrag
Auf anderen Seiten teilen

Noch schlimmer ist, wenn man sich in dieser Art gegenüber einem Mitforenten persönlich äußert. Wolfgang hat zugegeben, dass er mit einer Äußerung nicht richtig lag.

 

 

Und quasi seine "Fakten" noch so lange stehen gelassen, bis es öffentlich gemacht wurde.

 

 

Mit Neto-Zeme hatte ich diesbezüglich schon PN-Kontakt und habe gespannt abgewartet, bis es noch jemand merkt.

Link zum Beitrag
Auf anderen Seiten teilen

Noch schlimmer ist, wenn man sich in dieser Art gegenüber einem Mitforenten persönlich äußert. Wolfgang hat zugegeben, dass er mit einer Äußerung nicht richtig lag.

Das interpretierst du jetzt aber in meinen Beitrag rein, ohne dass es da steht. Ich habe bewusst allgemein von "jedem Käse"

gesprochen.

 

Davon leben ein paar Threads :D

Gefühlt lebt davon das halbe Forum. Meist siegt dann aber die Beharrlichkeit über die sachlichen Argumente.

 

Grüße

Phillip

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...