Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 4 Stunden schrieb Zuiko-Knipser:

https://www.digitalkamera.de/Meldung/Neuer_Panasonic-Sensor_bringt_neue_Hoffnung/4060.aspx

Selbst wenn es so wäre kannst du immernoch nicht aus einem Objektiv welches nur 20MP Auflösung bringt 80MP rausholen. In den Freiräumen zwischen den Pixeln würde kein anderes Licht auftreffen als auf den Pixeln an sich.

 

( Mal abgesehen von der grauenhaften Vereinfachung das ein Objektiv eine Auflösung von irgendwelchen Pixeln hätte)

Du solltest Deine Zitate und Beispiele vorher mal lesen. Das Beispiel ist ein Sensor, der so NICHT in Fotokameras existiert, das ist eine Idee für stationäre Überwachungskameras. Abgesehen davon haben diese Linsen auch eine Vignettierung, ich denke mal in den Ecken kommt auch nur ein Bruchteil an und der Hauptbereich ist kreisrund. Und das war Zukunftsmusik von 2007, als Panasonic noch für ihre verrauschten Sensoren bekannt war.

 

Ich habe auch nicht behauptet, daß Objektive Pixel hätten. Vielleicht mal Fungus. 😉  Eine grausam verfälschte Sichtweise.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Mir scheint, dass da vor allem die Qualität des Algorithmus von Pixelshift getestet wurde. Das Ergebnis ist, oh welch Wunder, in 100%-Ansicht ist ein 50MP-Bild nicht so scharf, wie im Normalbetrieb 20MP bei 100%. Das hat ja auch nie jemand versprochen. Deswegen sind jetzt die Objektive schlecht, so ein Käse.

Es wurde wohl nur die mittige Auflösung geprüft, da wundern mich auch nicht die geringen Unterschiede zwischen den Objektiven.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb outofsightdd:

Mir scheint, dass da vor allem die Qualität des Algorithmus von Pixelshift getestet wurde. Das Ergebnis ist, oh welch Wunder, in 100%-Ansicht ist ein 50MP-Bild nicht so scharf, wie im Normalbetrieb 20MP bei 100%. Das hat ja auch nie jemand versprochen. Deswegen sind jetzt die Objektive schlecht, so ein Käse.

Es wurde wohl nur die mittige Auflösung geprüft, da wundern mich auch nicht die geringen Unterschiede zwischen den Objektiven.

Bei dem Testaufbau gibt es drei Unbekannte: Die Leistung des Objektivs, den Pixelshift-Algorithmus (einschliesslich dessen Umsetzung in JPEG) und die eher unbekannte Software, die der Tester verwendet hat. Damit ist völlig offen, was eigentlich getestet wurde. Der Testaufbau ist daher unsinnig.

Wenn man wissen will, wie hoch ein Objektiv auflöst, braucht man keinen Pixelshift zu bemühen. Imatest z. B. kann oberhalb der eigentlichen Auflösung des Sensors messen. Das ist aber eine Eigenheit des Messverfahrens und sagt nichts darüber aus, welche Auflösung in einem mit dem gleichen Sensor gemachten Bild erzielt werden kann.

Link zum Beitrag
Auf anderen Seiten teilen

Lichtwellenlänge und Sensorzellengröße sind mittlerweile in einem Verhältnis, in dem Quanteneffekte eine Rolle spielen, und statistische obendrein (Stichwort Heisenbergsches Unschärfeprinzip). Das reale Photo besteht also aus verschmierten "Lichtstrahlen", deren Farbe und Intensitätsverlauf unbekannt sind. Die Rechenleistung und Akkukapazität einer Bildwandlereinheit sind limitiert. Die Farbempfindlichkeit einer Sensorzelle wurde von etwas bunt auf "blaß" herabgesetzt, weil hohe ISO's "geil" sind, und im "USAF"-Auflösungstest bessere Werte resultieren (wenn man dieser provokanten Behauptung keinen Glauben schenken mag - wie kommt es, dass ein ein 13 MPixel Foveon-Sensor 40 MPixel abliefert 😁?).

Matthis hat es - und nicht nur er - schon geschrieben. Mit Pixelshift kann man die BQ verbessern, allerdings in einem beschränkten Umfang. Die Verbesserung hängt vom Motiv ab, weil die Software aus den Helligkeitswerten benachbarter Pixel einfach nur einen möglichen Farb- und Helligkeitsverlauf ermittelt (es gibt RAW- und jpg-Optionen in der Kamera, die dies in einem beschränken Umfang steuern), was nichts als eine von vielen möglichen Lösungen ist. Das ist die Crux einer unscharfen Information und mangelnder Rechenleistung für die wahrscheinlichste oder beste Lösung. Auch KB (24 MP als Beispiel) ist von diesem Problem nicht befreit. Ein einfaches Rechenbeispiel: ein 4 µm breiter Lichtstrahl landet mittig auf einer Zelle. Rein statistisch (und die Gauss-Statistik gilt für die praktisch langen Belichtungszeiten ±1 ms) wird die Grenze der Sensorzelle bei 1,2facher Standardabweichung erreicht. Das ist gut für 35-70% des auftreffenden Lichts. Der Rest landet - perfekte Optik etc vorausgesetzt - auf den Nachbarzellen.

S/W-Auflösungswerte jenseits 1000 lbh sind also Ergebnis einer mathematischen Spekulation für einen Sensor mit 5µm breiten Photozellen. Diese sind für gegebene Umstände (z. B. ein USAF-Auflösungschart oder ein Siemensstern) durchaus begründet, aber keine Beurteilungsbasis für die mögliche Leistung unter allen Umständen. MFT-Sensoren sind von ihrer Größe her erst recht jenseits der klassischen Physik. Da eine Sensorzelle zudem noch farbspezifisch agieren soll, relativiert sich dies wieder. Idealerweise hätte der ideale Sensor alle Photozellen aller Farben innerhalb der mittleren Wellenlänge des interessierenden Lichtspektrums.

Benutzer von diversen Altgläsern werden auch schon festgestellt haben, dass die ach so schlechten alten Objektive recht vernünftige Ergebnisse mit anderen Parametern abliefern, als für aktuelle Optiken. Wir sind an dem Punkt, wo die digitale Fotografie besser wird kann als die analoge; besser ist sie, wenn man die Farbtreue nicht beachtet (wobei das Thema schwierig ist, wie Schallplatte vs digitaler Musik).

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mittlerweile? Der photoelektrische Effekt, also die absolute Grundlage der digitalen Fotografie geht auf den Welle-Teilchen-Dualismus zurück, also auf einen Grundstein der Quantenmechanik. Mit der Größe irgendwelcher Pixel hat das gar nicht zu tun. Die Quantenphysik greift erst richtig wenn man die Vorgänge im Atom beschreiben will. Der Pixelpitch bewegt sich heute irgendwo im Bereich der Mikrometer, die Quantenmechanik tritt erst so ab einem Bereich einstelliger Femtometer wirklich zum Vorschein. Da sind noch 3 Potenzen dazwischen.

Die Heisenbergsche Unschärferelation hat auch nichts mit unscharfen Lichtstrahlen zu tun 😂

Frequenz und Amplitude von Lichtwellen können wir sauber bestimmen, da spuckt uns die Quantenmechanik nicht in die Suppe. Problematisch würde es wenn du gleichzeitig den genauen Ort des Lichtteilchens bestimmen willst, wozu aber das?

 

Dem Rest kann ich dann nicht mehr Folgen, von welchem Gauß Funktionen sprichst du? Die Lichtstrahlen die auf den Sensor treffen sind nicht durch Zufallsfunktionen bestimmt sondern haben exacte Richtungen, selbst bei der Beugung.

 

Grüße

Alexander

 

Link zum Beitrag
Auf anderen Seiten teilen

Am 5.5.2019 um 02:56 schrieb Zuiko-Knipser:

Problematisch würde es wenn du gleichzeitig den genauen Ort des Lichtteilchens bestimmen willst, wozu aber das?

Genau das ist es - ein ±0,5 µm "dicker" Lichtquant trifft nicht exakt am erwarteten Ort auf, sondern auch mal leicht daneben. Die Verschlußzeiten sind viel größer als die Zeit, die ein Lichtsensor braucht, um (im Falle eines "Erfolgs") ein Elektron zu "aktivieren". Wenn man von einem (aus Sicht der Belichtungszeit) gleichmäßigen Lichtstrom auf die Sensoren ausgeht, so sind das sehr viele Photonen, für deren Ortsverteilung der Anregung eine Gauss-Statistik gilt (mit einer Standardabweichung >= halbe Wellenlänge).

Im Ergebnis wird sich ein abgegrenzter Lichtstrahl entlang seiner Wirkbreite nicht als eine "Rechteckfunktion", sondern als "Hut mit Knick" über die gemessenen Intensitäten manifestieren. Die Schärfungsalgorhythmen in der Kamera bzw. in LR berücksichtigen dies, indem sie - je nach Einstellung - lokal und/oder global nachschärfen. Da sie nicht wissen, was Helligkeitsverlauf und was Quanteneffekte sind, ist dieser Ansatz spekulativ.

Eine Aufnahme, die aus um halbe Pixelgröße verschobene Teilbilder zusammengerechnet wird, und deren Dimension nahe der Wellenlänge des verursachenden Lichts liegt, wird nicht "doppelt so scharf". Es ist zu erwarten, dass die resultierende Schärfe eine Funktion des Motivs und der Optik ist.

bearbeitet von Rolfneck
Korrektur
Link zum Beitrag
Auf anderen Seiten teilen

Ein "Lichtquant" nennt man Photon und es ist nicht mal ansatzweise 0,5 µm groß, nichtmal die Größenordnung.

Ich kenne in dem Zusammenhang nur das sogenannte Schrotrauschen, das ist aber weißes Rauschen und wird durch eine Poisson Verteilung angenähert und hat nichts mit einer Gauß-Normalverteilung zu tun. Der Effekt tritt auch nur bei extrem niedrigen Leuchtdichten auf und limitiert eher die Sensorempfindlichkeit.

Hast du da irgendeine Quelle aus der man diese Effekte nachlesen kann?

 

Grüße

Alexander

Link zum Beitrag
Auf anderen Seiten teilen

vor 33 Minuten schrieb wasabi65:

Ich glaube du irrst um Grössenordnungen...

Wenn ich mich gerade nicht verrechne, haben mFT-Sensoren mit 20 MP Pixel mit einer Kantenlänge von ca. 3,3 Mikrometer, sichtbares Licht liegt um den Bereich von 0,55 Mikrometer (grün). So weit liegt das gar nicht auseinander.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb freaksound:

du weisst aber schon, daß 1000 nm einem my entsprechen?

Und dennoch entsprechen sich die beiden Angaben nicht, da @CEHorst eine signifikante Stelle mehr angegeben hat und daher den Wellenlängenbereich genauer definiert. Eben darauf zielte seine Kritik doch sicher ab … <_<  Ob die Angabe korrekter ist, sei dahingestellt. ;)

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...