Olly Mpus Geschrieben 4. Mai 2019 Autor Share #26 Geschrieben 4. Mai 2019 Werbung (verschwindet nach Registrierung) vor 4 Stunden schrieb Zuiko-Knipser: https://www.digitalkamera.de/Meldung/Neuer_Panasonic-Sensor_bringt_neue_Hoffnung/4060.aspx Selbst wenn es so wäre kannst du immernoch nicht aus einem Objektiv welches nur 20MP Auflösung bringt 80MP rausholen. In den Freiräumen zwischen den Pixeln würde kein anderes Licht auftreffen als auf den Pixeln an sich. ( Mal abgesehen von der grauenhaften Vereinfachung das ein Objektiv eine Auflösung von irgendwelchen Pixeln hätte) Du solltest Deine Zitate und Beispiele vorher mal lesen. Das Beispiel ist ein Sensor, der so NICHT in Fotokameras existiert, das ist eine Idee für stationäre Überwachungskameras. Abgesehen davon haben diese Linsen auch eine Vignettierung, ich denke mal in den Ecken kommt auch nur ein Bruchteil an und der Hauptbereich ist kreisrund. Und das war Zukunftsmusik von 2007, als Panasonic noch für ihre verrauschten Sensoren bekannt war. Ich habe auch nicht behauptet, daß Objektive Pixel hätten. Vielleicht mal Fungus. 😉 Eine grausam verfälschte Sichtweise. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Werbung Geschrieben 4. Mai 2019 Geschrieben 4. Mai 2019 Hi Olly Mpus, Das könnte für dich interessant sein: Auflösung der Objektive bei HighRes - erstaunlich schlecht . Da findet jeder was…
Zuiko-Knipser Geschrieben 4. Mai 2019 Share #27 Geschrieben 4. Mai 2019 Ich weiss nicht worauf du hinaus willst. Mikrolinsen sind seit über einem Jahrzehnt Standard und erreichen Füllgrade über 80%. Da ist nicht wirklich was mit "zwischen den Pixeln" aufnehmen. Noch besser sind nur BSI Sensoren. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
outofsightdd Geschrieben 4. Mai 2019 Share #28 Geschrieben 4. Mai 2019 Mir scheint, dass da vor allem die Qualität des Algorithmus von Pixelshift getestet wurde. Das Ergebnis ist, oh welch Wunder, in 100%-Ansicht ist ein 50MP-Bild nicht so scharf, wie im Normalbetrieb 20MP bei 100%. Das hat ja auch nie jemand versprochen. Deswegen sind jetzt die Objektive schlecht, so ein Käse. Es wurde wohl nur die mittige Auflösung geprüft, da wundern mich auch nicht die geringen Unterschiede zwischen den Objektiven. matthis hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Alhambra Geschrieben 4. Mai 2019 Share #29 Geschrieben 4. Mai 2019 Das wäre ein interessantes Thema für Anders Uschold 😊 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matthis Geschrieben 4. Mai 2019 Share #30 Geschrieben 4. Mai 2019 vor 4 Stunden schrieb outofsightdd: Mir scheint, dass da vor allem die Qualität des Algorithmus von Pixelshift getestet wurde. Das Ergebnis ist, oh welch Wunder, in 100%-Ansicht ist ein 50MP-Bild nicht so scharf, wie im Normalbetrieb 20MP bei 100%. Das hat ja auch nie jemand versprochen. Deswegen sind jetzt die Objektive schlecht, so ein Käse. Es wurde wohl nur die mittige Auflösung geprüft, da wundern mich auch nicht die geringen Unterschiede zwischen den Objektiven. Bei dem Testaufbau gibt es drei Unbekannte: Die Leistung des Objektivs, den Pixelshift-Algorithmus (einschliesslich dessen Umsetzung in JPEG) und die eher unbekannte Software, die der Tester verwendet hat. Damit ist völlig offen, was eigentlich getestet wurde. Der Testaufbau ist daher unsinnig. Wenn man wissen will, wie hoch ein Objektiv auflöst, braucht man keinen Pixelshift zu bemühen. Imatest z. B. kann oberhalb der eigentlichen Auflösung des Sensors messen. Das ist aber eine Eigenheit des Messverfahrens und sagt nichts darüber aus, welche Auflösung in einem mit dem gleichen Sensor gemachten Bild erzielt werden kann. Rolfneck und outofsightdd haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rolfneck Geschrieben 5. Mai 2019 Share #31 Geschrieben 5. Mai 2019 Lichtwellenlänge und Sensorzellengröße sind mittlerweile in einem Verhältnis, in dem Quanteneffekte eine Rolle spielen, und statistische obendrein (Stichwort Heisenbergsches Unschärfeprinzip). Das reale Photo besteht also aus verschmierten "Lichtstrahlen", deren Farbe und Intensitätsverlauf unbekannt sind. Die Rechenleistung und Akkukapazität einer Bildwandlereinheit sind limitiert. Die Farbempfindlichkeit einer Sensorzelle wurde von etwas bunt auf "blaß" herabgesetzt, weil hohe ISO's "geil" sind, und im "USAF"-Auflösungstest bessere Werte resultieren (wenn man dieser provokanten Behauptung keinen Glauben schenken mag - wie kommt es, dass ein ein 13 MPixel Foveon-Sensor 40 MPixel abliefert 😁?). Matthis hat es - und nicht nur er - schon geschrieben. Mit Pixelshift kann man die BQ verbessern, allerdings in einem beschränkten Umfang. Die Verbesserung hängt vom Motiv ab, weil die Software aus den Helligkeitswerten benachbarter Pixel einfach nur einen möglichen Farb- und Helligkeitsverlauf ermittelt (es gibt RAW- und jpg-Optionen in der Kamera, die dies in einem beschränken Umfang steuern), was nichts als eine von vielen möglichen Lösungen ist. Das ist die Crux einer unscharfen Information und mangelnder Rechenleistung für die wahrscheinlichste oder beste Lösung. Auch KB (24 MP als Beispiel) ist von diesem Problem nicht befreit. Ein einfaches Rechenbeispiel: ein 4 µm breiter Lichtstrahl landet mittig auf einer Zelle. Rein statistisch (und die Gauss-Statistik gilt für die praktisch langen Belichtungszeiten ±1 ms) wird die Grenze der Sensorzelle bei 1,2facher Standardabweichung erreicht. Das ist gut für 35-70% des auftreffenden Lichts. Der Rest landet - perfekte Optik etc vorausgesetzt - auf den Nachbarzellen. S/W-Auflösungswerte jenseits 1000 lbh sind also Ergebnis einer mathematischen Spekulation für einen Sensor mit 5µm breiten Photozellen. Diese sind für gegebene Umstände (z. B. ein USAF-Auflösungschart oder ein Siemensstern) durchaus begründet, aber keine Beurteilungsbasis für die mögliche Leistung unter allen Umständen. MFT-Sensoren sind von ihrer Größe her erst recht jenseits der klassischen Physik. Da eine Sensorzelle zudem noch farbspezifisch agieren soll, relativiert sich dies wieder. Idealerweise hätte der ideale Sensor alle Photozellen aller Farben innerhalb der mittleren Wellenlänge des interessierenden Lichtspektrums. Benutzer von diversen Altgläsern werden auch schon festgestellt haben, dass die ach so schlechten alten Objektive recht vernünftige Ergebnisse mit anderen Parametern abliefern, als für aktuelle Optiken. Wir sind an dem Punkt, wo die digitale Fotografie besser wird kann als die analoge; besser ist sie, wenn man die Farbtreue nicht beachtet (wobei das Thema schwierig ist, wie Schallplatte vs digitaler Musik). Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Zuiko-Knipser Geschrieben 5. Mai 2019 Share #32 Geschrieben 5. Mai 2019 Werbung (verschwindet nach Registrierung) Mittlerweile? Der photoelektrische Effekt, also die absolute Grundlage der digitalen Fotografie geht auf den Welle-Teilchen-Dualismus zurück, also auf einen Grundstein der Quantenmechanik. Mit der Größe irgendwelcher Pixel hat das gar nicht zu tun. Die Quantenphysik greift erst richtig wenn man die Vorgänge im Atom beschreiben will. Der Pixelpitch bewegt sich heute irgendwo im Bereich der Mikrometer, die Quantenmechanik tritt erst so ab einem Bereich einstelliger Femtometer wirklich zum Vorschein. Da sind noch 3 Potenzen dazwischen. Die Heisenbergsche Unschärferelation hat auch nichts mit unscharfen Lichtstrahlen zu tun 😂 Frequenz und Amplitude von Lichtwellen können wir sauber bestimmen, da spuckt uns die Quantenmechanik nicht in die Suppe. Problematisch würde es wenn du gleichzeitig den genauen Ort des Lichtteilchens bestimmen willst, wozu aber das? Dem Rest kann ich dann nicht mehr Folgen, von welchem Gauß Funktionen sprichst du? Die Lichtstrahlen die auf den Sensor treffen sind nicht durch Zufallsfunktionen bestimmt sondern haben exacte Richtungen, selbst bei der Beugung. Grüße Alexander Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige (Anzeige) Ich würde dir das Adobe Creative Cloud Foto-Abo mit Photoshop und Lightroom empfehlen
Rolfneck Geschrieben 6. Mai 2019 Share #33 Geschrieben 6. Mai 2019 (bearbeitet) Am 5.5.2019 um 02:56 schrieb Zuiko-Knipser: Problematisch würde es wenn du gleichzeitig den genauen Ort des Lichtteilchens bestimmen willst, wozu aber das? Genau das ist es - ein ±0,5 µm "dicker" Lichtquant trifft nicht exakt am erwarteten Ort auf, sondern auch mal leicht daneben. Die Verschlußzeiten sind viel größer als die Zeit, die ein Lichtsensor braucht, um (im Falle eines "Erfolgs") ein Elektron zu "aktivieren". Wenn man von einem (aus Sicht der Belichtungszeit) gleichmäßigen Lichtstrom auf die Sensoren ausgeht, so sind das sehr viele Photonen, für deren Ortsverteilung der Anregung eine Gauss-Statistik gilt (mit einer Standardabweichung >= halbe Wellenlänge). Im Ergebnis wird sich ein abgegrenzter Lichtstrahl entlang seiner Wirkbreite nicht als eine "Rechteckfunktion", sondern als "Hut mit Knick" über die gemessenen Intensitäten manifestieren. Die Schärfungsalgorhythmen in der Kamera bzw. in LR berücksichtigen dies, indem sie - je nach Einstellung - lokal und/oder global nachschärfen. Da sie nicht wissen, was Helligkeitsverlauf und was Quanteneffekte sind, ist dieser Ansatz spekulativ. Eine Aufnahme, die aus um halbe Pixelgröße verschobene Teilbilder zusammengerechnet wird, und deren Dimension nahe der Wellenlänge des verursachenden Lichts liegt, wird nicht "doppelt so scharf". Es ist zu erwarten, dass die resultierende Schärfe eine Funktion des Motivs und der Optik ist. bearbeitet 6. Mai 2019 von Rolfneck Korrektur Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Zuiko-Knipser Geschrieben 6. Mai 2019 Share #34 Geschrieben 6. Mai 2019 Ein "Lichtquant" nennt man Photon und es ist nicht mal ansatzweise 0,5 µm groß, nichtmal die Größenordnung. Ich kenne in dem Zusammenhang nur das sogenannte Schrotrauschen, das ist aber weißes Rauschen und wird durch eine Poisson Verteilung angenähert und hat nichts mit einer Gauß-Normalverteilung zu tun. Der Effekt tritt auch nur bei extrem niedrigen Leuchtdichten auf und limitiert eher die Sensorempfindlichkeit. Hast du da irgendeine Quelle aus der man diese Effekte nachlesen kann? Grüße Alexander Kleinkram hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wasabi65 Geschrieben 7. Mai 2019 Share #35 Geschrieben 7. Mai 2019 vor 21 Stunden schrieb Rolfneck: halbe Pixelgröße verschobene Teilbilder zusammengerechnet wird, und deren Dimension nahe der Wellenlänge des verursachenden Lichts liegt Ich glaube du irrst um Grössenordnungen... Kleinkram hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
pizzastein Geschrieben 7. Mai 2019 Share #36 Geschrieben 7. Mai 2019 vor 33 Minuten schrieb wasabi65: Ich glaube du irrst um Grössenordnungen... Wenn ich mich gerade nicht verrechne, haben mFT-Sensoren mit 20 MP Pixel mit einer Kantenlänge von ca. 3,3 Mikrometer, sichtbares Licht liegt um den Bereich von 0,55 Mikrometer (grün). So weit liegt das gar nicht auseinander. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
CEHorst Geschrieben 7. Mai 2019 Share #37 Geschrieben 7. Mai 2019 (bearbeitet) vor 46 Minuten schrieb pizzastein: sichtbares Licht liegt um den Bereich von 0,55 Mikrometer (grün). Nein, bei 550 nm. bearbeitet 7. Mai 2019 von CEHorst pizzastein, wasabi65 und flyingrooster haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
freaksound Geschrieben 8. Mai 2019 Share #38 Geschrieben 8. Mai 2019 vor 11 Stunden schrieb CEHorst: Nein, bei 550 nm. du weisst aber schon, daß 1000 nm einem my entsprechen? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
CEHorst Geschrieben 8. Mai 2019 Share #39 Geschrieben 8. Mai 2019 vor 31 Minuten schrieb freaksound: du weisst aber schon, daß 1000 nm einem my entsprechen mmh mmh 😀 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
flyingrooster Geschrieben 8. Mai 2019 Share #40 Geschrieben 8. Mai 2019 (bearbeitet) vor einer Stunde schrieb freaksound: du weisst aber schon, daß 1000 nm einem my entsprechen? Und dennoch entsprechen sich die beiden Angaben nicht, da @CEHorst eine signifikante Stelle mehr angegeben hat und daher den Wellenlängenbereich genauer definiert. Eben darauf zielte seine Kritik doch sicher ab … Ob die Angabe korrekter ist, sei dahingestellt. bearbeitet 8. Mai 2019 von flyingrooster Link zum Beitrag Auf anderen Seiten teilen More sharing options...
pizzastein Geschrieben 8. Mai 2019 Share #41 Geschrieben 8. Mai 2019 vor 21 Minuten schrieb flyingrooster: Ob die Angabe korrekter ist, sei dahingestellt. Das war alles falsch... nach wikipedia tendieren 550 nm gefährlich zu grün-gelb, grün liegt gemittelt bei 525 nm. https://de.wikipedia.org/wiki/Spektralfarbe Link zum Beitrag Auf anderen Seiten teilen More sharing options...
flyingrooster Geschrieben 8. Mai 2019 Share #42 Geschrieben 8. Mai 2019 vor 8 Minuten schrieb pizzastein: Das war alles falsch... nach wikipedia tendieren 550 nm gefährlich zu grün-gelb, grün liegt gemittelt bei 525 nm. Wie Kermit der Frosch bereits wusste: „Es ist nicht einfach grün zu sein.“ … micharl, pizzastein, RoDo und 1 weiterer haben darauf reagiert 4 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wasabi65 Geschrieben 8. Mai 2019 Share #43 Geschrieben 8. Mai 2019 (bearbeitet) vor 21 Stunden schrieb pizzastein: 20 MP Pixel mit einer Kantenlänge von ca. 3,3 Mikrometer Seit wann haben Sensoren Pixel? 😎 https://www.ephotozine.com/article/complete-guide-to-image-sensor-pixel-size-29652#Micro Four Thirds bearbeitet 8. Mai 2019 von wasabi65 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden