Der_Pit Geschrieben 26. Februar 2016 Share #126 Geschrieben 26. Februar 2016 Werbung (verschwindet nach Registrierung) welche denn? Hängt man eine Kamera nur zum Spaß an ein Teleskop? Hans Sorry, ich bin da noch 'ne Antwort schuldig (falls es noch wen interessiert) - war aber erstmal im Urlaub Unser (Sonnen)Teleskop hat nur ein Bildfeld von ca. 75 Bogensekunden. Bei einer Öffnung von einem Meter hat man ein (theoretisches und praktisches) Auflösungsvermögen von 0.1 Bogensekunde. Um die auch diagonal optimal zu samplen wird die Vergrösserung so adaptiert dass ein Pixel ~0.04 Bogensekunden entspricht. Das ergibt ganz grob 2kx2k Pixel - mehr ist nicht sinnvoll. Die Kameras sind natürlich keine Photokameras sondern schon spezielle CCD und neuerdings auch CMOS Chips, monochrom, laufen mit 10-50 Bilder/s und sitzen hinter speziellen Farb- und Polarisationsfiltern. Und noch eine Bemerkung zu den grossen Öffnungen der Nachtteleskope: Die ist nicht vorrangig für die Auflösung, sondern vor allem um genug Licht zu sammeln von dunklen Objekten. Dazu ein nettes Zahlenspiel: Eines der bekannteren alten Teleskope ist der 5m Spiegel auf dem Mt. Palomar, mit dem auch eine Himmelsdurchmusterung gemacht wurde (d.h. Bilder von allen erreichbaren Gebieten des Himmels). Von den dunkelsten noch erkennbaren Objekten in diesen Bildern hat das Teleskop (Fläche fast 20m²) im Mittel ein Photon je Sekunde empfangen.... So, genug geschwafelt floauso, specialbiker, hella und 1 weiterer haben darauf reagiert 4 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Werbung Geschrieben 26. Februar 2016 Geschrieben 26. Februar 2016 Hi Der_Pit, Das könnte für dich interessant sein: Sind 16 Megapixel genug? . Da findet jeder was…
nightstalker Geschrieben 26. Februar 2016 Share #127 Geschrieben 26. Februar 2016 Eines der bekannteren alten Teleskope ist der 5m Spiegel auf dem Mt. Palomar, mit dem auch eine Himmelsdurchmusterung gemacht wurde (d.h. Bilder von allen erreichbaren Gebieten des Himmels). Von den dunkelsten noch erkennbaren Objekten in diesen Bildern hat das Teleskop (Fläche fast 20m²) im Mittel ein Photon je Sekunde empfangen.... So, genug geschwafelt und ich wollte gerade anfangen den Cropfaktor auszurechnen ... Link zum Beitrag Auf anderen Seiten teilen More sharing options...
fotographer Geschrieben 26. Februar 2016 Share #128 Geschrieben 26. Februar 2016 Ein Grund der Systemkamerahersteller, die Sensorpixel hochzuschrauben, ist wohl auch die Intention dadurch teurere Objektive mit höherer Auflösung zu verkaufen. -Ein Vollformat-Objektiv, das eine Auflösung von 80 Linienpaaren pro mm hat, hat etwa die gleiche Auflösung wie ein 24MP Vollformat-Sensor, welcher 83 Linienpaaren pro mm Sensorhöhe bietet. Mehr Linienpaare muss das Objektiv nicht bieten für diesen VF-.Sensor. -Ein 24MP APSC-Sensor hat 128 Linienpaare pro mm Sensorhöhe. Schraube ich jetzt das gleiche Vollformat-Objektiv vor den 24Mp APSC-Sensor, dann ist die Auflösung des Objektivs zu niedrig, denn ein Vollformat-Objektiv sollte für den APSC-Sensor 128 Linienpaare pro mm auflösen, damit ich den APSC-Sensor optimal auflöse. Folge, ein Vollformat-Objektiv muss für eine 24 Mp APSC-Kamera höher auflösen, als für eine 24Mp VF-Kamera. Letztendlich benötige ich z.B. die gleiche Vollformat-Objektiv-Auflösung, die ich für eine 36Mp VF-Kamera benötige für den Einsatz bei einer 16Mp APSC-Kamera. (Ein Crop der A7R ist analog der NEX6 mit 16Mp). Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 27. Februar 2016 Share #129 Geschrieben 27. Februar 2016 -Ein Vollformat-Objektiv, das eine Auflösung von 80 Linienpaaren pro mm hat, hat etwa die gleiche Auflösung wie ein 24MP Vollformat-Sensor, welcher 83 Linienpaaren pro mm Sensorhöhe bietet. Mehr Linienpaare muss das Objektiv nicht bieten für diesen VF-.Sensor. theoretisch richtig, praktisch nicht so betrachtbar Auflösung eines Objektivs ist nicht hart begrenzt, sondern ist immer abhängig vom Kontrast, den man noch toleriert. dazu nochmal der Hinweis, dass auf Deinem Bayersensor blau und rot nur jeweils ein Viertel der Pixel sehen ... für eine rote Linie hat Dein Sensor also die Auflösung 6 MP ... Damit wären wir bei einem Bayersensor mit nominellen 96 MP um die theoretischen Werte Deines genannten Objektivs bei Rot darstellen zu können und weil das noch nicht schlimm genug ist, kommt auch noch das Abtasttheorem ins Spiel, das uns die Werte des Sensors auf nochmal die doppelte Menge pro Richtung erhöht ... also auf 4x 94 MP ... damit wir die 24MP des Objektivs sicher abtasten können. Du siehst, Dein 24MP Objektiv würde noch recht lange ausreichen um die Sensorhersteller auf Trab zu halten. Es lohnt nicht darüber nachzudenken oder da rumzurechnen, weil das System eben nicht so einfach funktioniert, wie wir uns das gerne vorstellen würden ... ändere ich nämlich den Kontrast, bei dem ich die Objektivergebnisse betrachte, kann ich wieder von vorne anfangen mit der Rechnerei .... und dann kommt einer daher und sagt, dass er trotz der tollen Auflösung die Ergebnisse unbrauchbar findet, weil der Mikrokontrast nichts taugt wolfgang_r, Kleinkram und Aaron haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Berlin Geschrieben 27. Februar 2016 Share #130 Geschrieben 27. Februar 2016 (bearbeitet) dazu nochmal der Hinweis, dass auf Deinem Bayersensor blau und rot nur jeweils ein Viertel der Pixel sehen ... für eine rote Linie hat Dein Sensor also die Auflösung 6 MP ... Wenn du dir die Spektralkurven eines Sensors ansiehst, dann wirst die Überlappung der Farbfilter erkennen. Deine Rechnung ist sowohl praktisch als auch theoretisch einfach Mumpitz. Dazu kommt noch, dass solche 100% gesättigten Farben eher selten sind. Beipiel: http://www.fen-net.de/walter.preiss/bilder/spectrum.gif bearbeitet 27. Februar 2016 von Berlin Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Kassühlke Geschrieben 27. Februar 2016 Share #131 Geschrieben 27. Februar 2016 (bearbeitet) Doppelpost bearbeitet 27. Februar 2016 von Kassühlke Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Kassühlke Geschrieben 27. Februar 2016 Share #132 Geschrieben 27. Februar 2016 Werbung (verschwindet nach Registrierung) Die Empörung hat sich damit lediglich umverlagert: Wofür braucht's 2000 Bilder im Urlaub? Wer soll sich die im Laufe der Jahre ansammelnden, zigtausend Bilder jemals wieder ansehen? Stimmt schon. Wenn ich meine Knipsgewohnheiten hier vergleich, komme nach dem Löschen von Ausschuss auf i.d.R. immer auf 70-80 Bilder in einer Woche Urlaub - zwei Diafilme, genau wie früher. Bzgl. Pixel: Ich hab mit 3,2mp begonnen, auf 8,5mp gesteigert(ein gewaltiger Unterschied) und jetzt 24mp(noch gewaltiger). Ich finds gut! Gruß Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige (Anzeige) Ich würde dir das Adobe Creative Cloud Foto-Abo mit Photoshop und Lightroom empfehlen
fotographer Geschrieben 28. Februar 2016 Share #133 Geschrieben 28. Februar 2016 theoretisch richtig, praktisch nicht so betrachtbar Auflösung eines Objektivs ist nicht hart begrenzt, sondern ist immer abhängig vom Kontrast, den man noch toleriert. dazu nochmal der Hinweis, dass auf Deinem Bayersensor blau und rot nur jeweils ein Viertel der Pixel sehen ... für eine rote Linie hat Dein Sensor also die Auflösung 6 MP ... Damit wären wir bei einem Bayersensor mit nominellen 96 MP um die theoretischen Werte Deines genannten Objektivs bei Rot darstellen zu können und weil das noch nicht schlimm genug ist, kommt auch noch das Abtasttheorem ins Spiel, das uns die Werte des Sensors auf nochmal die doppelte Menge pro Richtung erhöht ... also auf 4x 94 MP ... damit wir die 24MP des Objektivs sicher abtasten können. Du siehst, Dein 24MP Objektiv würde noch recht lange ausreichen um die Sensorhersteller auf Trab zu halten. Seit wann gibt es ein 24MP Objektiv. Ich habe geschrieben, dass ein Objektiv z.B. 80Linienpaare pro mm auflöst. Die Auflösung bei der RX1RII (42MP-Sensor) ist nur unmerklich besser, als bei der RX1R (24MP-Sensor), weil beide Kameras das gleiche Objektiv haben, und dieses Objektiv bei dem 42MP-Sensor nicht mehr auflösen kann, als beim 24MP-Sensor. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Horstl Geschrieben 28. Februar 2016 Share #134 Geschrieben 28. Februar 2016 Seit wann gibt es ein 24MP Objektiv..... .......weil beide Kameras das gleiche Objektiv haben, und dieses Objektiv bei dem 42MP-Sensor nicht mehr auflösen kann, als beim 24MP-Sensor. Na dann hätten wir ja ein 24MP-Objektiv. LG Horstl Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 28. Februar 2016 Share #135 Geschrieben 28. Februar 2016 Wenn du dir die Spektralkurven eines Sensors ansiehst, dann wirst die Überlappung der Farbfilter erkennen. Deine Rechnung ist sowohl praktisch als auch theoretisch einfach Mumpitz. Dazu kommt noch, dass solche 100% gesättigten Farben eher selten sind. Beipiel: http://www.fen-net.de/walter.preiss/bilder/spectrum.gif Ich habe nichts dagegen, wenn Du es besser erklärst ... ich befürchte nur, ohne gewisse Vereinfachungen wird es nicht gehen. Ich bin dann gespannt auf Deinen Beitrag. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Kleinkram Geschrieben 28. Februar 2016 Share #136 Geschrieben 28. Februar 2016 Und ich warte immer noch auf die Erklärung, warum die klitzekleinen Pixel einer 16 MPixel-1/2,3-Zoll-Kamera noch vernünftige Bilder gegen jede hier vorgestellte Auflösungstheorie liefern. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
systemcam128 Geschrieben 29. Februar 2016 Share #137 Geschrieben 29. Februar 2016 (bearbeitet) Und ich warte immer noch auf die Erklärung, warum die klitzekleinen Pixel einer 16 MPixel-1/2,3-Zoll-Kamera noch vernünftige Bilder gegen jede hier vorgestellte Auflösungstheorie liefern.Ganz einfach sie liefern keine vernünftigen Bilder, können sie auch gar nicht wenn das Objektiv nicht mehr in der Lage ist das aufzulösen.Die Auflösung des Bildes sagt überhaupt nichts über die Auflösung des Inhaltes aus. Ein hoch interpoliertes Bild wird auch nicht besser nur weil es danach mehr Pixel hat. 18MP 1/2.3" http://216.18.212.226/PRODS/panasonic-zs60/FULLRES/ZS60hSLI0080NR6D.JPG sieht deshalb auch nicht besser als: 12MP einer anderen Kamera aus: http://216.18.212.226/PRODS/EPL1/FULLRES/EPL1hSLI0100NR2D.JPG Woraus sich schließen lässt das die 18 MP hier überhaupt nicht mehr aufgelöst werden und weniger dafür aber größere Pixel bessere und rauschfreiere Bilder ermöglich hätten. bearbeitet 29. Februar 2016 von systemcam128 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rob. S. Geschrieben 29. Februar 2016 Share #138 Geschrieben 29. Februar 2016 Wobei man, denke ich, das auf Pixelebene (100%-Ansicht) betrachtete Rauschen auch noch vom Gesamtrauschen unterscheiden muss. Je mehr Pixel ich habe, umso weniger stört gleiches Pixelebene-Rauschen das Gesamtbild. Der Schluss, dass ein Sensor mit weniger Pixeln notwendigerweise weniger (Gesamt-) Rauschen gehabt hätte, ist insofern nicht unbedingt ein zwingender. Bei DxOMark (deren Testmethoden ich in Teilen für zweifelhaft halte und die Scores manchmal in mancher Hinsicht schon für hanebüchen, aber das mag hier dahingestellt bleiben) gab es dazu mal einen durchaus erhellenden Artikel ("Contrary to conventional wisdom, higher resolution actually compensates for noise"). Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Berlin Geschrieben 29. Februar 2016 Share #139 Geschrieben 29. Februar 2016 Ich habe nichts dagegen, wenn Du es besser erklärst ... ich befürchte nur, ohne gewisse Vereinfachungen wird es nicht gehen. Ich bin dann gespannt auf Deinen Beitrag. Du hast für diesen komplizierten Sachverhalt eine zu einfache Rechnung aufgemacht, die so nicht stimmt, weil durch die spektrale Überlappung der Filter die Nachbarpixel mit in die Auflösungsrechnung eingehen. Das Ergebnis hängt natürlich sehr von der Qualität des Demosaicing ab, es ist aber auf jeden Fall besser als deine Rechnung. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 29. Februar 2016 Share #140 Geschrieben 29. Februar 2016 (bearbeitet) Du hast für diesen komplizierten Sachverhalt eine zu einfache Rechnung aufgemacht, die so nicht stimmt, weil durch die spektrale Überlappung der Filter die Nachbarpixel mit in die Auflösungsrechnung eingehen. Das Ergebnis hängt natürlich sehr von der Qualität des Demosaicing ab, es ist aber auf jeden Fall besser als deine Rechnung. Das finde ich jetzt als Ahtwort auf die Eingangsfrage als ungenügend. natürlich gibts nicht soviele reine Farben und natürlich wird ein bunter Faden evtl. als leichter Schatten erscheinen,... aber das ist definitiv nicht das Maximum der Möglichkeiten ... und genau das fragte der Kollege oben. Dass ich in der Praxis auch mit 12 MP wunderbar leben kann, ist eine andere Geschichte ... es geht halt um Ansprüche. Bitte kritisiere nicht nur, sondern mache es besser als ich, wenn Du meine Vereinfachung schon als theoretischen und praktischen Mumpitz bezeichnest. bearbeitet 29. Februar 2016 von nightstalker Berlin hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Berlin Geschrieben 29. Februar 2016 Share #141 Geschrieben 29. Februar 2016 (bearbeitet) Das finde ich jetzt als Ahtwort auf die Eingangsfrage als ungenügend. Auf die Eingangsfrage würde ich antworten: Bei genügend Pixeln kann das AA Filter entfallen, denn die Objektive und die Beugung übernehmen die Funktion. Am besten wäre eine kontinuierlich lichtempfindliche Fläche. Die vielen überflüssigen Daten komprimieren wir wieder weg. Bitte kritisiere nicht nur, sondern mache es besser als ich, wenn Du meine Vereinfachung schon als theoretischen und praktischen Mumpitz bezeichnest. Ich habe miich auf die Angabe "1/4 Auflösung für die rote Line" bezogen. bearbeitet 29. Februar 2016 von Berlin nightstalker hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
ceving Geschrieben 29. Februar 2016 Share #142 Geschrieben 29. Februar 2016 Bei MFT könnten m.E. 16Mpix 'etwas wenig' sein. Grund: diese Pixel verteilen sich auf das volle 4:3 Format. Wer das nicht nutzt und z.B. 3:2 oder 16:9 bevorzugt, der bekommt sogar deutlich weniger als 16MPix. Finde daher ca. 20 Mpix oder etwas mehr bei APS-C (auf 3:2 verteilt) etwas 'beruhigender'... only my humble opinion... Gegen solche Beunruhigungen hilft etwas Mathematik. Wenn man die Kantenlängen eines Rechtecks multipliziert erhält man den Flächeninhalt: Die Größe der APS-C- oder DX-Sensoren ist also auch trotz 3:2 deutlich größer. m.c.reloaded hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Kleinkram Geschrieben 29. Februar 2016 Share #143 Geschrieben 29. Februar 2016 (bearbeitet) Ganz einfach sie liefern keine vernünftigen Bilder, können sie auch gar nicht .. Aus meiner Canon IS kommen vernünftige Bilder, vermutlich aus der FZ300 auch. Auf MFT-Fläche hochgerechnet haben sie etwa 100 bzw. 120 MP, auf KB gerechnet ca. 300 MP. Wie kann ein Objektiv das auflösen, wenn es es der Theorie nach bei wenigen zig MP begrenzt? bearbeitet 29. Februar 2016 von Kleinkram Link zum Beitrag Auf anderen Seiten teilen More sharing options...
kirschm Geschrieben 29. Februar 2016 Share #144 Geschrieben 29. Februar 2016 Gegen solche Beunruhigungen hilft etwas Mathematik. Wenn man die Kantenlängen eines Rechtecks multipliziert erhält man den Flächeninhalt: Ändert aber nichts an der mathematischen Exaktheit der 'Beunruhigung': Bin ich 30% mehr beunruhigt, wenn ein bestimmter Sensor mathematisch 30% 'weniger' hat.... ? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
tgutgu Geschrieben 29. Februar 2016 Share #145 Geschrieben 29. Februar 2016 (bearbeitet) Gegen solche Beunruhigungen hilft etwas Mathematik. Wenn man die Kantenlängen eines Rechtecks multipliziert erhält man den Flächeninhalt: Die Größe der APS-C- oder DX-Sensoren ist also auch trotz 3:2 deutlich größer. Deutlich? Na ja. Der Unterschied von APS-C nach KB dürfte erhablich größere Auswirkungen haben, als der doch relativ kleine zwischen m4/3 und APS-C. Zwischen den größeren Sensorformaten liegen hier die geringsten Unterschiede. Zumal der Unterschied auch durch das unterschiedliche Seitenverhältnis zustande kommt. bearbeitet 29. Februar 2016 von tgutgu Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 29. Februar 2016 Share #146 Geschrieben 29. Februar 2016 Deutlich? Na ja. Der Unterschied von APS-C nach KB dürfte erhablich größere Auswirkungen haben, als der doch relativ kleine zwischen m4/3 und APS-C. Zwischen den größeren Sensorformaten liegen hier die geringsten Unterschiede. Zumal der Unterschied auch durch das unterschiedliche Seitenverhältnis zustande kommt. Hier muss man unterscheiden, zwischen tatsächlicher Fläche .. sinnvoll genutzter Fläche (siehe Seitenverhältnis) und philosophischer Fläche (diese ist zB bei APS sehr deutlich grösser als bei mFT .... ) tgutgu hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
potz Geschrieben 29. Februar 2016 Share #147 Geschrieben 29. Februar 2016 auf Pixelebne wirds heikler oder bei extrem Crops.. weniger Pixel begnügen sich auch mit etwas minderem Altglas mit vielen Pixel kann ich getrost APS an KB hängen......oder die wenigsten tapezieren ganze Wohnwände und drücken gleich noch ihre Nase daran platt um jedes Staubkörnchen im Bild zu entdecken solange die BildQualität stimmt, ich die dazu benötigte hardware im gewohnten Rahmen bezahlen kann...kann von mir aus die industrie weiterhin aufrüsten wie sie will.... Link zum Beitrag Auf anderen Seiten teilen More sharing options...
fotographer Geschrieben 29. Februar 2016 Share #148 Geschrieben 29. Februar 2016 Na dann hätten wir ja ein 24MP-Objektiv. LG Horstl Ok, dann nehmen wir mal dein 24MP-Vollformatobjektiv, das 80Linienpaare pro mm auflöst vor einem Vollformat-Sensor. Vor einen APSC-Sensor geschraubt löst dieses Vollformat-Objektiv dann nur noch 10,66MP auf. (Crop-Faktor). Der 24MP-APSC-Sensor hat eine maximale Auflösung von 128 Linienpaaren pro mm Sensorfläche. Diese Auflösung (128lp/mm) kann das "24MP-Vollformat-Objektiv" mit seinen 80 lp/mm nicht bedienen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
m.c.reloaded Geschrieben 29. Februar 2016 Share #149 Geschrieben 29. Februar 2016 (bearbeitet) Hier muss man unterscheiden, zwischen tatsächlicher Fläche .. sinnvoll genutzter Fläche (siehe Seitenverhältnis) und philosophischer Fläche (diese ist zB bei APS sehr deutlich grösser als bei mFT .... ) geändert bearbeitet 29. Februar 2016 von m.c.reloaded Link zum Beitrag Auf anderen Seiten teilen More sharing options...
m.c.reloaded Geschrieben 29. Februar 2016 Share #150 Geschrieben 29. Februar 2016 16 mpix reichen mir normalerweise, ebenso, wie mir 12 mpix immer gereicht haben. Aber mit meinen 36 mpix ohne AA Filter kann man schon nochmal mehr anfangen. Das ist das bißchen Luxus, aufgrunddessen es nochmal mehr Spaß macht. So wie die 350 PS gegenüber den 150 PS auf der Autobahn in etwa. pizzastein und Puenktchen haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden