Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

welche denn? Hängt man eine Kamera nur zum Spaß an ein Teleskop?

 

 

Hans

 

Sorry, ich bin da noch 'ne Antwort schuldig (falls es noch wen interessiert) - war aber erstmal im Urlaub :D

 

Unser (Sonnen)Teleskop hat nur ein Bildfeld von ca. 75 Bogensekunden.  Bei einer Öffnung von einem Meter hat man ein (theoretisches und praktisches) Auflösungsvermögen von 0.1 Bogensekunde.  Um die auch diagonal optimal zu samplen wird die Vergrösserung so adaptiert dass ein Pixel ~0.04 Bogensekunden entspricht. Das ergibt ganz grob 2kx2k Pixel - mehr ist nicht sinnvoll.

 

Die Kameras sind natürlich keine Photokameras sondern schon spezielle CCD und neuerdings auch CMOS Chips, monochrom,  laufen mit 10-50 Bilder/s und sitzen hinter speziellen Farb- und Polarisationsfiltern.

 

Und noch eine Bemerkung zu den grossen Öffnungen der Nachtteleskope:  Die ist nicht vorrangig für die Auflösung, sondern vor allem um genug Licht zu sammeln von dunklen Objekten.  Dazu ein nettes Zahlenspiel:  Eines der bekannteren alten Teleskope ist der 5m Spiegel auf dem Mt. Palomar, mit dem auch eine Himmelsdurchmusterung gemacht wurde (d.h. Bilder von allen erreichbaren Gebieten des Himmels).  Von den dunkelsten noch erkennbaren Objekten in diesen Bildern hat das Teleskop (Fläche fast 20m²) im Mittel ein Photon je Sekunde empfangen....

 

So, genug geschwafelt  ;)

Link zum Beitrag
Auf anderen Seiten teilen

  Eines der bekannteren alten Teleskope ist der 5m Spiegel auf dem Mt. Palomar, mit dem auch eine Himmelsdurchmusterung gemacht wurde (d.h. Bilder von allen erreichbaren Gebieten des Himmels).  Von den dunkelsten noch erkennbaren Objekten in diesen Bildern hat das Teleskop (Fläche fast 20m²) im Mittel ein Photon je Sekunde empfangen....

 

So, genug geschwafelt  ;)

 

 

und ich wollte gerade anfangen den Cropfaktor auszurechnen ...

Link zum Beitrag
Auf anderen Seiten teilen

Ein Grund der Systemkamerahersteller, die Sensorpixel hochzuschrauben, ist wohl auch die Intention dadurch teurere Objektive mit höherer Auflösung zu verkaufen.

 

-Ein Vollformat-Objektiv, das eine Auflösung von 80 Linienpaaren pro mm hat, hat etwa die gleiche Auflösung wie ein 24MP Vollformat-Sensor, welcher 83 Linienpaaren pro mm Sensorhöhe bietet. Mehr Linienpaare muss das Objektiv nicht bieten für diesen VF-.Sensor.

 

-Ein 24MP APSC-Sensor hat 128 Linienpaare pro mm Sensorhöhe. Schraube ich jetzt das gleiche Vollformat-Objektiv vor den 24Mp APSC-Sensor, dann ist die Auflösung des Objektivs zu niedrig, denn ein Vollformat-Objektiv sollte für den APSC-Sensor 128 Linienpaare pro mm auflösen, damit ich den APSC-Sensor optimal auflöse.

 

Folge, ein Vollformat-Objektiv muss für eine 24 Mp APSC-Kamera höher auflösen, als für eine 24Mp VF-Kamera.

Letztendlich benötige ich z.B. die gleiche Vollformat-Objektiv-Auflösung, die ich für eine 36Mp VF-Kamera benötige für den Einsatz bei einer 16Mp APSC-Kamera. (Ein Crop der A7R ist analog der NEX6 mit 16Mp).

Link zum Beitrag
Auf anderen Seiten teilen

 

 

-Ein Vollformat-Objektiv, das eine Auflösung von 80 Linienpaaren pro mm hat, hat etwa die gleiche Auflösung wie ein 24MP Vollformat-Sensor, welcher 83 Linienpaaren pro mm Sensorhöhe bietet. Mehr Linienpaare muss das Objektiv nicht bieten für diesen VF-.Sensor.

 

theoretisch richtig, praktisch nicht so betrachtbar

 

Auflösung eines Objektivs ist nicht hart begrenzt, sondern ist immer abhängig vom Kontrast, den man noch toleriert.

 

dazu nochmal der Hinweis, dass auf Deinem Bayersensor blau und rot nur jeweils ein Viertel der Pixel sehen ... für eine rote Linie hat Dein Sensor also die Auflösung 6 MP ... 

Damit wären wir bei einem Bayersensor mit nominellen 96 MP um die theoretischen Werte Deines genannten Objektivs bei Rot darstellen zu können und weil das noch nicht schlimm genug ist, kommt auch noch das Abtasttheorem ins Spiel, das uns die Werte des Sensors auf  nochmal die doppelte Menge pro Richtung erhöht ... also auf 4x 94 MP ... damit wir die 24MP des Objektivs sicher abtasten können.

 

Du siehst, Dein 24MP Objektiv würde noch recht lange ausreichen um die Sensorhersteller auf Trab zu halten.

 

 

 

 

Es lohnt nicht darüber nachzudenken oder da rumzurechnen, weil das System eben nicht so einfach funktioniert, wie wir uns das gerne vorstellen würden ... ändere ich nämlich den Kontrast, bei dem ich die Objektivergebnisse betrachte, kann ich wieder von vorne anfangen mit der Rechnerei .... und dann kommt einer daher und sagt, dass er trotz der tollen Auflösung die Ergebnisse unbrauchbar findet, weil der Mikrokontrast nichts taugt ;)

Link zum Beitrag
Auf anderen Seiten teilen

dazu nochmal der Hinweis, dass auf Deinem Bayersensor blau und rot nur jeweils ein Viertel der Pixel sehen ... für eine rote Linie hat Dein Sensor also die Auflösung 6 MP ... 

  ;)

 

Wenn du dir die Spektralkurven eines Sensors ansiehst, dann wirst die Überlappung der Farbfilter

erkennen. Deine Rechnung ist sowohl praktisch als auch theoretisch einfach Mumpitz.

Dazu kommt noch, dass solche 100%  gesättigten Farben eher selten sind.

 

Beipiel:

 

http://www.fen-net.de/walter.preiss/bilder/spectrum.gif

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die Empörung hat sich damit lediglich umverlagert: Wofür braucht's 2000 Bilder im Urlaub? Wer soll sich die im Laufe der Jahre ansammelnden, zigtausend Bilder jemals wieder ansehen?

;)

Stimmt schon. Wenn ich meine Knipsgewohnheiten hier vergleich, komme nach dem Löschen von Ausschuss auf i.d.R. immer auf 70-80 Bilder in einer Woche Urlaub - zwei Diafilme, genau wie früher.

 

Bzgl. Pixel: Ich hab mit 3,2mp begonnen, auf 8,5mp gesteigert(ein gewaltiger Unterschied) und jetzt 24mp(noch gewaltiger). Ich finds gut!

 

Gruß

Link zum Beitrag
Auf anderen Seiten teilen

theoretisch richtig, praktisch nicht so betrachtbar

 

Auflösung eines Objektivs ist nicht hart begrenzt, sondern ist immer abhängig vom Kontrast, den man noch toleriert.

 

dazu nochmal der Hinweis, dass auf Deinem Bayersensor blau und rot nur jeweils ein Viertel der Pixel sehen ... für eine rote Linie hat Dein Sensor also die Auflösung 6 MP ... 

Damit wären wir bei einem Bayersensor mit nominellen 96 MP um die theoretischen Werte Deines genannten Objektivs bei Rot darstellen zu können und weil das noch nicht schlimm genug ist, kommt auch noch das Abtasttheorem ins Spiel, das uns die Werte des Sensors auf  nochmal die doppelte Menge pro Richtung erhöht ... also auf 4x 94 MP ... damit wir die 24MP des Objektivs sicher abtasten können.

 

Du siehst, Dein 24MP Objektiv würde noch recht lange ausreichen um die Sensorhersteller auf Trab zu halten.

 

 

 

 

 

 

Seit wann gibt es ein 24MP Objektiv. Ich habe geschrieben, dass ein Objektiv z.B. 80Linienpaare pro mm auflöst.

 

Die Auflösung bei der RX1RII (42MP-Sensor) ist nur unmerklich besser, als bei der RX1R (24MP-Sensor), weil beide Kameras das gleiche Objektiv haben, und dieses Objektiv bei dem 42MP-Sensor nicht mehr auflösen kann, als beim 24MP-Sensor.

 

Link zum Beitrag
Auf anderen Seiten teilen

Wenn du dir die Spektralkurven eines Sensors ansiehst, dann wirst die Überlappung der Farbfilter

erkennen. Deine Rechnung ist sowohl praktisch als auch theoretisch einfach Mumpitz.

Dazu kommt noch, dass solche 100%  gesättigten Farben eher selten sind.

 

Beipiel:

 

http://www.fen-net.de/walter.preiss/bilder/spectrum.gif

 

 

Ich habe nichts dagegen, wenn Du es besser erklärst ;) ... ich befürchte nur, ohne gewisse Vereinfachungen wird es nicht gehen.

 

Ich bin dann gespannt auf Deinen Beitrag.

Link zum Beitrag
Auf anderen Seiten teilen

Und ich warte immer noch auf die Erklärung, warum die klitzekleinen Pixel einer 16 MPixel-1/2,3-Zoll-Kamera noch vernünftige Bilder gegen jede hier vorgestellte Auflösungstheorie liefern.

Ganz einfach sie liefern keine vernünftigen Bilder, können sie auch gar nicht wenn das Objektiv nicht mehr in der Lage ist das aufzulösen.

Die Auflösung des Bildes sagt überhaupt nichts über die Auflösung des Inhaltes aus.

Ein hoch interpoliertes Bild wird auch nicht besser nur weil es danach mehr Pixel hat.

 

18MP 1/2.3"

http://216.18.212.226/PRODS/panasonic-zs60/FULLRES/ZS60hSLI0080NR6D.JPG

sieht deshalb auch nicht besser als:

 

12MP einer anderen Kamera aus:

http://216.18.212.226/PRODS/EPL1/FULLRES/EPL1hSLI0100NR2D.JPG

 

Woraus sich schließen lässt das die 18 MP hier überhaupt nicht mehr aufgelöst werden und weniger dafür aber größere Pixel bessere und rauschfreiere Bilder ermöglich hätten.

bearbeitet von systemcam128
Link zum Beitrag
Auf anderen Seiten teilen

Wobei man, denke ich, das auf Pixelebene (100%-Ansicht) betrachtete Rauschen auch noch vom Gesamtrauschen unterscheiden muss. Je mehr Pixel ich habe, umso weniger stört gleiches Pixelebene-Rauschen das Gesamtbild. Der Schluss, dass ein Sensor mit weniger Pixeln notwendigerweise weniger (Gesamt-) Rauschen gehabt hätte, ist insofern nicht unbedingt ein zwingender.

 

Bei DxOMark (deren Testmethoden ich in Teilen für zweifelhaft halte und die Scores manchmal in mancher Hinsicht schon für hanebüchen, aber das mag hier dahingestellt bleiben) gab es dazu mal einen durchaus erhellenden Artikel ("Contrary to conventional wisdom, higher resolution actually compensates for noise").

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe nichts dagegen, wenn Du es besser erklärst ;) ... ich befürchte nur, ohne gewisse Vereinfachungen wird es nicht gehen.

 

Ich bin dann gespannt auf Deinen Beitrag.

 

Du hast für diesen komplizierten Sachverhalt eine zu einfache Rechnung aufgemacht, die so 

nicht stimmt, weil durch die spektrale Überlappung der Filter die Nachbarpixel mit in die

Auflösungsrechnung eingehen. Das Ergebnis hängt natürlich sehr von der Qualität des

Demosaicing ab, es ist aber auf jeden Fall besser als deine Rechnung.

 

Link zum Beitrag
Auf anderen Seiten teilen

Du hast für diesen komplizierten Sachverhalt eine zu einfache Rechnung aufgemacht, die so 

nicht stimmt, weil durch die spektrale Überlappung der Filter die Nachbarpixel mit in die

Auflösungsrechnung eingehen. Das Ergebnis hängt natürlich sehr von der Qualität des

Demosaicing ab, es ist aber auf jeden Fall besser als deine Rechnung.

 

Das finde ich jetzt als Ahtwort auf die Eingangsfrage als ungenügend.

 

 

natürlich gibts nicht soviele reine Farben und natürlich wird ein bunter Faden evtl. als leichter Schatten erscheinen,... aber das ist definitiv nicht das Maximum der Möglichkeiten ... und genau das fragte der Kollege oben.

 

Dass ich in der Praxis auch mit 12 MP wunderbar leben kann, ist eine andere Geschichte ... es geht halt um Ansprüche.

 

 

 

 

Bitte kritisiere nicht nur, sondern mache es besser als ich, wenn Du meine Vereinfachung schon als theoretischen und praktischen Mumpitz bezeichnest.

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

Das finde ich jetzt als Ahtwort auf die Eingangsfrage als ungenügend.

 

 

Auf die Eingangsfrage würde ich antworten:

 

Bei genügend Pixeln kann das AA Filter entfallen, denn die Objektive und die Beugung übernehmen

die Funktion.  Am besten wäre eine kontinuierlich lichtempfindliche  Fläche.

Die vielen überflüssigen Daten komprimieren wir wieder weg.

 

 

 

Bitte kritisiere nicht nur, sondern mache es besser als ich, wenn Du meine Vereinfachung schon als theoretischen und praktischen Mumpitz bezeichnest.

Ich habe miich auf die Angabe "1/4 Auflösung für die rote Line" bezogen.

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

Bei MFT könnten m.E. 16Mpix 'etwas wenig' sein. Grund: diese Pixel verteilen sich auf das volle 4:3 Format. Wer das nicht nutzt und z.B. 3:2 oder 16:9 bevorzugt, der bekommt sogar deutlich weniger als 16MPix.

 

Finde daher ca. 20 Mpix oder etwas mehr bei APS-C (auf 3:2 verteilt) etwas 'beruhigender'... only my humble opinion...

 

Gegen solche Beunruhigungen hilft etwas Mathematik. Wenn man die Kantenlängen eines Rechtecks multipliziert erhält man den Flächeninhalt:

800px-Sensorformate.svg.png

Die Größe der APS-C- oder DX-Sensoren ist also auch trotz 3:2 deutlich größer.

Link zum Beitrag
Auf anderen Seiten teilen

Ganz einfach sie liefern keine vernünftigen Bilder, können sie auch gar nicht ..

 

Aus meiner Canon IS kommen vernünftige Bilder, vermutlich aus der FZ300 auch. Auf MFT-Fläche hochgerechnet haben sie etwa 100 bzw. 120 MP, auf KB gerechnet ca. 300 MP.

 

Wie kann ein Objektiv das auflösen, wenn es es der Theorie nach bei wenigen zig MP begrenzt?

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Gegen solche Beunruhigungen hilft etwas Mathematik. Wenn man die Kantenlängen eines Rechtecks multipliziert erhält man den Flächeninhalt:

 

Ändert aber nichts an der mathematischen Exaktheit der 'Beunruhigung': Bin ich 30% mehr beunruhigt, wenn ein bestimmter Sensor mathematisch 30% 'weniger' hat.... ?

Link zum Beitrag
Auf anderen Seiten teilen

Gegen solche Beunruhigungen hilft etwas Mathematik. Wenn man die Kantenlängen eines Rechtecks multipliziert erhält man den Flächeninhalt:

800px-Sensorformate.svg.png

Die Größe der APS-C- oder DX-Sensoren ist also auch trotz 3:2 deutlich größer.

 

Deutlich? Na ja. Der Unterschied von APS-C nach KB dürfte erhablich größere Auswirkungen haben, als der doch relativ kleine zwischen m4/3 und APS-C. Zwischen den größeren Sensorformaten liegen hier die geringsten Unterschiede. Zumal der Unterschied auch durch das unterschiedliche Seitenverhältnis zustande kommt.

 

 

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

Deutlich? Na ja. Der Unterschied von APS-C nach KB dürfte erhablich größere Auswirkungen haben, als der doch relativ kleine zwischen m4/3 und APS-C. Zwischen den größeren Sensorformaten liegen hier die geringsten Unterschiede. Zumal der Unterschied auch durch das unterschiedliche Seitenverhältnis zustande kommt.

 

 

 

Hier muss man unterscheiden, zwischen tatsächlicher Fläche .. sinnvoll genutzter Fläche (siehe Seitenverhältnis) und philosophischer Fläche (diese ist zB bei APS sehr deutlich grösser als bei mFT ;) .... )

 

 

:)

Link zum Beitrag
Auf anderen Seiten teilen

auf Pixelebne wirds heikler oder bei extrem Crops..

 

weniger Pixel begnügen sich auch mit etwas minderem Altglas

 

mit vielen Pixel kann ich getrost APS an KB hängen......oder die wenigsten tapezieren ganze Wohnwände und drücken gleich noch ihre Nase daran platt um jedes Staubkörnchen im Bild zu entdecken

 

 

solange die BildQualität stimmt, ich die dazu  benötigte hardware im gewohnten Rahmen bezahlen kann...kann von mir aus  die industrie weiterhin aufrüsten wie sie will....

Link zum Beitrag
Auf anderen Seiten teilen

Na dann hätten wir ja ein 24MP-Objektiv.

 

LG Horstl

 

Ok, dann nehmen wir mal dein 24MP-Vollformatobjektiv, das 80Linienpaare pro mm auflöst vor einem Vollformat-Sensor.

 

Vor einen APSC-Sensor geschraubt löst dieses Vollformat-Objektiv dann nur noch 10,66MP auf. (Crop-Faktor).

Der 24MP-APSC-Sensor hat eine maximale Auflösung von 128 Linienpaaren pro mm Sensorfläche. Diese Auflösung (128lp/mm) kann das "24MP-Vollformat-Objektiv" mit seinen 80 lp/mm nicht bedienen.

Link zum Beitrag
Auf anderen Seiten teilen

16 mpix reichen mir normalerweise, ebenso, wie mir 12 mpix immer gereicht haben.

Aber mit meinen 36 mpix ohne AA Filter kann man schon nochmal mehr anfangen. Das ist das bißchen Luxus, aufgrunddessen es nochmal mehr Spaß macht. So wie die 350 PS gegenüber den 150 PS auf der Autobahn in etwa.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...