Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Wir lassen uns gerne blenden von den superhochauflösenden Sensoren ... aber eigentlich schaffen sie gerade mal so um die 2/3 der Nennauflösung, wenn ein Bild mit mehreren Farben dargestellt werden soll. (das ist der Grund, wieso Foveonbilder mit weit geringerer Auflösung mithalten können)

 

Interessanter Beitrag von dir.

 

Die 2/3 der Nennauflösung deckt sich ungefähr (ausnahmen gibt es immer) mit den Testberichten von Fotomagazin. Bei ihren Tests, geben sie immer die effektiven Megapixel an, da kommt zB. Eine Sony RX10 IV mit 20 Megapixel auf effektiv 15 Megapixel. Bei den Systemkameras hat das verwendete Objektiv einen wesentlichen Einfluss auf die effektive Megapixelzahl (laut Fotomagazin).

Link zum Beitrag
Auf anderen Seiten teilen

Leider, nighty, fällt dein Beitrag tw. genau in mein (ehemaliges) wissensgebiet, weswegen ich dir durch diesen Link widersprechen muss B-(

https://www.bilderforum.de/t18240-foveon-vs-bayer-bilder-wo-der-bayer-auf-ein-1-4-einbricht.html

Desweiteren kommt meine 'Spinnerei' dazu, alle drei Merrills zu besitzen B-(

Ned bös sein ...

Link zum Beitrag
Auf anderen Seiten teilen

Leider, nighty, fällt dein Beitrag tw. genau in mein (ehemaliges) wissensgebiet, weswegen ich dir durch diesen Link widersprechen muss B-(

https://www.bilderforum.de/t18240-foveon-vs-bayer-bilder-wo-der-bayer-auf-ein-1-4-einbricht.html

Desweiteren kommt meine 'Spinnerei' dazu, alle drei Merrills zu besitzen B-(

Ned bös sein ...

 

 

was meinst Du genau?

 

meine 2/3 ** sind ein Mittelwert, da es keine reinen Farben gibt in der Natur *

 

 

 

Vielleicht kannst Du kurz zusammenfassen, was Du meinst? :)

 

 

*keine reinen Farben und keine extrem steilen Filter .. es ist also immer etwas zu sehen, auch in den anderen Pixeln .. doch die Abbildung bleibt zum Teil schwach und wird auch oft falsch interpretiert

 

... **  ich habe damals einfach solange probiert, bis ich keinen Unterschied mehr erkennen konnte zwischen runtergerechnet und Original ... allerdings mag es sein, dass bei höheren Auflösungen der Wert nicht mehr stimmt (ich habe das wie oben erwähnt mit 6 MP Daten getestet)

 

 

 

 

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

Interessanter Beitrag von dir.

 

Die 2/3 der Nennauflösung deckt sich ungefähr (ausnahmen gibt es immer) mit den Testberichten von Fotomagazin.

 

 

Wobei das aber nichts mit der Farbauflösung zu tun hat, sondern das Produkt der Wirkungsgrade von Objektiv und Sensor ist (wie auch immer man das berechnen mag ;)  ... aber es kann nie das Maximum rauskommen, was ein Sensor aufnehmen kann in der Theorie)

 

Die 2/3 sind einfach das praktische Ergebnis, wann ich zwischen Originaldatei und auf 4MP heruntergerechneter Datei keinen Auflsungsunterschied mehr sehen konnte (nach resize auf 6MP) .. sprich, bei mir war das Objektiv nicht mitgetestet, weil es bei beiden Vergleichsbildern drin war.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn auch nicht mit 50 MB, bietet Pana Croppen statt Tele bei den Nicht-Systemkameras für JPG mit dem iZoom an, und das ziemlich erfolgreich.

 

Das hier angesprochenen Croppen macht nur mit RAW Sinn.

 

Ergänzend, nur mit Raw, nur mit hochauflösenden Objektiven, die  an mFT eine gute Figur machen, obwohl sie für KB gerechnet sind, nur ab 40 MP aufwärts, nur wenn beim Druck bei A2 Schluss ist und nur wenn man sich beim Betrachten mit 4K zufrieden gibt ... :P  ...

bearbeitet von vidalber
Link zum Beitrag
Auf anderen Seiten teilen

Hi nighty,

 

ich meine, dass Du egal ob bei Bayer oder Foveon-Sensoren ALLE angeleuchteten Pixel betrachten musst, also nicht nur den von dir genannten Durchschnitt von 2/3.

Bei Foveon ist es ohnehin klar, auch auf den untersten, roten Layer treffen blaue Lichtanteile (oberster Layer), halt nicht mehr so viele.

Beim Bayer hast Du prinzipiell die gleichen Fotodioden für ALLE Pixel, nur dass halt 2 im Karree grün, eines rot und eines blau GEFILTERT wird. JEDER Filter, egal ob optisch oder elektronisch hat einen bestimmten Verlauf. Sensoren verwenden optische Bandfilter. Diese haben eine gewisse Breite und Steilheit, außerdem überlappen sie sich sogar, weil sie im Spektrum recht nahe beeinander liegen.

Nun kommt der Zeitpunkt, when miracle happens, nämlich das Zusammenrechnen des Farbwertes für JEDES PIXEL. Dazu gibt es unterschiedliche Interpolationsverfahren, die jedoch eines gemeinsam haben, nämlich den Einfluß der umgebenden Pixelwolke auf ein einzelnes Pixel (wodurch zB bei scharfen Kanten die CAs zustande kommen).

Bei den Foveons, die bauartbedingt einen unvergleichlich besseren Mikrokontrast als die Bayers haben, erzählte ein Software-Entwickler aus der Branche, dass definiertes Licht auf ein Sandwich geschickt wird und der Elektronenfluß pro Halbleiterschicht gemessen wird, der dann für die Bild(Pixel)berechnung in natura als Referenz gilt. Da ein Spektrum jedoch analog ist und dieses Verfahren in 5nm (Nanometer) - Schritten gemacht wird, wird in einem weiteren Algorithmus zwischen diesen Informationen auch in der 'Wolke' interpoliert.

 

Der langen Rede kurzer Sinn, auch wenn Du ein 'rein rotes' Motiv am 24MPx-Sensor fotografierst, wirken ALLE 24MPx auf das Rechenergebnis (=Bild) und nicht nur 6 rote MPx.

 

Da nicht jeder Sensorhersteller dieselben Methoden verwendet, kommt es zu unterschiedlichen Farbanmutungen - so wie es beim 3-Schicht-Film auch war (Agfa war immer rötlich, Fuji leicht blaustichig, ...).

Ein weiteres Thema in diesem thread wäre, dass die TVs nach dem zwar gegenteiligen aber technisch gleichen Prinzip der Pixelmischung arbeiten.

 

Bearbeitung:

Da ein Bild mehr als 1000 Worte sagt: Um bei jeder Wellenlänge (nicht nur RGB) einen Stromfluss zu bewirken, müssen die Schwellen im unteren, gelben Bereich liegen. Die Empfindlichkeiten entsprechen natürlich den peaks.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von kleinw
Link zum Beitrag
Auf anderen Seiten teilen

ouh, CAs durch Interpolation? Also CAs sind fest definierte Abbildungsfehler eines optischen Systems und nicht etwa eines Interpolationsalgorithmus.

 

Und ich glaube Nightstalker hat das gar nicht behauptet, was du denkst, das er meint. Er redet ja nicht darüber, wie der Sensor mit den Pixeln umgeht, oder welche betrachtet werden müssen, sondern das als Resultat des entstandenen Bildes er keinen Unterschied zwischen 6 und 4 MPX erkennen kann, was ja eine Folge des Interpolationsalgos ist, der ja alle Pixel mit einbezieht.

Ich schätze da redet ihr aneinander vorbei ;)

 

 

Da nicht jeder Sensorhersteller dieselben Methoden verwendet, kommt es zu unterschiedlichen Farbanmutungen - so wie es beim 3-Schicht-Film auch war (Agfa war immer rötlich, Fuji leicht blaustichig, ...).

 

ist das so? Dem Film liegt ein chemisches Verfahren zu Grunde, da wird nichts interpoliert. Außerdem bin ich mir grad nicht ganz sicher, aber der Sensor-Hersteller wäre bei mir in erster Linie nicht für die Interpolation zuständig, sondern er liefert den Sensor. Hier wäre der Schwerpunkt seine Foto-Dioden und elektronik entsprechend zu optimieren. Soweit ich weiss besteht ein RAW-Format aus nicht-interpolierten Daten. Hier liegt der Algorhitmus beim Bearbeitungsprogramm. Aber ich lasse mich gerne korrigieren. Wenn das aber so ist, dann macht der Sensor-hersteller in der hinsicht am Algorithmus gar nichts. Dann kommen die Farbstiche lediglich durch die Fähigkeiten der Photodioden und dem Einfluss der umliegenden Elektronik - ganz weit runtergebrochen.

Link zum Beitrag
Auf anderen Seiten teilen

hm, also soweit ich mich noch an meine Fernsehtechnik-Vorlesung erinnern kann, werden da "lediglich" Ladungen transportiert und von analoger in digitale Information "umgerechnet", also "lediglich" A/D-umgesetzt. Was wird denn da noch groß gerechnet, vor allem wo kommt dort ein Farbeinfluss rein (außer eben bei der A/D-Umsetzung, welche ja je nach Quantisierungskurve anders ausfallen kann, aber das hat nichts mit rechnen zu tun) ? Da wird eher "controling" betrieben, also wo landen welche Informationen in der Datei, damit diese nachher wieder verwendbar ist. Aber das beeinflusst nicht die Farbe des Bildes. Es heisst ja auch nicht umsonst "microcontroller". Denn dieser steuert. Und eine Berechnung, die Farben beinhaltet sollte hoffentlich immer nur auf einem DSP oder DSP-ähnlichen Prozessor passieren. sitzt sowas in einem Sensor mit drinnen und, wenn ja, für was? Das würde mich definitiv interessieren!

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

aus Wikipedia ...

 

...

Kameraseitig vorbearbeitete Rohdaten

Im Widerspruch zur strengen Auslegung von Rohbilddateien als ein Abbild der Rohdaten des Bildsensors führen Hersteller zunehmend eine kamerainterne Bildbearbeitung auch auf Rohbilddateien durch, deren Details jedoch, ähnlich der internen Bildbearbeitung von JPEG-Dateien, in der Regel nicht offengelegt werden. Folgende Gründe kommen in Betracht:

  • Einige Sensoren implementieren keine variable Signalverstärkung. Hier werden (beliebig hohe) Belichtungsindizes durch die Anwendung eines Multiplikators auf Raw-Bilddaten nachträglich simuliert. Dies wird dadurch evident, dass bei höheren ISO-Werten viele Helligkeits-Zwischenwerte im Bild niemals vorkommen. Es entstehen dann sogenannte Abrisse im Helligkeits- oder im Farbverlauf.
  • Die Annahme, dass (herstellerfremde) Raw-Konvertierungs-Software weniger Information über die Kamera und das gerade verwendete Objektiv besitzt oder nutzt, somit ein Fehlerkorrekturpotential nur unzureichend ausnutzt.
  • Eine Maskierung von Schwächen von Objektiven (zum Beispiel Schärfe[2]) und von Sensoren (Hotpixel oder zum Beispiel Rauschen).[3]
  • Hardware-basierte Methoden sind ggf. schneller als Software-basierte Rechenverfahren (z. B. Rauschverminderung auf Kamera-Ebene), jedoch auch dann mit Detailverlusten verbunden.
  • Bei modernen Sensoren, die mit Phasen-Autofokus auf dem Chip arbeiten, müssen die entsprechend genutzten Bereiche interpoliert werden.

...

 

Außerdem hat der A/D-Wandler, der direkt am Sensor hängt nicht mehr viel mit einem Microcontroller zu tun (außer zB der Regelung der BIAS etc.), das ist schon ein ganz anständiger Minicomputer - übrigens einer von zahlreichen in einer modernen Kamera;-)

 

bearbeitet von kleinw
Link zum Beitrag
Auf anderen Seiten teilen

hm, also soweit ich mich noch an meine Fernsehtechnik-Vorlesung erinnern kann, werden da "lediglich" Ladungen transportiert und von analoger in digitale Information "umgerechnet", also "lediglich" A/D-umgesetzt. Was wird denn da noch groß gerechnet, vor allem wo kommt dort ein Farbeinfluss rein (außer eben bei der A/D-Umsetzung, welche ja je nach Quantisierungskurve anders ausfallen kann, aber das hat nichts mit rechnen zu tun) ? Da wird eher "controling" betrieben, also wo landen welche Informationen in der Datei, damit diese nachher wieder verwendbar ist. Aber das beeinflusst nicht die Farbe des Bildes. Es heisst ja auch nicht umsonst "microcontroller". Denn dieser steuert. Und eine Berechnung, die Farben beinhaltet sollte hoffentlich immer nur auf einem DSP oder DSP-ähnlichen Prozessor passieren. sitzt sowas in einem Sensor mit drinnen und, wenn ja, für was? Das würde mich definitiv interessieren!

Die Bayer-Sensoren liefern Helligkeitsinformationen pro Pixel, das wird primär erst mal vom Chip in der Kamera umgewandelt in RGB - und genau da werden schonmal Farben "gemacht" und ebenso wird im Chipsatz die Grundschärfe und der Grundkontrast festgelegt - das ist schon ein Rechnen anhand von Input, denn würden die Parameter vollständig fix sein, dann könnte man das Bildergebnis nicht mit dem RAW schon dermaßen ans Limit bringen.

Anschließend werden "korrigierbare" Fehler beseitigt, das sind z.B. Objektivkorrekturen oder generelle Korrekturen bei z.B. Hotpixeln, auch im Chipsatz - jedoch nicht bei allen Herstellern zwingend - bei manchen RAW kann man das auswählen, zumindest kann ich das bei der Pentax abschalten, dann tauchen auch Hotpixel wieder auf.

Manche Chipsätze komprimieren das RAW bzw. verringern die Bittiefe im RGB.

 

All das ist schon eine Haufen an Datensalat, der verrechnet wird.

 

:)

Link zum Beitrag
Auf anderen Seiten teilen

Ah danke! Das mit den hot Pixeln und der raw-komprimierung hatte ich gar nicht mehr auf dem schirm. Aber wie meinst du das mit grundschärfe Und Kontrast? Also ich kann mir zumindest gerade nicht vorstellen, was da gemacht werden soll, da das für mich nur ein resultierender wert ist, der sich eben einfach aus dem zusammenspiel der 14 bit tiefen Information pro Pixel ergibt. Also als abstrakter wert, nicht etwa berechnet. So würde man ja die pixel schon in ihrer helligkeit und abstufung zu den umliegenden Pixeln bearbeiten. Passiert das bei einem raw wirklich? Und das mit dem rbg weiss hfftl der Controller selbst, bzw. 'das rbg machen' läuft schätzungsweise einfach durch eine hinterlegte raster-tabelle oder einen simplen zeilen-algorithmus, da man ja vorraussagen kann, wo welcher farbpixel liegt bei dem bayer-schema. Also für mich is das immer noch kein rechnen im sinne von interpolieren, sprich einer signalverarbeitung.

 

edit: danke @kleinw!

erst jetzt gesehen. An einige der Punkte habe ich in der Tat nicht gedacht. Mir ist schon bewusst, dass in einer Kamera ziemlich viele ASICs und Controller sitzen, in dem Umfeld arbeite ich schliesslich selbst. Nur wird in der Industrie nicht so viel Aufwand für das Bild betrieben :P Das regelt dann die Software nach oder die Objekte werden gleich knallhart hell belichtet.

Auch hab ich außer Acht gelassen, dass ja native Objektive gerne einer Korrektur der Kamera unterlaufen... an anderer Stelle erwähn ich das noch selbst und hier vergess ich das und konzentrier mich nur auf meine Anwendung von altglas, das natürlich keiner so einer Korrektur unterläuft :D Vor allem das mit der nachträglich simulierten Signalverstärkung ist da wohl ein sehr nennenswerter Punkt, was interne Nachverarbeitung angeht.

Jetzt könnte man aber wieder haarspalterei betreiben und unterscheiden ob das nun Sensor-Sache oder Sache der am Sensor weiterverarbeitenden Komponenten ist, vor allem, wenn man auf Farb-Stiche eingehen will.

 

Aber das reicht denke ich so weit ;) Ursprünglich ging es ja um die effektiven Pixel und da sind wir uns ja einig, dass sehr wohl alle Pixel des Sensors genutzt werden, man aber durchaus im Nachhinein das Bild ohne sichtbare Verluste verkleinern und wieder vergrößern kann, weil die resultierenden Pixel der Interpolation entspringen, welche nunmal "Schätzungen" aufgrund der umliegenden Bayer-Pixel vornimmt und somit auch nicht Bild-pixel genau abbilden kann, korrekt?

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

Nein, wir sind noch nicht d'accord, zB was das verlustlose Verkleinern und anschließende Vergrössern betrifft. Wir müssen aber auch nicht alles ausräumen;-)

 

Meine Ur-Aussage ist simpel und soll es auch bleiben - ich sage, dass IN BEZUG auf das Betrachtungsmedium TV bei einem Sensor von zB der A7r bei einer Bildwinkelverkleinerung die der Brennweitenverdopplung entspricht (Hälfte der langen Pixelkante) KEIN Informations(=Pixel)verlust am 4K-TV auftritt und bei einer Bildwinkelverkleinerung die einer Brennweitenvervierfachung entspricht am HD-TV auch nicht. Optimal ist, wenn der TV mit der für ihn idealen Geometrie beschickt wird (TVs komprimieren meist relativ schlecht, weil sie auf Speed getrimmt sind - außerdem ist ihr Farbraum meist wesentlich schlechter als der eines guten Monitors).

 

Voraussetzung ist jedoch ein sehr gutes Objektiv, das die Auflösung auch bringt (das ist an der RX1 zB das fixe 35/2) und eine Originalaufnahme mit mittlerer Blende (irgendwo bei 4 - 5.6) und guter Entfernungseinstellung.

 

Ich zB nehme auf mehrtägigen Hüttentouren, wo es doch sehr aufs Gewicht ankommt, ich nicht Objektive umstecken will und viele Bildmotive 'unwiederbringlich' sind, meist nur meine RX1 mit (früher die RX100) und croppe ggf. Ich oute mich auch als KB-Fan, da selbst nur eine Stufe kleiner an meiner APS-C bei Tagesverhältnissen am Berg (Sonne hoch, Kontrast stark, Schatten kurz) die Nachbearbeitung nicht zu vergleichbaren Ergebnissen führt. Trotzdem nehme ich zB nächsten Samstag zu einer unwiederbringlichen Fernreise nur mein APS-C-Set mit (in, von vielen gering geschätzter, Kleinzusammenstellung -18200, 1018 u. 35). Und öfters 'spinne' ich überhaupt, dann nehme ich zB für eine Städtereise nur meine Merrills mit (die sind jedoch ein sehr, sehr spezielles Thema und funktioniern nur in wenigen Situationen - wenn sie es tun, dann funktionieren sie jedoch für mich optimal, besser als die RX1). Hier ist ein öffentliches Foto aus dem Internet (guckst Du Farben, (Mikro-)Kontraste, ...)  http://x3magazine.com/wp-content/uploads/2013/03/SDIM0158c3l3.jpg

 

bearbeitet von kleinw
Link zum Beitrag
Auf anderen Seiten teilen

Ah danke! Das mit den hot Pixeln und der raw-komprimierung hatte ich gar nicht mehr auf dem schirm. Aber wie meinst du das mit grundschärfe Und Kontrast?

 

Speziell bei mFT gibt es ja keine Objektivprofile in den Konvertern (LR etc.) weil die bereits "intergriert" sind im RAW - zu den Optimierungen gehört neben der Korrektur der Optik auch eine Optimierung zur Schärfe und Kontrast - nur wird die genaue Form der Korrektur nicht preisgegeben. Wie sich die Unterschiede darstellen kann man nur sehr schwer bewerten - ich stelle es jedenfalls fest, wenn ich Kontrast und Schärfe von identischen Objektiven an Oly und Pana vergleiche - und zwar nicht auf Pixelebene, sondern auf normalen Betrachtungsabstand. Es ist ja auch schon mehrfach ein Thema gewesen, dass Objektive anders abbilden, (vereinzelt) Pana-Glas an Oly-Body zeigte ja violette Bereiche, die beim Pana-Body nicht waren - und das ist sicherlich abhängig von Filtern vor dem Sensor und der Vergütung der Gläser und dem entsprechenden Profil für die Optik. Beweisen kann Dir das niemand - die Hersteller halten sich ja zurück - nur wenn durch Firmwareupdates solche "Farbfehler" an Kontrastkanten plötzlich verschwinden, dann liegt so ein Gedanke ja nah ;)

 

:)

bearbeitet von Lumixburschi
Link zum Beitrag
Auf anderen Seiten teilen

Nein, wir sind noch nicht d'accord, zB was das verlustlose Verkleinern und anschließende Vergrössern betrifft. Wir müssen aber auch nicht alles ausräumen;-)

 

 

Du hast bei der ganzen Betrachtung das Rauschen vergessen. Wenn ich mit einem wirklichen

Teleobjektiv aufnehme und mit einer anständigen Software auf 4K oder kleiner Skaliere

gewinne ich den Flächenfakt an Rauschen, de mir beim Croppen verloren geht.

Link zum Beitrag
Auf anderen Seiten teilen

Hi Bernhard,
ja damit hast Du Recht. Kein Vorteil ohne Nachteil (der in meiner Wahrnehmung jedoch keine große Rolle spielt, da die resultierende ISO von 50 auf 200 bzw. 100 auf 400 - was so eigentlich nicht stimmt, siehe unten - am TV nicht erkennbar ist).

 

Bearbeitung:

Wobei ich zum Rauschen noch etwas sagen will:

Ansich müsste das Rauschen ja unangenehmer werden, denn was ist es denn überhaupt? Ein andersfarbiges Grieskorn in einer mehr oder minder homogenen Fläche bzw. eine unschärfere Kante. Es entsteht elektronisch und hat eine Größe und eine Häufigkeit. Die Größe bleibt mehr oder minder gleich, die Häufigkeit nimmt bei höheren ISOs zu.

(Detail aus der Elektronik: jede Elektronik rauscht, sprich hat einen zufälligen kleinen Signalverlauf über das gesamte Spektrum. Je größer das Nutzsignal ist (man spricht vom S/N-Abstand) umso weiter ist es vom Rauschen entfernt, umso weniger Rauschpeaks fallen in das processing, 'umso klarer ist das Foto').

Wenn man nun croppt, bleibt die geringe Häufigkeit der low(est) ISO - Fotos erhalten, jedoch vergrößert sich die Größe der Körner auf das Doppelte ('kantenbezogen') bzw. Vierfache.

Wie gesagt, ich croppe hpts. am Berg, dort mache ich meist meine Fotos mit der kleinsten ISO und bis ISO 800 sehe ich bei meiner Kamera am TV überhaupt kein Rauschen, ab 1600 beginnt es allmählich. Somit ist 'Rauschen' für mich beim Crop kein Thema, aber grundsätzlich hast Du, wie gesagt, Recht.

bearbeitet von kleinw
Link zum Beitrag
Auf anderen Seiten teilen

Nein, wir sind noch nicht d'accord, zB was das verlustlose Verkleinern und anschließende Vergrössern betrifft. Wir müssen aber auch nicht alles ausräumen;-)

 

Meine Ur-Aussage ist simpel und soll es auch bleiben - ich sage, dass IN BEZUG auf das Betrachtungsmedium TV bei einem Sensor von zB der A7r bei einer Bildwinkelverkleinerung die der Brennweitenverdopplung entspricht (Hälfte der langen Pixelkante) KEIN Informations(=Pixel)verlust am 4K-TV auftritt und bei einer Bildwinkelverkleinerung die einer Brennweitenvervierfachung entspricht am HD-TV auch nicht. Optimal ist, wenn der TV mit der für ihn idealen Geometrie beschickt wird (TVs komprimieren meist relativ schlecht, weil sie auf Speed getrimmt sind - außerdem ist ihr Farbraum meist wesentlich schlechter als der eines guten Monitors).

 

Voraussetzung ist jedoch ein sehr gutes Objektiv, das die Auflösung auch bringt (das ist an der RX1 zB das fixe 35/2) und eine Originalaufnahme mit mittlerer Blende (irgendwo bei 4 - 5.6) und guter Entfernungseinstellung.

 

Ich zB nehme auf mehrtägigen Hüttentouren, wo es doch sehr aufs Gewicht ankommt, ich nicht Objektive umstecken will und viele Bildmotive 'unwiederbringlich' sind, meist nur meine RX1 mit (früher die RX100) und croppe ggf. Ich oute mich auch als KB-Fan, da selbst nur eine Stufe kleiner an meiner APS-C bei Tagesverhältnissen am Berg (Sonne hoch, Kontrast stark, Schatten kurz) die Nachbearbeitung nicht zu vergleichbaren Ergebnissen führt. Trotzdem nehme ich zB nächsten Samstag zu einer unwiederbringlichen Fernreise nur mein APS-C-Set mit (in, von vielen gering geschätzter, Kleinzusammenstellung -18200, 1018 u. 35). Und öfters 'spinne' ich überhaupt, dann nehme ich zB für eine Städtereise nur meine Merrills mit (die sind jedoch ein sehr, sehr spezielles Thema und funktioniern nur in wenigen Situationen - wenn sie es tun, dann funktionieren sie jedoch für mich optimal, besser als die RX1). Hier ist ein öffentliches Foto aus dem Internet (guckst Du Farben, (Mikro-)Kontraste, ...)  http://x3magazine.com/wp-content/uploads/2013/03/SDIM0158c3l3.jpg

 

Ok, na da stimmt ich dir ja auch zu ;) Ich hab das nur auf die Aussage von nightstalker bezogen, der du ja widersprochen hast, bzw. ihr euch nicht widersprochen habt, weil ihr es jeweils vom anderen Ende betrachtet habt.

 

Und ja, das mit dem TV stimmt sicherlich, bei Monitoren nutzt man übrigens genau das gegenteilige gerne. Da is downsampling vor allem in Spielen sehr beliebt, auch, wenn das nur mit 1080p wirklich praktikabel ist. Aber da geht's dann vor allem um Kantenglättung, was bei Bildern ja nicht wirklich gewollt ist :P

auf wiki findet sich da aber auch was nettes: https://de.wikipedia.org/wiki/4K2K hier wurde auch runter und wieder hochskaliert. Sicherlich hatte der film einfach grundlegend nicht die Auflösung, aber, dass man einfach gar keinen unterschied zwischen 1080p und 2160p sieht... kann vllt. genau die Problematik streifen, die Nightstalker mit runter- und wieder hoch-skalieren angesprochen hat.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Speziell bei mFT gibt es ja keine Objektivprofile in den Konvertern (LR etc.) weil die bereits "intergriert" sind im RAW - zu den Optimierungen gehört neben der Korrektur der Optik auch eine Optimierung zur Schärfe und Kontrast - nur wird die genaue Form der Korrektur nicht preisgegeben.

Es gibt auch für µFT genug Konverter mit Objektivprofilen, die entweder die ins RAW eingebetteten optional zur Verfügung stellen, oder komplett verwerfen und eigene Profile anbieten. Allerdings geht es darum ja hier nicht, da muss man schon differenzieren: die Rohdatendatei besteht neben den Rohdaten des Bildes (und der obligatorischen Strukturelementen wie Header, etc.) aus weiteren Informationen, zum Teil lesbar oder anzeigbar(Exif, Vorschaubild, etc.) und zum Teil zunächst unsichtbar (Verarbeitungsanweisungen, Profildaten). Letzere liefern der weiterverarbeitenden Software Informationen darüber, ob und welche Korrekturen durchgeführt werden sollen.

Die Ausgangsfrage war aber, welche Bearbeitung der "Rohdaten" nach der Detektion und vor dem Schreiben in die Datei stattfindet. Die Möglichkeiten dazu sind auf jeden Fall vorhanden, ein genauer Überblick darüber wäre ein spannendes Thema für eine tiefergehende Abhandlung (notiert). Die Relevanz für das Grundthema hier halte ich aber nur für bedingt gegeben, auch für den Vergleich zwischen Bayer-Sensoren und anderen Konzepten (bspw. die verschiedenen Foveons).

Link zum Beitrag
Auf anderen Seiten teilen

... es gibt in der Technik eine klare Aussage: Information, die durch Reduktion verloren geht, kann original nicht wieder hergestellt werden (was nicht heisst, dass man sie nicht 'hineindichten' - interpolieren - kann;-)

bearbeitet von kleinw
Link zum Beitrag
Auf anderen Seiten teilen

Habe beim Mittagessen nachgedacht: ich distanziere mich von der landläufigen Meinung, dass beim Croppen das Rauschen proportional steigt!

Dazu wieder ein Bild, das (hoffentlich) mehr als 1000 Worte sagt;-)

 

Licht bewirkt an der Photodiode (Pixel) einen Strom. Die Nachbardioden gleichen Filters haben (meist) ähnliche. Sind die Ströme höher als das Rauschen, wird nach der Verstärkung für den Wandlerbereich aus Gründen des SENSORRAUSCHENS KEIN Störsignal erkannt und gewandelt werden.

 

Gelangen wegen Dunkelheit nur wenige Photonen zur Diode, sind die Ströme wesentlich kleiner und das Nutzsignal reicht in das Sensorrauschen hinein. Fehlinformationen entstehen (Bereich Mitte: gelb)(das Aufdrehen des ISO-Wertes ist nichts anderes als die Einstellung der Verstärkung vor dem A/D-Wandler - unter anderem!)

 

Wird der Arbeitspunkt der Dioden zu groß gewählt (zB 'Blendenkorrektur +3'), muss das Wandlersignal begrenzt werden (um den Wandler nicht zu beschädigen)(Bereich rechts: gelb)(äußert sich letztlich als Farbabriss)

 

Dann kommen natürlich noch viele Störgrößen (zB über A/D-Wandler alleine sind viele Dissertationen geschrieben worden) dazu, was letzlich verwundert, warum es überhaupt zu einem Foto kommt;-)))

 

Conclusio: Wenn 'keine' (beachte Apostrophe;-) Störpixel da sind, sind auch nach einer Lupenfunktion (=Crop) keine da, weil wenn man 'nichts' 4 Mal vergrößert, ist es immer noch nichts.

 

Übrigens müsste nun auch einsichtig sein, warum größere Dioden (derselben Technologie!!!) rauschärmer sind als kleinere, weil die größere Photonenzahl einen höheren Strom bewirkt und somit der S/N-Abstand vergrößert wird. Deshalb bringt das 'Nachtsichtgerät' Sony A7s halt auf 36 x 24 mm nur wesentlich weniger Dioden (=Pixel) unter.

 

So, nun genug mit Theorie und solchem Kram ...

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

tolle Erklärung, aber in der Praxis sieht man das Rauschen deutlicher, wenn man die Rauschstörungen vergrössert .. und das passiert beim croppen 

 

Ich bin allerdings bei Dir, wenn Du sagst, wo keine Störpixel sind, kann auch nichts verstärkt werden ... nur gibts kaum ein Bild, bei dem Rauschen wichtig wäre (also bei schlechtem Licht, oder bei Schattenaufhellung) in dem keine Störpixel sind.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Leider hat der Mod im blauen Nachbarforum in einem  a7RIII Thread mal wieder wild gelöscht und den Thread geschlossen (Ordnung muss sein, aber manchmal übertreiben es die Mods dort ein bisschen), bevor die Frage beantwortet wurde.

 

Wenn ich die A7RIII im APS-C 1,5 Crop-Modus betreibe, wird auf dem Sensor nur noch ein Ausschnitt in APS-C Größe belichtet, was zu der entsprechenden Auschnitts-Vergrößerung führt. Die Größe der Pixel und deren Abstände zueinander bleiben aber erhalten, es reduziert sich aber die Auflösung auf 18MP, weil nur noch ein Teil des Sensors belichtet wird. Wieso sollte sich jetzt mit dem 1,5 Crop das Rauschen proportional erhöhen, wenn doch die Anzahl der Pixel durch den  Ausschnitt verkleinert wurde? Ich könnte es verstehen, wenn im APS-C Crop-Modus der A7RIII die Anzahl der Pixel erhalten bliebe, die sich jetzt auf einer viel kleineren Fläche des Sensors (APS-C) verteilen müssten.  Vielleicht habe ich auch einen falschen Denkansatz?

 

Edit:

Oder besteht ein Unterschied zwischen dem Crop-Modus einer Kamera und dem nachträglichen Vergrößern/ Croppen eines fertiges Bildes?

bearbeitet von Flaschengeist
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...