Jump to content

SONY A7m (monochrom) ???


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ja, ich glaube schon.

 

In den meisten Fällen kommt dieser Eindruck u.a. durch "korrektes" Licht, Belichtung, Komposition, Fokussierung, ein gutes Objektiv und Bildentwicklung zustande. In den meisten Fällen beherrschen Fotografen, welche mit Mittelformatboliden hantieren eben diese handwerklichen "Grundlagen" beeindruckend solide, da sie ansonsten nicht lange damit arbeiten würden (und nur wenige MFs als Hobby betreiben). In den meisten Fällen wirken daher Bilder aus derart hochpreisigen und aufwendigen Systemen schon alleine aufgrund des dahinter stehenden Fotografen dementsprechend beeindruckend - das Gerät an sich bietet natürlich ebenfalls noch etwas mehr Möglichkeiten (sonst würde es keiner verwenden), aber ich würde dessen alleinigen Einfluss nicht überbewerten. Erst Recht nicht, wenn das Bild dann nicht als 2 m² Druck an der Wand hängt.

 

Ist wie mit Köchen und Töpfen. Top-Köche verwenden Top-Töpfe, aber die Verwendung eines Top-Topfs alleine macht noch lange nicht zu einem Top-Koch.

Und das jetzt zehnmal hintereinander ... ;)

 

ja,

deswegen gab ich 99%, oder von mir aus mehr, seinem talent.

Dennoch war sichtbar, das geht so mit meiner hobby kamera nicht!

 

Ich erklaere es mal so:

Eine (ton) studioaufnahme eine liedes, direkt auf CD runtergerechnet im studio (so etwa unsere JPGs) klingt im autoradio halt besser als das gleiche lied ueber's radio empfangen.

Probier es aus...

Natuerlich kann das autoradio nur ein bruchteil der qualitaet der studio aufnahme darstellen.

Aber habe ich die studio qualitaet als input ist das kristallklar gegen das was sonst ueber's radio reintrudelt.

 

So ist das auch bei bildern,

mag ja sein das kein Ipad und kein monitor die pixel und qualitaet der hasselblad erreicht.

Aber ist das input file von der hasselblad, das bild auf dem retina Ipad (und erstrecht auf grossen guten monitoren) ist viel besser als kaeme es von einem geraet das halt eben die pixel schafft (oder gerne vielfach erreicht).

Das siehst du sofort. Jedes einzelne pixel, egal wie wenig das sind, ist um welten besser.

 

Sag mir jetzt bitte nicht das das fuer dich neu ist. Fuer mich war es neu, aber ich bin anfaenger...

 

Ich behaupte keineswegs das laege an der schieren  zahl der pixel. Jedes einzelne pixel ist "besser", hat weniger stoerung. Das macht es aus. Eine frage der verwendeten linsen natuerlich. Diese grossen linsen leisten das. (im zusammenhang mit der groesse des sensors)

 

willy

bearbeitet von Puenktchen
Link zum Beitrag
Auf anderen Seiten teilen

Ich behaupte keineswegs das laege an der schieren  zahl der pixel. Jedes einzelne pixel ist "besser", hat weniger stoerung.

 

Downsampling führt, u.a. besonders bei Bayer-Sensoren, natürlich zu noch "ruhigerem" und klareren Bildergebnis. Mehr oder weniger geringfügig. Spätestens bei 50% linearem Downsampling würde ich aber meinen, auch pixelpeepend, keinerlei Benefit durch noch höher aufgelöste Ursprungsbilder erkennen zu können. Und selbst dann wird dabei mehr gemessen und "gechartet" als gesehen werden müssen ...

 

Weiß jetzt auch nicht genau was du vergleichst. Deine "Hobby-Kamera" & Optik, erwähnte MF & Optik, Darstellungsmedien. Im Idealfall vergleichst mal direkt Bildergebnisse deiner Ausrüstung mit jenen einer geliehenen MF (und auch deinem Kopf dahinter) und dann wird sich ja entscheidend zeigen welche Unterschiede hinsichtlich Auflösung/Rauschen/Tonwertumfang/Dynamik/etc. sich am Ende der Bilderstellungskette im finalen Bildergebnis an Wand oder Monitor (nicht peepend - das gesamte fertige Bild) finden oder auch nicht finden lassen. Hervorragende Bildergebnisse eines Profis aus einer MF zweifle ich nicht an, das glaube ich dir ungesehen. ;)

 

Link zum Beitrag
Auf anderen Seiten teilen

ich glaube die Frage muss sein:

 

 

hat irgendjemand der Leica M Fans tatsächlich eine?

 

 

;)

 

Das ist eine bloede frage, die klingt ein bischen so als haette das jemand behauptet.

 

@beardman,

was nighstalker meint ist das deine frage schwer zu beantworten ist weil wir keine bilder haben. Vielleicht tauchen welche auf flicker auf. Schoen waere es natuerlich wenn man S/W bilder gegen auf S/W runtergerechnete direkt vergleichen koennte.

 

Ich behaupte mal ins blaue man wird es sehen, sie duerften "klarer" und detailreicher sein.

Ich versuche allerdings immernoch das wiki zu verstehen und so ganz gelingt es mir nicht:

 

Die lichtempfindlichen Zellen einer einzelnen Fotozelle auf dem Halbleiter können nur Helligkeitswerte erfassen. Um Farbinformationen zu erhalten, wird vor jeder einzelnen Zelle ein winziger Farbfilter in einer der drei Grundfarben Rot, Grün oder Blau aufgebracht. Die Filter sind beispielsweise in den ungeraden Zeilen in der Folge Grün-Rot und in den geraden Zeile in der Folge Blau-Grün aufgebracht. Jeder Farbpunkt (Pixel) liefert entsprechend nur Informationen für eine einzige Farbkomponente an dieser Stelle, so dass für ein vollständiges Bild mit denselben Abmessungen die jeweils benachbarten Pixel derselben Farbe zur Farbinterpolation herangezogen werden müssen. Für Grün werden somit 50 % der Pixel errechnet, bei Blau und Rot sind es jeweils 75 % der Fläche (oder in einer Zeile 50 % und in der Folgezeile 100 % der Zeile), die durch Berechnung gefüllt werden müssen. Bei der Farbinterpolation geht man davon aus, dass es im Bild zwischen zwei benachbarten Pixeln gleicher Farbe nur zu geringen Farbunterschieden kommt und somit die Grauwerte der Pixel stochastisch nicht unabhängig voneinander sind. Dies muss natürlich nicht auf jedes Bildmotiv zutreffen. Daher besitzt der Bayersensor unter der Betrachtung eines artefaktfreien Bildes streng genommen nur ein Viertel der scheinbaren Auflösung.

 

 

Fuer den fall ich verstehe es schon ein wenig, dann so, dass ein farbsensor auch nur grauwerte (helligkeitsstufen) "sieht" und diese in form einer zahl weiterverarbeitet (verarbeiten laesst). Auf grund von filtern (die sicher nicht perfekt sind) weiss man welche farbe (wellenlaenge) dieses licht in etwa hat. Die zahlen mehrerer sensoren werden so zu einem farbigem pixel vermischt(gerechnet).

Auf den ersten blick sieht das so aus als koenne man, wenn man eh nur S/W (grauwerte, hellligkeiten) benotigt mit gleichem aufwand sehr viel mehr bildpixel haben. Oder groessere pixel (lichtempfindlicher). Man muesste eigentlich nur diese filterschicht weglassen. 

Ob das so stimmt wie ich mir das zusammenreime, ist ne andere frage. Ich wuerde gerne bilder vergleichen koennen.

 

Wenn ich dann traeume sehe ich eine alpha7S (12MP farbe) mit 24, oder 36MP, aber halt immernoch mit unglaublichen rauschfreien ISO werten. (und ohne lowpass filter wie bei der A7R)

 

willy

bearbeitet von Puenktchen
Link zum Beitrag
Auf anderen Seiten teilen

Downsampling führt, u.a. besonders bei Bayer-Sensoren, natürlich zu noch "ruhigerem" und klareren Bildergebnis. Mehr oder weniger geringfügig. Spätestens bei 50% linearem Downsampling würde ich aber meinen, auch pixelpeepend, keinerlei Benefit durch noch höher aufgelöste Ursprungsbilder erkennen zu können. Und selbst dann wird dabei mehr gemessen und "gechartet" als gesehen werden müssen ...

 

Weiß jetzt auch nicht genau was du vergleichst. Deine "Hobby-Kamera" & Optik, erwähnte MF & Optik, Darstellungsmedien. Im Idealfall vergleichst mal direkt Bildergebnisse deiner Ausrüstung mit jenen einer geliehenen MF (und auch deinem Kopf dahinter) und dann wird sich ja entscheidend zeigen welche Unterschiede hinsichtlich Auflösung/Rauschen/Tonwertumfang/Dynamik/etc. sich am Ende der Bilderstellungskette im finalen Bildergebnis an Wand oder Monitor (nicht peepend - das gesamte fertige Bild) finden oder auch nicht finden lassen. Hervorragende Bildergebnisse eines Profis aus einer MF zweifle ich nicht an, das glaube ich dir ungesehen. ;)

 

 

Es ist alles richtig was du schreibst und auch nachvollziehbar.

Dazu kommt das ich keine vergleichsfotos habe zu den aufnahmen der MF kamera. Wenn sich die gelegenheit ergeben sollte werde ich das naechste mal, am gleichen ort, zur gleichen zeit moeglichst gleiche bilder mit meiner kamera machen. So das man sie spaeter nebeneinander halten kann.

 

Ich habe mir bislang vorgestellt das der chip der MF kamera (gemeinsam mit den objektiven) einfach exacter und genauer belichtet was man im endergebnis auch sieht. Die sensoren auf einem chip haben gewisse qualitaeten. Haben einen abstand der sie voneinander trennt. Diese qualitaet ist bestimmt nicht gleich auf allen chips und je nach groesse und packungsdichte auch garnicht gleichgut herstellbar. Da wir alle sehr gute aufloeseungen haben heuzutage ist das eventuell sogar schon sichtbar. (das ist reine spekulation von mir)

Also fertigungsungenauigkeiten im sensor wobei eine teure MF kamera vielleicht besser abschneidet.

 

w

bearbeitet von Puenktchen
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

was nighstalker meint ist das deine frage schwer zu beantworten ist weil wir keine bilder haben. Vielleicht tauchen welche auf flicker auf. Schoen waere es natuerlich wenn man S/W bilder gegen auf S/W runtergerechnete direkt vergleichen koennte.

 

Es gibt im Netz doch eine Menge an frei verfügbaren Beispielbildern (RAW) der L Monochrom. Beispielsweise hier einige DNGs: http://www.slack.co.uk/slack/Download.html   - sogar mit einem Direktvergleich desselben Motivs zwischen M9 & Mono. Runterladen, beide wunschgemäß entwickeln und Workflow sowie Endergebnisse vergleichen.

Ein Monochromsensor hat durchaus seine Reize, aber eben auch seine Nachteile - wie alles im Leben.

 

 

Auf den ersten blick sieht das so aus als koenne man, wenn man eh nur S/W (grauwerte, hellligkeiten) benotigt mit gleichem aufwand sehr viel mehr bildpixel haben. Oder groessere pixel (lichtempfindlicher).

 

Gleichem Aufwand - inwiefern?

Durch's Weglassen der Farbfilter bleibt die Pixelmatrix des abgespeicherten Bildes gleich. Die Farbinterpolation fasst ja nicht mehrere Sensorpixel zu lediglich einem Pixel im ausgegebenen Bild zusammen, sondern interpoliert für jeden einzelnen Pixel die jeweils fehlende Info aus dessen Umgebung.

Aber theoretisch könnte man natürlich bei einem Monochromsensor für gleichen Detailerhalt wie beim Farbsensor die Pixelanzahl etwas reduzieren oder bei vergleichbaren Rauscheigenschaften (+/- auf Pixelniveau) die Pixelanzahl erhöhen. Dafür opfert man eben jeweils die Farbinfo.

 

 

Ich habe mir bislang vorgestellt das der chip der MF kamera (gemeinsam mit den objektiven) einfach exacter und genauer belichtet was man im endergebnis auch sieht.

 

Sicher bietet MF nochmals mehr technische Möglichkeiten/Reserven/Potential, schau dir zB mal die mit aktuellem Sensor bestückte Pentax 645Z an (und die ist nur "kleines" MF). Auch nicht zuletzt weil dessen verfügbare Optiken kompromisslos darauf abgestimmt sind, was grade bei KB doch aus einer qualitativ sehr bunten Mischung besteht.

Die Gretchenfrage ist halt aber ob und was man im Endergebnis dann auch wirklich sieht und hierbei hängt es meiner Meinung nach im entscheidenen Ausmaß davon ab von welchem Endergebnis bzw. welcher Erscheinungsform (Monitor, Druck, Größe, ...) man überhaupt spricht.

 

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Bezichtigst du die Leica Camera AG der Bilanzfälschung? Falls ja, solltest du mit solchen Äußerungen vorsichtig sein. Wenn es schlecht läuft flattert einem schneller ein Schreiben von einem Anwalt auf den Tisch als einem lieb ist.

 

Was die Geschäftszahlen angeht, die kann jeder im Bundesanzeiger nachlesen. Hier mal ein paar Zitate aus dem Geschäftsbericht 2013/14 (aktuellere Zahlen liegen nicht vor).

 

"Der Gesamtumsatz der Leica Camera AG erhöhte sich von TEUR 264.720 um TEUR 15.429 auf TEUR 280.149. Dies entspricht einem Anstieg von 5,8% gegenüber der Vorperiode, nach 9,6% im Vorjahr. (Hinweis. Damit ist Leica der einzige Hersteller der seinen Umsatz im Bereich Imaging steigern konnte)

 

lm Vergleich zum Vorjahr hat die Produktgruppe Systemkameras mit 12,9% den größten Umsatzzuwachs und stellt mit 54,3% Anteil am Gesamtumsatz die stärkste Produktgruppe dar. Der Umsatz mit Kompaktkameras ging von TEUR 85.599 um TEUR 3.883 auf nunmehr TEUR 81.716 zurück. Dies entspricht einem Umsatzrückgang von 4,5% in einem Marktsegment, welches im Kalenderjahr 2013 Rückgänge von insgesamt ca. 30% zu verzeichnen hatte. (Hinweis. Bei den japanischen Herstellern fielen die Shipments bei den Systemkameras im gleichen Zeitraum wertmäßig um 10% und stückzahlmäßig um 15%).

 

Die Umsatzrendite, definiert als EBIT zu Umsatzerlöse, entwickelte sich seitwärts. Nach im Vorjahr 14,5% ergeben sich im aktuellen Jahr 14,6%. (Hinweis. Damit war Leica neben Canon der profitabelste Kamerahersteller.)

 

Na toll, ich bin sehr beeindruckt!  Ich glaube, ich kaufe mir eine S2, da die keine Lieferfristen hat, die "steht" schon im Laden!   :D

Link zum Beitrag
Auf anderen Seiten teilen

 

 

 

Gleichem Aufwand - inwiefern?

Durch's Weglassen der Farbfilter bleibt die Pixelmatrix des abgespeicherten Bildes gleich. Die Farbinterpolation fasst ja nicht mehrere Sensorpixel zu lediglich einem Pixel im ausgegebenen Bild zusammen, sondern interpoliert für jeden einzelnen Pixel die jeweils fehlende Info aus dessen Umgebung.

Aber theoretisch könnte man natürlich bei einem Monochromsensor für gleichen Detailerhalt wie beim Farbsensor die Pixelanzahl etwas reduzieren oder bei vergleichbaren Rauscheigenschaften die Pixelanzahl erhöhen. Dafür opfert man eben jeweils die Farbinfo.

Ich kann das schlecht erklaeren weil ich es noch garnicht wirklich verstanden habe. :)

 

Wenn wir, der einfachheit halber, mal ignorieren das die farben nicht gleichverteilt sind. 

 

Wenn ich eine 9MP kamera habe, habe ich 9MP rot + 9MP gruen + 9MP blau?

Welche gemischt werden um den zahlenwert einer farbe darzustellen die einem pixel auf der speicherkarte entspricht?

Bayer_matrix.svg.png

Oder habe ich 3MP rot + 3MP gruen + 3MP blau?

 

Fotografiere ich einen perfekt blauen himmel, dann habe ich nur daten eines 3MP bildes?

Die graustufen werte (helligkeitswerte) der sensoren die blau "sehen" koennen. Waerend die pixel fuer rot und gruen nichts sehen und keine werte haben?

Die bilddaten werden von 3MP auf 9MP aufgeblasen (interpoliert) und gespeichert?

 

Oder noch lustiger, wenn ich ein testbild, wie oben, in genau der aulfoesung habe wie die sensorenpixel sind und es genau ausrichte, jedoch so das die farben immer auf sensoren treffen die fuer diese wellenlaenge nicht zustaendig sind, dann bleibt das bild leer?

 

Ich glaube ich bin verwirrt. ;) Am besten schaue ich mir in deinem anderem link die beispielbilder an.  :P

 

willy

 

 

Edit: eigentlich ist es egal wie es ist (trotzdem wuerde ich es gerne wissen), wenn man erreicht das jeder sensor der vorhanden ist, ohne aufgesetzten filter, helligkeitswerte liefert, dann haette man die bestmoegliche aufloesung und qualitaet (was nicht identisch ist) fuer eine gegebene chiptechnologie. 

 

 

bearbeitet von Puenktchen
Link zum Beitrag
Auf anderen Seiten teilen

Nein, ich spende für NEPAL !!! und es wäre nett, dass das hier die Mitmenschen auch tun sollten.

 

Wenn du jedes Mal spendest, wenn du Phrasen drescht bin ich auch gerne bereit diese zu ertragen. Da kommt ja ein bisschen was zusammen bei dir ... ;)

 

Link zum Beitrag
Auf anderen Seiten teilen

Wenn wir, der einfachheit halber, mal ignorieren das die farben nicht gleichverteilt sind. 

 

Wenn ich eine 9MP kamera habe, habe ich 9MP rot + 9MP gruen + 9MP blau?

[...]

Oder habe ich 3MP rot + 3MP gruen + 3MP blau?

 

3+3+3 werden vom Sensor aufgenommen, alle 3 seitens ihrer jeweils fehlenden 6 (2*3) von Infos verschiedener "Nachbarn" ergänzt und als 9+9+9 im fertigen Bild ausgegeben.

Beispiel: Ein grüner Sensorpixel nimmt nur den grünen Kanal auf und übernimmt die Werte für Rot und Blau von benachbarten roten und blauen Pixeln um für's RGB Farbsystem alle drei Farbwerte liefern zu können. Bei einer 9 MP Kamera sind damit am Ende 1/3 der Bildinfo tatsächlich gemessen, die restlichen 2/3 nur mehr oder weniger gut geschätzt.

 

 

Fotografiere ich einen perfekt blauen himmel, dann habe ich nur daten eines 3MP bildes?

Die graustufen werte (helligkeitswerte) der sensoren die blau "sehen" koennen. Waerend die pixel fuer rot und gruen nichts sehen und keine werte haben?

 

Ja.

Wobei dies in der Praxis kaum jemals in derartiger Reinkultur auftreten wird und die einzelnen Farbkanäle in den Grenzbereichen wohl auch mehr oder weniger überlappende Spektren abdecken.

 

 

Die bilddaten werden von 3MP auf 9MP aufgeblasen (interpoliert) und gespeichert?

 

Ja.

 

 

Oder noch lustiger, wenn ich ein testbild, wie oben, in genau der aulfoesung habe wie die sensorenpixel sind und es genau ausrichte, jedoch so das die farben immer auf sensoren treffen die fuer diese wellenlaenge nicht zustaendig sind, dann bleibt das bild leer?

 

Ja, bis auf's Rauschen.

Viel Spaß beim Ausrichten. ;)

 

 

Edit: eigentlich ist es egal wie es ist (trotzdem wuerde ich es gerne wissen), wenn man erreicht das jeder sensor der vorhanden ist, ohne aufgesetzten filter, helligkeitswerte liefert, dann haette man die bestmoegliche aufloesung und qualitaet (was nicht identisch ist) fuer eine gegebene chiptechnologie. 

 

Dem wäre wohl so. U.a. deshalb (bessere Photonenausbeute, keine Interpolation) scheint zB Panasonic an einem Sensorkonzept zu arbeiten, welches keine Farbfilter verwendet (und damit gehörig viel Licht abblockt) sondern das Spektrum mittels einer Art Prisma aufspaltet und auf einzelne Wellenlängenbereiche auf jeweilige Sensoren ablenkt. Wie auch immer das ausgehen wird und welche Nachteile damit verbunden sein werden.

Auch das Foveonkonzept zielt darauf ab mit dem Bayer-Muster verbundene Nachteile zu umgehen, wenngleich auch hier Farbfilter nicht gänzlich erspart bleiben und eben andere Kompromisse in Kauf genommen werden müssen.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Ich bin nicht sicher, ob eine reine Monochromkamera eine gute Idee ist.

Zu SW-Filmzeiten musste mit verschiedenen Filtern vor dem Objektiv gearbeitet werden oder/und es wurden Filme mit unterschiedlichen Emulsionen eingesetzt, die unterschiedliche Farbempfindlichkeit hatten.

Behält man den Bayer-Pattern bei, dann kann man durch entsprechende Nachbearbeitung das gewünschte SW-Bild erzeugen und braucht keine Filter vor dem Objektiv.

http://www.kleine-fotoschule.de/schwarzweiss-fotografie.html

http://www.fotografie-in-schwarz-weiss.de/sw-fotografie/kolumne/126-wollstein28.html

http://www.elmar-baumann.de/fotografie/fotobuch/node18.html

 

Mir persönlich gefallen die Schwarzweißbilder heute am besten, die mit einer auf Infrarot umgebauten Digitalkamera gemacht wurden.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

  • 2 weeks later...

3+3+3 werden vom Sensor aufgenommen, alle 3 seitens ihrer jeweils fehlenden 6 (2*3) von Infos verschiedener "Nachbarn" ergänzt und als 9+9+9 im fertigen Bild ausgegeben.

Beispiel: Ein grüner Sensorpixel nimmt nur den grünen Kanal auf und übernimmt die Werte für Rot und Blau von benachbarten roten und blauen Pixeln um für's RGB Farbsystem alle drei Farbwerte liefern zu können. Bei einer 9 MP Kamera sind damit am Ende 1/3 der Bildinfo tatsächlich gemessen, die restlichen 2/3 nur mehr oder weniger gut geschätzt.

 

[...]

 

Ich habe jetzt, auf einer alten postkarte, gefunden wie das wirklich funktioniert mit dem der Bayer-Matrix!

 

RodPlauKruen.jpg

 

kleiner scherz...

willy

bearbeitet von Puenktchen
Link zum Beitrag
Auf anderen Seiten teilen

Aber du bist sicher nicht anspruchslos. Vielleicht aber zu anderen Zeiten / Lichtverhältnissen unterwegs. Wie kommst du mit dem EVF in den Bergen bei gleißender Sonne und Schnee zurecht? Oder bei richtig heller Sommersonne in heller Umgebung?

 

Sony NEX7, A7, A7R, A99V und RX1 mit Aufsteck-EVF und Augenmuschel: 

 

Voellig problemlos, probiert bei Schnee in Svalbard, in europäischen Hochgebirgen, Wüste, Strand, … - eher besser nutzbar als eine SLR.

 

Gruss

 

Micha

=->

Link zum Beitrag
Auf anderen Seiten teilen

Das sehen aber die exklusiven Leica MM Anwender aber sicher ganz anders!    ;)

Ich photographiere selber nach wie vor mit Leica (MP und M9). Kann als Leica Anwender in der Monochrome trotzdem keinen Vorteil erkennen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich photographiere selber nach wie vor mit Leica (MP und M9). Kann als Leica Anwender in der Monochrome trotzdem keinen Vorteil erkennen.

 

Bist du in der lage mit dem gleichen objektiv ein bild * mit dem SW sensor und mit dem farbsensor zu machen? (irgendeins)

Ich will S/W umgerchnet gegen S/W nativ gerne nebeneinander halten. (wuerde jedoch gerne die RAW zu vergleich haben).

 

willy

 

 

* zur gleichen zeit, bei gleichem licht etc...

Link zum Beitrag
Auf anderen Seiten teilen

  • 5 years later...

Hole den ollen Thread nach knapp 6 Jahren nochmal hoch, da mich das Thema aktuell interessiert!
Sony hat zwar immer noch keine "Monochrom" rausgebracht, aber es gibt mittlerweile Umbaumöglichkeiten für div. Sony Modelle.

Dabei wird das Bayer Farbfilter komplett entfernt (De-Bayering) und man hat Optionen auf IR oder reine s/w Lösungen mit vollem Spektrum.
Also das, was eine Leica Monochrom auch bietet.

Angeregt durch Forendiskussionen bei dpreview und Fred Miranda (leider nur englisch) habe ich mich da schon was eingelesen.
Klar ist, daß eine Monochrome mehr kann und ist, als eine "normale" Kamera mit s/w Konvertierung; das hatte wir hier im Thread ja schon abgehakt.

Die scheinbar beste Adresse für einen professionellen Umbau scheint derzeit  Monochromeimaging.com zu sein

Gibt es hier vielleicht mittlerweile jemanden, der sein alte NEX oder Alpha hat umbauen lassen?
 

 

 

 

bearbeitet von D700
Link zum Beitrag
Auf anderen Seiten teilen

Vielleicht noch ein paar Gründe, warum mich das Thema interessiert ...

Ich hatte bis vor kurzem durch einen glücklichen Zufall mal eine gebrauchte monochrome Leica M gehabt, die mir auch viel Spaß machte.
Letztendlich war mir aber die Kapitalbindung für solch' einen Spezialisten zu groß und daher habe ich sie wieder verkauft.

Trotzdem waren das Erlebnis mit einer Monochrom schon toll.
Die Schärfe, die Details, die sauberen High ISO Leistungen und das gesamte Verhalten eine Kamera ohne Farbfilter ist schon was Besonderes.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

bearbeitet von D700
Link zum Beitrag
Auf anderen Seiten teilen

Der Umbau geht mit KB aber auch mit APS-C.
Fakt ist, daß beim Umbau die PDAF Sensoren mit "entfernt" werden, was bei der typischen monochrom Fotografie sicher nicht das Hauptproblem sein sollte
"CDAF only" also, oder halt manuell - Im Vergleich zur Leica hat man aber den EVF ...

bearbeitet von D700
Typo ...
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...