Jump to content

Was könnte eine Dslm von einem SP "lernen"?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Habe heute im Cammenü  meines Androiden die Funktion "Fokus auf Unendlich stellen" gefunden. 

Ich war sofort begeistert und habe mir gedacht, warum kann das meine OMD nicht. 

Dunkle Nacht - Sterne  - kalt - ein kleines Knöpfen programmiert und das Objektiv steht automatisch bei Unendlich. Kaufe ich  sofort und zahle 100 Euro mehr für die Knipse.

Die eingebaute "Nachführung" bei Pentax finde ich ebenso genial; wieder 100 Euro mehr......

Was würde euch einfallen?

Gut Licht aus Graz

Bernd

Link zum Beitrag
Auf anderen Seiten teilen

vor 55 Minuten schrieb sven@skf:

Bei Pentax fand ich die Funktion toll, wo die Kamera erst auslöst, wenn beim manuellen Fokussieren die Schärfe im Fokusfeld erreicht ist. Fokusfalle hieß das und das vermisse ich schmerzlich ...

... und wenn Du ein bisschen zu schnell drehst, ist das Bild auch wunderschön unscharf ;) ... mal abgesehen davon, dass die Anzeigen (zumindest bei meinen alten Pentaxen) ein wenig nach dem Mond geeicht zu sein schien

Link zum Beitrag
Auf anderen Seiten teilen

Einstellung auf unendlich ist bei hohen Anforderungen an die Genauigkeit recht problematisch, da ist zum einen die Temperatur Abhängigkeit von Glas und Tubusmaterial, und dazu der Verlust an Schärfentiefe im Bereich "hinter unendlich".

Scheint mir für wenig mehr als Astro Fotografie zu taugen, wenn man denn schon das Aufgeld für Kalibrierung und Thermokompensation investieren will.

 

Deutlich interessanter wäre da wohl schon eine hyperfokale Fokussierung, natürlich mit vorgebbarem Limit für den Zerstreuung-Kreis.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb shaguar:

Habe heute im Cammenü  meines Androiden die Funktion "Fokus auf Unendlich stellen" gefunden. 

Ich war sofort begeistert und habe mir gedacht, warum kann das meine OMD nicht. 

Dunkle Nacht - Sterne  - kalt - ein kleines Knöpfen programmiert und das Objektiv steht automatisch bei Unendlich. Kaufe ich  sofort und zahle 100 Euro mehr für die Knipse.

Bei der E-M1 II gehst du im Zahnradmenu auf "A3" und gibst dort bei "eingestellt.MF-Abstand" 999.9m ein. Dann legst du im Reiter "B" fest, welchen Knopf du für diese Funktion festlegen willst.  Das sollte für WW- und Normal-Objektive mehr als ausreichend sein, bei Super-Tele muss man noch ein wenig nachfokussieren. Bei Smartphones hat man aber die Option Supertele gar nicht.

Die 100€ kannst du mir gerne überweisen. Schick mir bitte eine PN mit deiner Mailadresse, dann kriegst du sofort meine Kontonummer. 😁

Gruß

Hans

bearbeitet von Hacon
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Meiner Meinung nach können DSLM von den Fotofunktionen in den SPs eigentlich nichts lernen. Eher umgekehrt ist das ja der Fall. Die SPs simulieren ja zum größten Teil in den App Oberflächen klassische Kameras und umgekehrt haben gute Kameras ohnehin schon funktionierende und auf das Kamerabedienkonzept angepasste Touchfunktionen. AI für die Erzeugung von Bokeh oder ähnlichem, brauche ich nur bedingt - wenn überhaupt eher auf dem Rechner - und erhalte ich ja ohnehin durch Wahl eines entsprechenden Objektivs und der geeigneten Blende. Kommen wird da in Kameras sicher etwas, aber das hat ja im Grunde mit Smartphones per se erstmal nichts zu tun.

Die Frage, ob Kameras mit der Außenwelt besser kommunizieren müssten, haben wir ja schon vielfach diskutiert. Braucht es mMn. nach nicht, da ich Bilder schon jetzt einfach und schnell via SD-Kartenadapter auf mein Mobilgerät übertragen bekomme und die Kameras durch die Nicht-fotografischen Kommunikationsfunktionen noch komplexer und letztlich überladen werden. Bessere Anbindung ans Mobilgerät verlangt bessere Technik, die aber offenbar noch nicht da ist.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb shaguar:

Was würde euch einfallen?

Ich hatte schon öfter mal geschrieben, dass ich mir eine Kompakte wünsche, die die Software-Algorithmen der Smartphone-Hersteller nutzt. HDR+ von Google, Bokeh-Berechnung etc. HDR gibt es in vielen Kameras schon, aber in vielen Smartphone sehen die Ergebnisse besser aus.

Hier eine Meldung aus dem eigenen Forum. So hatte ich mir das nicht vorgestellt, sondern mit deinem dezenten FixFocus oder Mini-Zoom. 😂

 

Link zum Beitrag
Auf anderen Seiten teilen

Eine Funktion für die Schärfentiefe könnte mir gefallen: Nahpunkt anvisieren, Knopf drücken, Fernpunkt anvisieren, Knopf drücken, Kamera wählt die passende Blende. Ob Smartphones das machen, ist mir egal.

Übrigens Danke an @Hacon. Ich bin immer wieder erstaunt, welche Funktonen Olympuskameras bieten, das ist schon toll. Würde mich nicht wundern, wenn jetzt gleich jemand erklärt, dass es die Schärfentiefefunktion auch schon längst dort gibt. :) 

bearbeitet von leicanik
Link zum Beitrag
Auf anderen Seiten teilen

Am 2.11.2018 um 08:00 schrieb cyco:

sondern mit einem dezenten FixFocus

Ich nehme an, du meinst eine Kamera mit fester Brennweite? Ein Fixfocusobjektiv ist eines mit fester Entfernungseinstellung,  in der Regel auch relativ lichtschwach, damit die Schärfentiefe die fehlende Fokussiermöglichkeit in gewissen Grenzen ausgleicht. Gab es früher bei einfachen Kompaktkameras. Wird heute oft verwechselt. Oder meinst du wirklich so ein einfaches Schnappschussobjektiv? :) 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb leicanik:

Oder meinst du wirklich so ein einfaches Schnappschussobjektiv? 

Ne, hast recht, leicanik. Ich meine eine feste Brennweite. Etwas zwischen 20 und 35 mm Brennweite fest. Danke für die Richtigstellung. Wieder was gelernt. :)

Link zum Beitrag
Auf anderen Seiten teilen

auch interessant. Da ich nur manuelle Objektive nutze, weiß ich, wo bei jedem Objektiv unendlich liegt (sicher nicht beim unendlich-symbol :P). Das wäre also schonmal kein Punkt, den ich vom SP abkupfern würde. HDR+ von Google.. hm, da schlägt wohl einfach die Physik zu, es is halt was anderes nen paar mm großen Sensor gegen nen KB-Sensor zu vergleichen und die Auslesezeit beider miteinander zu vergleichen.

Aber! da hat Sony doch schon bei der a7 damals so einen algorithmus (wie ich gerade lese schon bei den Aps-C varianten 2010) verbaut. bei einer Szene für Nachtaufnahme aus der Hand. (https://helpguide.sony.net/gbmig/44840606/v1/de/contents/TP0000243908.html) Da werden mehrere Bilder getätigt, das verwackeln rausgerechnet, Bewegungen rausgerechnet (also keine verschwommenen personen) und das Rauschen reduziert. Im Endeffekt sollte das Ergebnis das gleiche wie bei dem Google HDR+ sein.

Die Szenenmodi sollten im Link "Handgeh. bei Dämm." und " Anti-Beweg.-Unsch." heißen. Unter "Hinweise" steht noch mehr dazu. Hatte dazu mal nen coolen Beitrag, der das genauer unter die Lupe nimmt mit nem Bild von personen bei einem Fast Food-Restaurant Nachts. Aber den finde ich leider nicht mehr :(

OK - das ist jetzt kein direktes HDR, aber der zu grunde liegende Algorithmus ist faktisch das auf dem dieses HDR+ aufbaut (aufbauen muss). Die Dunkel-Anhebung und "höhere Dynamik" (generell fragwürdig bei nem JPG) sind dann wiederrum nur nachgelagerte Bearbeitungen nachdem erstere Dinge schon rausgerechnet wurden.

Hierbei würde ich sogar auch viel eher sagen., da hat das SP von der Cam abgekupfert und das SP einfach den Vorteil des kleineren Sensors und schnelleren Auslesens hat (und somit des "Bursts") und sicher noch paar Sachen, wie der Bit-Tiefe der Sensor-Pixel und andere, die mir grad ned einfallen. Im Grunde ist das HDR+ also auch nix anderes, als das, was man sowieso schon machen kann, machen konnte und/oder sogar auf andere Art und Weise nachträglich am PC machen kann, da aber mit den eigenen RAW-Images.

So beeindruckend finde ich das iwie gar nicht :D
 

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb Neto-Zeme:

Aber! da hat Sony doch schon bei der a7 damals so einen algorithmus (wie ich gerade lese schon bei den Aps-C varianten 2010) verbaut. bei einer Szene für Nachtaufnahme aus der Hand. (https://helpguide.sony.net/gbmig/44840606/v1/de/contents/TP0000243908.html) Da werden mehrere Bilder getätigt, das verwackeln rausgerechnet, Bewegungen rausgerechnet (also keine verschwommenen personen) und das Rauschen reduziert. Im Endeffekt sollte das Ergebnis das gleiche wie bei dem Google HDR+ sein.

Ja, die Pixel-Reihe, bzw. Kamera-App von Google, nimmt bei HDR+ mehrere Aufnahmen im Burst-Modus auf. Diese werden dann unter zu Hilfenahme von KI optimiert verrechnet, weil Googles KI auf Millionen von Bilder zugreift um die KI zu trainieren. Als Resulat bekommt man HDR-Bilder, die kaum nach HDR aussehen und meist sehr gefällig sind. Das kann die Sony-Kamera nicht. Die verrechnet die Bilder und optimiert mit einem eigenen Algorithmus.

Das ist schon beeindruckend. Aber dazu müsstest Du mal ein Smartphone der Pixe-Reihe nutzen um das live zu sehen. Das geht über eine normale HDR-Verrechnung hinaus.

bearbeitet von cyco
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb cyco:

Ja, die Pixel-Reihe, bzw. Kamera-App von Google, nimmt bei HDR+ mehrere Aufnahmen im Burst-Modus auf. Diese werden dann unter zu Hilfenahme von KI optimiert verrechnet, weil Googles KI auf Millionen von Bilder zugreift um die KI zu trainieren. Als Resulat bekommt man HDR-Bilder, die kaum nach HDR aussehen und meist sehr gefällig sind. Das kann die Sony-Kamera nicht. Die verrechnet die Bilder und optimiert mit einem eigenen Algorithmus.

Das ist schon beeindruckend. Aber dazu müsstest Du mal ein Smartphone der Pixe-Reihe nutzen um das live zu sehen. Das geht über eine normale HDR-Verrechnung hinaus.

ok, danke für den Hinweis, das war mir dann nicht so ganz bewusst, mit der dahinter werkelnden KI.


Aber ja, stimmt. Wäre etwas, das man vom SP lernen könnte. Wobei ich hier eher generell von KI sprechen würde. Aber stimmt. gute Idee :)

Edit (weil kB auf Doppel-Post): hier hat jmd bspweise die schon "alte" Sony-Funktion im Forum genutzt:

Den Vorteil von HDR+ sehe ich dann also auf das nutzen von Burst-Fotos mit einer darauf eintrainierten KI, die hier vor allem für... naja. Beautifying zuständig ist, wenn ich das richtig sehe?
Weil der Vorgang, den ich für HDR+ lese beschränkt sich dann ja doch relativ auf das simple (https://ai.googleblog.com/2018/02/introducing-hdr-burst-photography.html) : " Using bursts to improve image quality. HDR+ starts from a burst of full-resolution raw images (left). Depending on conditions, between 2 and 10 images are aligned and merged into an intermediate raw image (middle). This merged image has reduced noise and increased dynamic range, leading to a higher quality final result (right). " und die KI ist ein inzwischen nachgelagertes implementiertes Feature, wenn ich das richtig sehe? und hat eher mit dynamischen Tone-Mapping zu tun? Also im Grunde wäre es ja dann doch einfach das Sony-Feature nur eben mit ner Burst-Aufnahme und eben der erhöhten Dynamik im Nachhinein?

So richtig viel infos dazu finde ich ehrlich gesagt nicht, oder ich bin einfach dumm :D

Edit 2:
Hab nen anderen beitrag zu den Sony-Sachen gefunden: https://mirrorlessmadness.wordpress.com/2012/03/08/nex-7-anti-motion-blur-or-hand-held-twilight/

Da sieht das SP ja fast schon alt aus dagegen :D

bearbeitet von Neto-Zeme
Nachfrage bzw. Vertiefung zu HDR+
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...