Jump to content

Das Ende der Stabi-Systeme . . .


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

ist vermutlich eingeleitet:

 

 

Hier Infos zu Adobes neuem Schärfungsverfahren:

 

Photoshop: Adobe verspricht Scharfmacher für verwackelte Fotos - SPIEGEL ONLINE - Nachrichten - Netzwelt

 

 

Insbesondere wird damit auch das Altglas an einer Nex stabilisiert ;-)

 

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

wird das neue schärfungssystem in der bildbearbeitung benutzt? Ich nehme mal an ja.. das heißt aber das Stabis nicht aussterben dürften. Zum ienem gibt es Fotografen die sofort ihre Fotos veröffentlichen müssen und keine zeit für bearbeitung haben. Aber vor allem ist der stabi für die Aufnahme von Videos enorm hilfreich weswegen ich meine der stabi bliebt trotz des neuen Schärfungsverfahrens erhalten ausser. Aber trotzdem wird dies ernorm hilfreich sein und manch auf der festplatte verwackelte fotos könnte man ja vielleicht damit retten wer weiß.

Link zum Beitrag
Auf anderen Seiten teilen

Einer meiner Freunde schreibt den Algorithmus für dieses Modul. Es war vorerst als Diplom und dann als Doktorarbeit geplant. Das Problem an diesem Algorithmus ist aber immer noch, dass er nur begrenzt hilft, also, dass das berechnete Bild nicht annähernd einem direkt scharf geschossenen Bild das Wasser reichen kann ( Eher gute Facebook-Qualität), aber auch, dass ein Bild 20Minuten Berechnungszeit benötigt ;)

Trotzdem ist dies schon sehr genial und wird mit aller Gewissheit einen Nutzen finden.

Link zum Beitrag
Auf anderen Seiten teilen

Einer meiner Freunde schreibt den Algorithmus für dieses Modul. Es war vorerst als Diplom und dann als Doktorarbeit geplant. Das Problem an diesem Algorithmus ist aber immer noch, dass er nur begrenzt hilft, also, dass das berechnete Bild nicht annähernd einem direkt scharf geschossenen Bild das Wasser reichen kann ( Eher gute Facebook-Qualität), aber auch, dass ein Bild 20Minuten Berechnungszeit benötigt ;)

Trotzdem ist dies schon sehr genial und wird mit aller Gewissheit einen Nutzen finden.

 

Danke für diese Infos aus dem "Nähkästchen".

 

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Wo bitte sollen Details im Bild her kommen, die niemals da waren? Lassen wir doch gleich noch den AF weg...

 

bitte genau lesen, worum es hier geht: Verwacklung druch Bewegungsunschärfe, d. h. die Details sind da, nur eben "verschmiert". Eine schlechte Fokussierung ist was anderes.

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

 

. . . nur eben sehr gut versteckt :)

 

Immerhin wollte ich die Besitzer von Stabi-Kamers ansprechen, und nicht die Nutzer von Photoshop. Denn eines ist auch klar: Wenn das einmal gut funktioniert, wandert die Software in die Kameras,Photoshop ist nur das "Labor", in dem man Entwicklungen "testet".

 

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Ist ja doch vom Prinzip her nicht Schlecht.

Sollten sie jedoch mal den Schritt gehen es in die Kamera zu stecken hoffe ich nur das es dem Besitzer einer Systemkamera oder DSLR überlaasen bleibt diese Tool zu nutzen oder nicht.

Wo es sicherlich schnell Einzug findet wird in den Megazzomkameras sein, denn bei den vergleichsweise lichtschwachen Objektiven mit einer Brennweite von umgerechnet über zum Teil 600mm und mehr kann mann hier sicherlich noch ein paar verkaufsbringende Milimeter rausholen.;)

Link zum Beitrag
Auf anderen Seiten teilen

ja ds weiß ich. Ich abe mich wohl schlecht ausgedrückt. Ich meinte vielleicht gibt es ja noch leite die auf dem pc oder auf der festplatte haben dieverwackelt sind und diese dadurch deutlich besser aussehen lassen könnten.

 

Oder geht es darum, Leute, die einen PC haben und zuviel wackeln, deutlich besser aussehen zu lassen...:confused:

 

Kavenzmann

 

P.S. Es soll auch mal unernste Stimmen in diesem Forum gegeben haben...:D

Link zum Beitrag
Auf anderen Seiten teilen

Plugins zum Entfernen oder besser gesagt Vermindern von Bewegungsunschärfe/Verwackeln gibt es bereits, als Beispiel nenne ich mal Focus Magic.

 

Grundsätzlich handelt es sich hier um eine Korrekturmaßnahme, d.h. man kann damit Fotos mit Bewegungsunschärfe "mehr oder weniger verwendbar" machen, sofern Motiv und Grad der Unschärfe eine Wiederherstellung überhaupt zulassen.

Kombiniert mit den bereits existierenden Bildkorrektur-Features, die bereits in CS5 enthalten sind (Bildelemente entfernen, nahtlose Reparaturen, ...), kann man damit in absehbarer Zukunft sicher erstaunlich gute Ergebnisse erzielen. Bis diese aber so gut sind, dass sie einen Stabi bzw. passende Belichtungszeiten zu 100% ersetzen können, werden imo noch ein paar Jahre vergehen. Nicht nur für die

Algorithmen sondern auch bis entsprechend leistungsstarke Prozessoren für die Kamerabodies existieren.

 

Interessant ist der Ansatz aber trotzdem.

Link zum Beitrag
Auf anderen Seiten teilen

bitte genau lesen, worum es hier geht: Verwacklung druch Bewegungsunschärfe, d. h. die Details sind da, nur eben "verschmiert". Eine schlechte Fokussierung ist was anderes.

 

Gruß Hans

Mathematisch gesehen dürfte ein unscharfes Bild - egal, ob verwackelt oder falsch fokussiert - die Faltung des scharfen Bildes mit irgendeiner "Unschärfefunktion" sein. So etwas lässt sich dann mit einem Deconvolution-Algorithmus unter Kenntnis der Unschärfefunktion (mit der quasi jeder einzelne, scharfe Pixel auf viele Pixel verschmiert wird) wieder zurück rechnen.

 

Dabei sehe ich vier große Probleme:

1. Der Rechenaufwand

2. Fehlende Bildinformationen am Rand des Bildes (wenn ein Pixel am Rand noch über den Bildrand hinaus verschmiert wird, was insbesondere bei stark verwackelten oder stark unscharfen Bildern problematisch werden dürfte)

3. Die genaue Kenntnis der Unschärfefunktion.

4. Diese ganze Deconvoution-Sache ist natürlich eine Näherung, die niemals ein Bild liefern kann, das so scharf und gut ist wie ein unverwackeltes, richtig fokussiertes Bild.

 

Problem 1 ließe sich insbesondere beim Einbau dieser Funktion in Digitalkameras Lösen, wenn man den Algorithmus direkt in der Hardware in Form eines ASICs umsetzt.

Problem 2 limitiert die Geschichte eben auf nicht all zu unscharfe und nicht all zu stark verwackelte Bilder und führt dazu, dass je nach Grad der Unschärfe oder Verwacklung ein Stück vom Bildrand abgeschnitten werden muss.

Problem 3 ist dagegen eine ziemlich schwierige Sache. Die Verwacklung ließe sich evtl. mit Beschleunigungssensoren in der Kamera aufzeichnen (also mit den Sensoren, die bisher auch schon für Stabilisatoren verwendet werden) und daraus könnte man in Kombination mit der Brennweite dann eine ungefähre "Unschärfefunktion" bestimmen... und bei falsch fokussierten Bildern müsste man wohl für jedes Objektiv die entsprechenden Unschärfefunktionen messen oder berechnen - und zwar in Abhängigkeit von der eingestellten Brennweite (bei Zoomobjektiven), der wirklichen Motiventfernung und der Entfernung, auf die fokussiert wurde.

Problem 4 ist ein prinzipielles Problem, wobei man mit aufwändigen Algorithmen und viel Rechenleistung bestimmt eine ziemlich gute Näherung bekommt.

Link zum Beitrag
Auf anderen Seiten teilen

Mathematisch gesehen dürfte ein unscharfes Bild - egal, ob verwackelt oder falsch fokussiert - die Faltung des scharfen Bildes mit irgendeiner "Unschärfefunktion" sein.

Ein falsch fokkussiertes Bild bekommt man niemals scharf gerechnet.

Ein verwackeltes nur wenn man die genauen Bewegungen kennt (die versucht der Algorithmus heraus zu bekommen) und auch selbst dann nur mit mehr oder weniger starken Informationsverlusten je nach Art der Bewegungen.

Die einzige optimale Methode die all diese Probleme nicht hat ist die Bewegung mit Sensoren zu erfassen und exakt gegenzusteuern also genau das was ein Stabi macht.

Link zum Beitrag
Auf anderen Seiten teilen

Ein falsch fokkussiertes Bild bekommt man niemals scharf gerechnet.

Hast du auch eine Begründung dafür, warum man nur verwackelte, aber keine falsch fokussierten Bilder mit Deconvolution (mit gewissen Verlusten) zu einem scharfen Bild "zurückrechnen" können soll?

Beides ist eine Faltung des scharfen Bildes mit einer unscharfen Zerstreuungsfunktion.

Die einzige optimale Methode die all diese Probleme nicht hat ist die Bewegung mit Sensoren zu erfassen und exakt gegenzusteuern also genau das was ein Stabi macht.

Sicherlich ist das eine sehr gute Methode - allerdings auch eine mechanisch, elektronisch und optisch aufwändige Sache, die u.U. teurer ist als eine Software-Lösung, die evtl. durchaus (z.B. in Kombination mit Sensoren, die die Verwacklung aufzeichnen, um daraus die Zerstreuungsfunktion zu bestimmen) brauchbare Ergebnisse liefern könnte, da Rechenleistung ja immer günstiger wird umd man somit immer kopmliziertere Algorithmen in der Kamera ausführen kann.

Link zum Beitrag
Auf anderen Seiten teilen

Also,

 

ich bin zwar auch kein Mathematiker, trotzdem:

Wo keine Information ist, kann auch keine hingerechnet werden!

 

Vor ca. 9 Jahren hatte ich beruflich mal einen Hintergrund eines

Architekturmodells farblich durch digitalisierung und Photoshop 3

in Kleinstarbeit farblich etwas abgeändert. Der Kunde war ja sowas

von hin und weg. Er fand das unglaublich, damals wohlgemerkt.

 

Zwei Wochen später kam er mit einem Foto aus einer Werkstatt zu

mir. Ein Trennvorhang für Schweissarbeiten hatte auf dem Bild ein

wichtiges Teil verdeckt. Er fragte also, ob ich das auch digital wieder

sichtbar machen könnte, also quasi den Vorhang wegretuschieren...:confused:

 

Wenn also durch Verwacklung (die übrigens keine Zerstreuungskreise

verursacht. Das passiert durch die Fokussierung/Schärfentiefe) etwa

aus einem Notenpapier aus 2 schwarzen Linien auf weissem Hintergrund

eine graue Fläche wird (und das könnte theoretisch genau passieren!),

woher will ein besonders schlauer Algorithmus diese Information haben?

Es könnte ja auch tatsächlich eine graue Fläche sein, oder zwei

Komplementärfarben übereinander...

Hier kann nur ein Stabi helfen, der die Sensorbewegung im Moment der

Belichtung ausgleicht. Sonst nix. Und selbst ein Stabi kann "nur" relativ

vorhersehbare, also Bewegungen mit wenig Richtungs- und Geschwindig-

keitsänderung ausgleichen.

 

Vielleicht bin ich, der sich selbst eher als Dinosaurier im Fotobusiness bezeichnen

würde, auch ein zu großer Skeptiker, was die Verbesserung von Fotos durch

technischen Fortschritt angeht. Aber in den letzten 15 Jahren habe ich v.a. in

der Quantität der Fotos den großen Sprung bemerkt, nicht aber i.d. Qualität.

Das betrifft leider auch meine Eigenen!:eek:

 

Kavenzmann

Link zum Beitrag
Auf anderen Seiten teilen

  • 2 weeks later...

woher will ein besonders schlauer Algorithmus diese Information haben?

 

 

Ein durchschnittliches Foto beherbergt ja ungleich mehr Informationen. Und wenn man sich das Bild im Gesamten quasi als Vektorgrafik ansieht, kann die Software ja eine Häufung von Vektoren mit der selben Orientierung feststellen...

Da ja alle "Punkte" (damit meine ich nicht Pixel, sondern schematische Punkte in einem Motiv) zu "Strichen" mit gleicher Richtung werden, könnte über die Länge und Orientierung dieser Striche gemittelt werden.

 

Alles in allem wird dieser Rechenvorgang sehr kompliziert sein, weshalb es wohl nicht wundert, dass wir das hier ohne weiteres nicht verstehen. Das eigene Unverständnis aber durch Unmöglichkeit der Effektivität der Software zu erklären, ist doch blöd (damit es nicht zu Missverständnissen kommt: damit meine ich nicht dich, kavenzmann :D )

Link zum Beitrag
Auf anderen Seiten teilen

Na gut,

 

dann hat die Software also im besten Falle den Bewegungsvektor

errechnet. Aber was dann?

Woher soll die Software nun wissen, was anstelle der Bewegungs-

unschärfe dahinter verborgen ist? Nearest Neighbour-Interpolation

oder wie? Eine andere Inerpolation geht in diesem Fall ja gar nicht,

oder?

Na jedenfalls weiß ich immer noch nicht woher die Software die

von der Unschärfe überdeckten Bildteile wieder hervorzaubern soll.

Aber ich bin bereit etwas zu lernen...;)

 

Kavenzmann

Link zum Beitrag
Auf anderen Seiten teilen

... oder man benutzt wie zum Beispiel bei der Astronomie einen Referenzstern oder eine Laserprojektion in die obersten Luftschichten um daraus ein Korrektursignal zu gewinnen, mit dem dann die Spiegelsegmente nachgeregelt werden - der "Astro-Stabi" eben. Verdeckte Teile des Bildes können nur geraten (interpoliert) werden. Das ist auch ein Grund, warum ich von der Softwarekorrektur all zu "krumm" gerechneter Objektive nichts halte. Feinkorrekturen ja, aber kein Ersatz für Optik. Was innerhalb der Sensorauflösung an Informationen nicht vorhanden ist, kann nur mehr oder weniger unauffällig vertuscht werden, mehr nicht. Um das zu begreifen, braucht man auch kein Mathematiker zu sein. Wenn ein Bild ausbelichtet nur die linear 1/5-Größe des 100%-Monitor-Bildes hat und aus einem moderaten Betrachtungsabstand betrachtet wird (20 x 30 aus 25 cm Abstand), dann kann man eine ganze Menge Fehler "tarnen". Insofern ist eine Softwarelösung für "preiswerte" Gerätschaften für mich akzeptabel. Spätestens wenn man bei guten A2...A1-Prints die optisch gute Lösung und die Softwarelösung direkt nebeneinander auf dem Tisch liegen hat und nicht 75% des Bildes zum Bokeh rund um das Motiv gehören, sieht das anders aus. (Für Freistellungsfreaks sieht das natürlich auch anders aus. Es gibt aber noch die eine oder andere Anwendung daneben, die ein wenig mehr verlangt.) Ich denke wir sind uns einig, dass wir in Bezug auf Softwarelösungen hier NICHT von 10 x 15 Bildchen reden?! Dafür reicht u. U. auch eine SW-korrigierte Lensbaby.

Unterm Strich geht geht für eine Verwacklungskorrektur nichts über einen guten Stabi.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...