Jump to content

Das Ende der Stabi-Systeme . . .


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Das Stichwort lautet "Deconvolution", bzw. auf deutsch "Entfaltung".

 

Kurz gesagt: Es gibt Algorithmen, mit denen man eine Faltung näherungsweise wieder zurück rechnen kann - und ein unscharfes oder verwackeltes Bild ist nichts Anderes als die Faltung des scharfen Bildes mit einer Unschärfefunktion, die quasi jeden Pixel auf einen ganzen Bereich verschmiert.

 

Kennt man nun die genaue Unschäfrefunktion, kann man das näherungsweise wieder zum scharfen Bild zurückrechnen.

 

Ich weiß zwar, was eine Faltung ist... aber um zu verstehen, wie ein Deconvolution-Algorithmus funktioniert, reichen meine Mahte- und Numerik-Kenntnisse leider nicht aus.

Link zum Beitrag
Auf anderen Seiten teilen

Das Stichwort lautet "Deconvolution", bzw. auf deutsch "Entfaltung".

 

Kurz gesagt: Es gibt Algorithmen, mit denen man eine Faltung näherungsweise wieder zurück rechnen kann - und ein unscharfes oder verwackeltes Bild ist nichts Anderes als die Faltung des scharfen Bildes mit einer Unschärfefunktion, die quasi jeden Pixel auf einen ganzen Bereich verschmiert.

(...)

Damit ist auch gleich genannt, wo die Grenzen liegen. Wenn sich mehrere Pixel gegenseitig verschmieren und damit überdecken, dann wird es schwierig.;) Das ist ja nicht so, als würde man Konfetti vermischen. Man könnte es aber damit simulieren, wenn man jedes Konfettischnipsel, welches beim überlagern verdeckt wird, von unten drunter entfernt (die Speicherstelle ist ja überschrieben worden!). Was bleibt dann übrig, wenn man die oberen Schnipsel wieder in die alte Ordnung bringt? Lücken, die man auffüllen muss. Womit füllt man die auf, wenn die ehemalige Information über diese sich voher dort befindlichen Details verloren gegangen ist? Wurden Bildpunkte auseinandergezerrt und nachträglich bei der Rückrechnerei wieder zusammengeschoben, dann wirft man auch Details weg, die sich in den nun zusammengeschobenen Bereichen befinden, weil die Auflösung endlich ist nun mal das Raster hat die es hat, denn feiner wird es nicht. Die Pixel (Speicherstellen) werden in den zusammengeschobenen Bereichen ja nicht mehr. Diese Algorithmen funktionieren solange gut, wie die erforderliche Endauflösung geringer ist als bei der Aufnahme der Bilder und durch den Betrachtungsabstand durch das Auge auch nicht besser aufgelöst werden kann. Das ist ja auch bei der überwiegenden Mehrzahl der Bilder der Fall. Ein ausbelichtetes 30 x 45 - Bild liefert dem Auge aus dem Betrachtungsabstand einer Bilddiagonale kaum mehr Daten als der Monitor aus dem gleichen Abstand, weil das Auge keine höhere Auflösung hat, auch wenn das Papier selbst viel besser auflöst als der Monitor. Erst bei der pixelpeeperischen 100%-Betrachtung auf dem Monitor oder einem auf 120 cm Breite ausbelichteten Bild aus dem gleichen geringen Abstand betrachtet ändert sich das deutlich sichtbar.

Das kann man alles sehr schön ohne höhere Mathematik verstehen. Diese Überlegungen sind ja auch VOR der Entwicklung mathematischer Algorithmen zur Lösung da. Erst kommt die Idee, dann die Ausführung. Vielleicht ist das der Grund, warum Nur-Mathematiker manchmal ganz einfache Vorgänge nicht ebenso einfach erklären können.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Selbstverständlich überdecken sich dabei mehrere Pixel - und trotzdem ist es möglich, diese Sache näherungsweise zurückzurechnen, wenn man die Funktion, mit der die scharfen Pixel verschmiert wurden, möglichst genau kennt.

Das funktioniert, wenn diese Verschmierungs-Funktion bekannt ist, erstaunlich gut.

Suche einfach mal nach dem Begriff Deconvolution - und du wirst beeindruckende Ergebnisse solcher Methoden finden.

 

Weiterhin wird bei einer Faltung eben nicht irgendetwas von etwas Anderem überdeckt (also A überdeckt B so, dass man nur noch A sieht und B nicht mehr), sondern A und B überlagern sich so, dass man A + B sieht.

Das ist jetzt auch wieder eine stark vereinfachte Erklärung, aber um um die Sache wirklich nachvollziehen zu können, sollte man verstehen, was eine Faltung ist, wozu man eben gewisse Kenntnisse der Integralrechnung benötigt. Das alles kann man nicht so ohne Weiteres erklären.

 

Ich versuche noch mal eine einfache Erklärung mit 3 Pixeln in einer Reihe nebeneinander (Pixel A, B und C im unscharfen Bild, bzw. A', B' und C' im scharfen Bild) und einem reinen Schwarz-Weiß-Bild, so dass die Pixel A, B und C jeweils einen eindeutigen Helligkeitswert haben.

 

Die Unschärfefunktion sagt nun z.B. aus, dass die Pixel derart verschmiert werden, dass B = (0,2 * A') + (0,4 * B') + (0,2 * C') ist.

Als Zahlenbeispiel für das scharfe Bild: A' = 10, B' = 150, C' = 60

Damit hat Pixel C den Wert 74.

Nun gibt es Algorithmen, die durch Kenntnis der Funktion, wie sich A, B und C aus A', B' und C' und den Werten aller Pixel des unscharfen Bildes (A, B und C), wiederum näherungsweise abschätzen können, welche Werte die Pixel A', B' und C' des scharfen Bildes gehabt haben müssten.

 

Bei vielen Pixeln funktioniert das - bis auf die Probleme mit fehlenden Informationen am Bildrand ziemlich gut.

Link zum Beitrag
Auf anderen Seiten teilen

Selbstverständlich überdecken sich dabei mehrere Pixel - und trotzdem ist es möglich, diese Sache näherungsweise zurückzurechnen, wenn man die Funktion, mit der die scharfen Pixel verschmiert wurden, möglichst genau kennt.

Das funktioniert, wenn diese Verschmierungs-Funktion bekannt ist, erstaunlich gut.

Suche einfach mal nach dem Begriff Deconvolution - und du wirst beeindruckende Ergebnisse solcher Methoden finden.

 

Weiterhin wird bei einer Faltung eben nicht irgendetwas von etwas Anderem überdeckt (also A überdeckt B so, dass man nur noch A sieht und B nicht mehr), sondern A und B überlagern sich so, dass man A + B sieht.

Das ist jetzt auch wieder eine stark vereinfachte Erklärung, aber um um die Sache wirklich nachvollziehen zu können, sollte man verstehen, was eine Faltung ist, wozu man eben gewisse Kenntnisse der Integralrechnung benötigt. Das alles kann man nicht so ohne Weiteres erklären.

 

Ich versuche noch mal eine einfache Erklärung mit 3 Pixeln in einer Reihe nebeneinander (Pixel A, B und C im unscharfen Bild, bzw. A', B' und C' im scharfen Bild) und einem reinen Schwarz-Weiß-Bild, so dass die Pixel A, B und C jeweils einen eindeutigen Helligkeitswert haben.

 

Die Unschärfefunktion sagt nun z.B. aus, dass die Pixel derart verschmiert werden, dass B = (0,2 * A') + (0,4 * B') + (0,2 * C') ist.

Als Zahlenbeispiel für das scharfe Bild: A' = 10, B' = 150, C' = 60

Damit hat Pixel C den Wert 74.

Nun gibt es Algorithmen, die durch Kenntnis der Funktion, wie sich A, B und C aus A', B' und C' und den Werten aller Pixel des unscharfen Bildes (A, B und C), wiederum näherungsweise abschätzen können, welche Werte die Pixel A', B' und C' des scharfen Bildes gehabt haben müssten.

 

Bei vielen Pixeln funktioniert das - bis auf die Probleme mit fehlenden Informationen am Bildrand ziemlich gut.

 

Jetzt neigst Du aber zu sehr starker Vereinfachung, denn:

 

EntFaltung/Dekonvolution ist eine näherungsweise Berechnung aus Mittelwerten, in unserem Fall aus

den Mittelwerten der angrenzenden noch eindeutig bestimmbaren Pixel. Im Grunde ist das hochskalieren

eines Bildes durch die "nearest neighbour interpolation" nichts anderes. Deshalb klappt das gut bei

leichten Unschärfen über 2-3 Pixel, danach wirds schwierig.

 

Was viele hier verwechseln ist, das die Faltung (also die Berechnung der Unschärfe) eindeutig

berechnet werden kann, da es auch eindeutig bestimmbare Nachbarpixel gibt (mind. 2 sind notwenig).

 

Die Entfaltung (Berechnung der Schärfe aus der Unschärfe) ist die zugehörige Umkehrfunktion

und nicht mehr eindeutig möglich bzw. teilweise überhaupt nicht möglich.

 

Mathematisch ist das gar nicht so kompliziert. Die Faltung wird zur Berechnung eines "gleichenden

Durchschnitts" benutzt. Aber aus einem Durchschnitt wieder die ursprüngliche Verteilung zu berechnen

ist eine Wahrscheinlichkeitsrechnung und deshalb uneindeutig.

 

Ihr könnt gerne in die Wikipedia-Seiten schauen, die das ganz gut erklären. Dann könnt Ihr auch

aufhören, mathematische Zauberoperationen herbeizuwünschen...:cool:

 

Dekonvolution

 

Faltung (Mathematik)

 

 

Höhere Mathematik ist bei mir zwar schon ein paar Semester her, aber es hat mir immer

Spaß gemacht. Denn es ist nix anderes als LOGIK - keine Zauberei....

 

Kavenzmann

Link zum Beitrag
Auf anderen Seiten teilen

Das funktioniert, wenn diese Verschmierungs-Funktion bekannt ist, erstaunlich gut.

Die ist aber nicht bekannt. Um sie tatsächlich zu kennen bräuchte man entsprechende Sensoren die die Bewegungen aufzeichnen und dann steuert man mit diesen doch lieber gleich einen richtigen Stabi. Der kostet heute kaum noch was und ist heute selbst in besseren Kompaktkameras zu finden.

Alles andere ist mehr oder weniger stark verlustbehaftet und auch vom Arbeitsaufwand völlig unpraktikabel.

Man komprimiert auch keine Bilder verlustbehaftet auf winzige Dateigrößen tot nur um etwas am Preis des Flashspeichers zu sparen um dann mit abenteuerlichen Algorithmen zu versuchen die Bilder wieder zu verbessern.

Das mag vielleicht für minderwertige Fotohandys einen Goodie sein die in erster Linie zum telefonieren gedacht sind und wo die Fotofunktion nur ein billiges Abfallprodukt darstellt und die Zielgruppe auch recht anspruchslos ist.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Suche einfach mal nach dem Begriff Deconvolution - und du wirst beeindruckende Ergebnisse solcher Methoden finden.

(...)

Nee Du, beeindruckend ist da gar nichts. Eine verlorene Information kann nur noch geraten bzw. interpoliert oder extrapoliert werden. Solange die Manipulation im fertigen Bild bei der Endgröße nicht sichtbar ist, weil ein einzelnes, verloren gegangenes Pixel durch die Skalierung (ob digital oder durch die Auflösungsgrenze des Auges) sowieso nicht vermisst wird, ist das alles für das Endprodukt verlustlos machbar. Das Ausmappen von Hunderten von Hotpixeln oder toten Pixeln sieht ja auch keiner. Die weggenommenen Konfettischnipsel waren doch einleuchtend genug, denke ich. Bewege den Stabi und behalte die Information, das ist der sicherste Weg.

 

Vielleicht kommst Du an diese Doku:

J. Wesner, J. Heil, T. Sure: Reconstructing the pupil function of microscope objectives from the intensity PSF, in "Current Development in Lens Design and Optical Engineering III" Proceedings of SPIE Vol. 4767, p. 32-43, (2002)

Oder hier

Oder das

Meine mathematischen Kenntnisse und Fähigkeiten hören schon sehr weit vor diesen Dokus auf, aber ich habe mit den Ergebnissen dieser Algorithmen zu tun. Das funktioniert auch alles nur deshalb, weil die Restfehler der Optik bekannt sind. Unbekannte Daten zu rekonstruieren erfordert hellseherische Fähigkeiten. Wenn die Daten nicht innerhalb des Auflösungsrasters vorhanden sind (was bedeutet, dass die Aufnahmeauflösung größer sein muss als die später genutzte Auflösung), dann wird es "undurchsichtig". Auch bei der Rekonstruktion von verlorenen Daten auf einer CD zum Beispiel nutzt man u. a. Checksummen die VOR der Herstellung erzeugt und mitgeliefert werden mit dem Ziel, eventuelle Verluste rekonstruieren zu können. Dass das nicht immer klappt, hat der eine oder andere sicher schon mal feststellen dürfen. Wenn die Checksumme fehlt -> Datenfehler.

Ich erinnere auch gerne wieder an das Hubble-Teleskop. Wäre es mit Mathematik zu lösen gewesen, dann hätte man sich ganz sicher die paar Milliönchens für die "Korrekturbrille", deren Transport und die Montage gespart.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die ist aber nicht bekannt. Um sie tatsächlich zu kennen bräuchte man entsprechende Sensoren die die Bewegungen aufzeichnen und ....

dann nützt das immer noch nichts. Man müsste zwischendurch auch noch zusätzliche Aufnahmen speichern, denn wie ich schon geschrieben habe ist bei überschriebenen Speicherstellen die vorherige Information weg. Das heißt in unserem Fall, das Empfangsbayerpatternpixel, welches zu einem Zeitpunkt während der Belichtung z. B. dunkelblau beleuchtet war und während der Belichtung durch verwackeln dann mit einem vorher dort nicht vorhandenen hellen Grün gefüllt wird, überdeckt die alte Information. Wie groß sind denn nun die Anteile der Farben in dem Mischmasch? Die Anteile sind Zeit- und Intensitätsabhängig. Beide Werte sind aber nicht bekannt. Also worauf soll man dann zurückgreifen?

Link zum Beitrag
Auf anderen Seiten teilen

Dabei sehe ich vier große Probleme:

1. Der Rechenaufwand

Die inverse Faltung lässt sich im Frequenzbereich mit einer schnellen Fouriertransformation (FFT) sehr effizient berechnen.

 

Es stimmt schon, dass sich die Faltung nicht immer umkehren lässt, auch theoretisch nicht. In der Praxis kommen natürlich noch weitere Probleme hinzu, die hier bereits genannt wurden: die Funktion, mit der gefaltet wurde ist unbekannt, das Signal ist zusätzlich mit Rauschen behaftet (was das Problem der inversen Faltung zu einer statistischen Schätzaufgabe macht) und schließlich kann durch den begrenzten Wertebreich des digitalen Signals Information durch Clipping verlorengehen.

 

Diese Probleme sind aber alle bekannt und zwar nicht nur in der Fotografie. Insgesamt halte ich die inverse Faltung für ein nicht so unlösbares Problem, wie sie hier von manchen dargestellt wird. Eine perfekte Rekonstruktion kann es wegen der oben genannten Einschränkungen nicht geben, aber mit durchdachten Verfahren, lassen sich sicher gute Ergebnisse erzielen. Die größte Schwierigkeit ist wahrscheinlich die Schätzung der Funktion, mit der das Bild gefaltet wurde. Diese mit Beschleunigungssensoren zu messen, wie es hier schon vorgeschlagen wurde, finde ich einen sehr interessanten Ansatz.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Deve,

du hast einige richtige Ideen, ein paar Anmerkungen zu deinem Beitrag kann ich nicht zrückhalten.

 

Die inverse Faltung lässt sich im Frequenzbereich mit einer schnellen Fouriertransformation (FFT) sehr effizient berechnen.

.. und auch die FFt ist nie etwas anderes als eine "vernünftige" Schätzung mit minimiertem Aufwand; eine "echte" Fouriertransormation glänzt nämlich mit unendlichem Aufwand an Zeit und Rechenleistung, die haben so aber wenige zu verschenken ..

 

Es stimmt schon, dass sich die Faltung nicht immer umkehren lässt, auch theoretisch nicht.

Doch, umkehren geht immer - nur sind in der Praxis alle diese Funktionen (Unschärfe) nicht EINDEUTIOG umkehrbar. Das bedeutet: egal wie gut und aufwändig gerechnet, das Ergebnis ist eine Vermutung wie das Ausgangsmaterial ausgesehen haben könnte, wenn der Fehler nicht gewesen wäre .. mir sind da zu viele "wenn"s.

 

In der Praxis kommen natürlich noch weitere Probleme hinzu, die hier bereits genannt wurden: die Funktion, mit der gefaltet wurde ist unbekannt, das Signal ist zusätzlich mit Rauschen behaftet (was das Problem der inversen Faltung zu einer statistischen Schätzaufgabe macht) und schließlich kann durch den begrenzten Wertebreich des digitalen Signals Information durch Clipping verlorengehen.

Rauschen macht das Problem nicht zu einer statistischen Schätzaufgabe (das ist die nämlich sowieso), sondern verfälscht massiv die Funktionswerte und wird mit jedem beliebigen Aufwand als Störfaktor immer auch gleich mitverstärkt.

Sprich: selbst bei moderatem Rauschen würde die Dekonvolution etwas sehen und errechnen, was es nie gegeben hat. Je mehr Intelligenz und Aufwand in die Dekonvolution gesteckt wird, desto größer wird der zufällige Rauschanteil im Endergebnis.

 

Gute Algorithmen bzw. Applikationen bieten deshalb einen Rausch-Schwellwert, das heißt bei jedem Zwischenschritt werden mögliche Rauschanteile entfernt. Dabei gibt es nur ein klitzekleines Problem, denn feinste Detail lassen vom Rauschen nicht unterschieden - egal wie intelligent man ist.

 

Je besser also das Rauschen im Griff ist, desto weniger kommt bei der Dekonvolution anverwertbarem hinten raus.

 

Diese Probleme sind aber alle bekannt und zwar nicht nur in der Fotografie. Insgesamt halte ich die inverse Faltung für ein nicht so unlösbares Problem, wie sie hier von manchen dargestellt wird.

Die inverse Faltung ist nur aufwändig, aber nicht das Problem; ein überzeugendes Endergebnis ist das Problem - und außerhalb des Labors ist das eben nicht unbedingt ansehnlich, was bisher erreichbar ist.

 

Eine perfekte Rekonstruktion kann es wegen der oben genannten Einschränkungen nicht geben, aber mit durchdachten Verfahren, lassen sich sicher gute Ergebnisse erzielen. Die größte Schwierigkeit ist wahrscheinlich die Schätzung der Funktion, mit der das Bild gefaltet wurde.

Das geht sogar teilweise automatisch schon recht gut; da hat man von den Anforderungen der Astrofotografie ja auch schon viel Erfahrung einfliessen lassen.

 

Diese mit Beschleunigungssensoren zu messen, wie es hier schon vorgeschlagen wurde, finde ich einen sehr interessanten Ansatz.

Interessant ja, aber durch die Brust ins Auge geschossen. Das funktioniert nämlich nur, wenn die Objektentfernung dann ebens bekannt ist. Die könnte man natürlich aus einem (evtl. falsch fokussierten) Objektiv ablesen?!? Mehr Ungenauigkeit bekommt man in der Praxis kaum zusammen .. die einzige vernünftige Option besteht darin, die Übertragungsfunktion direkt aus dem Bild zu extrahieren. Im Prinzip ganz einfach, ist das aber doch sehr sehr aufwändig - und wäre im Zweifel leicht zu sabotieren.

 

Dekonvolution funktioniert leidlich gut, um leichte Fehler auszbügeln. Bei allem, was schon auf dem Kameradisplay augenfällig wird, kannst du Dekonvolution einfach vergessen - zu aufwändig und Ergebnisse unansehnlich.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

.. und auch die FFt ist nie etwas anderes als eine "vernünftige" Schätzung mit minimiertem Aufwand; eine "echte" Fouriertransormation glänzt nämlich mit unendlichem Aufwand an Zeit und Rechenleistung, die haben so aber wenige zu verschenken ..

Du hast dich da eingelesen, aber nicht alles wirklich verstanden. :P

 

Wir reden hier von diskreten Messungen, keine kontinuierlichen Messungen. Ein Messwert (Pixel-Werte) entspricht einer Messung. Der nächste Pixel ist räumlich versetzt. Man bekommt dadurch eine endliche Anzahl Pixel/Messungen und damit einen endlichen Rechenaufwand. Die Fouriertransformation in diesem Fall ist eine diskrete Fouriertransformation (DFT), bei der Integrale zu Summen werden. Die FFT ist die schnelle Fouriertransformation, eine DFT bei der lediglich gewisse Symmetrien der DFT ausgenutzt werden, insbes. indem redundante Sinus- und Cosinus-Berechnungen vermieden werden. Die FFT ist nicht weniger genau als jede DFT und für diskrete Messungen in gleichmäßigem Abstand sind DFT/FFT keineswegs ein Kompromiss.

 

Rauschen macht das Problem nicht zu einer statistischen Schätzaufgabe (das ist die nämlich sowieso), sondern verfälscht massiv die Funktionswerte und wird mit jedem beliebigen Aufwand als Störfaktor immer auch gleich mitverstärkt.

Sprich: selbst bei moderatem Rauschen würde die Dekonvolution etwas sehen und errechnen, was es nie gegeben hat. Je mehr Intelligenz und Aufwand in die Dekonvolution gesteckt wird, desto größer wird der zufällige Rauschanteil im Endergebnis.

Genau. Das Rauschen ist die Crux. Das Rauschen kann die Dekonvolution instabil machen (vereinfacht ausgedrückt sowas wie Division durch Null) und muss zusätzlich stabilisiert werden. Mit den dadurch verbundenen Kompromissen, die das Ergebnis zunichte machen können.

 

Das geht sogar teilweise automatisch schon recht gut; da hat man von den Anforderungen der Astrofotografie ja auch schon viel Erfahrung einfliessen lassen.

So ist's! Nicht nur in der Astrofotografie. Vor einer Weile gab es z.B. den Fall eines IIRC Kinderschänders, der in seinen perversen Aufnahmen sich selbst "unkenntlich" gemacht hat. Allerdings durch einen leicht zu ermittelnden Verschmieroperator, welcher sich durch Dekonvolution aus den Aufnahmen nahezu perfekt herausrechnen ließ... damit konnte der Perverse anhand seiner eigenen Aufnahmen überführt werden.

 

Also nichts von wegen einmal verschmiert ist die Bildinformation für immer verloren. Es kommt schon auf die Art des Verschmierens an.

 

Interessant ja, aber durch die Brust ins Auge geschossen. Das funktioniert nämlich nur, wenn die Objektentfernung dann ebens bekannt ist.

Nein. Warum sollte das so sein? Man muss lediglich den "Verschmieroperator" kennen oder bestimmen, welcher kaum bzw nicht von der Motiventfernung abhängig ist. Jedenfalls dann nicht, wenn die Verwacklung durch eine Rotation der Kamera zustande gekommen ist, was zumindest bei entfernteren Motiven bei weitem überwiegen wird.

 

die einzige vernünftige Option besteht darin, die Übertragungsfunktion direkt aus dem Bild zu extrahieren. Im Prinzip ganz einfach, ist das aber doch sehr sehr aufwändig - und wäre im Zweifel leicht zu sabotieren.

Das ist nicht so schwierig, allerdings umso ungenauer, je schlechter das Signal-Rausch-Verhältnis ist, und zwar über einen breiten Bereich von Bildfrequenzen hinweg.

 

Sabotage? Sind wir hier in Cuba? ;)

 

Dekonvolution funktioniert leidlich gut, um leichte Fehler auszbügeln. Bei allem, was schon auf dem Kameradisplay augenfällig wird, kannst du Dekonvolution einfach vergessen - zu aufwändig und Ergebnisse unansehnlich.

Diesen Pessimismus teile ich nicht. Die Möglichkeiten sind nicht zu unterschätzen. Ob es am Ende zur Serienreife reicht weiß ich nicht. Aber ein interessantes und lohnendes (Forschungs-)Gebiet ist das allemal!

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Thorsten,

 

danke für deine Anmerkungen. Bei ein paar Aspekten muss ich mich verteidigen.

 

.. und auch die FFt ist nie etwas anderes als eine "vernünftige" Schätzung mit minimiertem Aufwand; eine "echte" Fouriertransormation glänzt nämlich mit unendlichem Aufwand an Zeit und Rechenleistung, die haben so aber wenige zu verschenken ..

 

Mit "echter" Fouriertransformation meinst du wahrscheinlich die kontinuierliche Fouriertrafo, die hier nicht anwendbar ist, da das digitale Bildsignal diskret ist. Die diskrete Fouriertransformation ist keine Schätzung und erlaubt die exakte Berechnung des diskretisierten Spektrums, solange das Abtasttheorem nicht verletzt wird.

 

Doch, umkehren geht immer - nur sind in der Praxis alle diese Funktionen (Unschärfe) nicht EINDEUTIOG umkehrbar.

 

Nicht eindeutig umkehrbar heißt nicht umkehrbar.

 

Rauschen macht das Problem nicht zu einer statistischen Schätzaufgabe (das ist die nämlich sowieso)

 

Ohne Rauschen wäre das Problem deterministisch und keine Schätzung im statistischen Sinne.

 

Je besser also das Rauschen im Griff ist, desto weniger kommt bei der Dekonvolution anverwertbarem hinten raus.

 

Du meinst die Rauschreduktion verschlechtert das Ergebnis der Dekonvolution? Möglich, wenn die Algorithmen nicht aufeinander abgestimmt sind. Man würde wohl erst die die Dekonvolution ausführen und beim entschmierten Bild die üblichen Algorithmen zur Rauschreduktion anwenden, um solche Probleme zu vermeiden.

 

Die inverse Faltung ist nur aufwändig, aber nicht das Problem; ein überzeugendes Endergebnis ist das Problem - und außerhalb des Labors ist das eben nicht unbedingt ansehnlich, was bisher erreichbar ist.

 

Wenn man im Labor bereits ansehnliche Ergebnisse erzeugen kann, ist es nach Moores Gesetz nur eine Frage der Zeit bis es auch in Bildverarbeitungssoftware oder gar Kameras möglich sein wird.

 

Interessant ja, aber durch die Brust ins Auge geschossen. Das funktioniert nämlich nur, wenn die Objektentfernung dann ebens bekannt ist.

 

Das kann ich im Moment nicht nachvollziehen. Man muss doch nur die Änderung des Ortes der Kamera über der Zeit kennen. Außer man möchte sich bewegende Objekte von Verschmierung befreien. Da würde der Ansatz natürlich nichts bringen, das stimmt.

 

.. die einzige vernünftige Option besteht darin, die Übertragungsfunktion direkt aus dem Bild zu extrahieren. Im Prinzip ganz einfach, ist das aber doch sehr sehr aufwändig - und wäre im Zweifel leicht zu sabotieren.

 

Welche Übertragungsfunktion meinst du? Und wie kann man sie aus dem Bild extrahieren? Die Frage geht auch an datou.

 

Dekonvolution funktioniert leidlich gut, um leichte Fehler auszbügeln. Bei allem, was schon auf dem Kameradisplay augenfällig wird, kannst du Dekonvolution einfach vergessen - zu aufwändig und Ergebnisse unansehnlich.

 

Da fehlt mir die Erfahrung, aber ich habe keinen Grund, dir das nicht zu glauben. Ich denke immer noch, dass die Schätzung der Funktion, mit der gefaltet wurde, das Hauptproblem ist, lasse mich aber auch gerne einees Besseren belehren.

 

Grüße

Link zum Beitrag
Auf anderen Seiten teilen

Hallo datou,

hallo

Du hast dich da eingelesen, aber nicht alles wirklich verstanden. :P

 

.. Die FFT ist nicht weniger genau als jede DFT und für diskrete Messungen in gleichmäßigem Abstand sind DFT/FFT keineswegs ein Kompromiss.

Hallo datou,

mein Diskussionsbeitrag war verkürzt und wegen allgemeinverständlicher Terminologie auch noch "unscharf".

 

Was ich sagen wollte: wir haben es bei unserer Fragestellung (Unschärfe durch Bewegung der Kamera) natürlich mit einer diskreten Auflösung und deshalb auch korrekt angesetzter FFT zu tun; wir müssen uns aber bewußt bleiben, daß sich die Unschärfe nicht an Pixelgrenzen hält und deshalb auch alle Algorithmen nur mit annähernder Genauigkeit arbeiten.

 

Zusätzlich kommt bei jedem denkbaren Verabreitungsschritt noch das Quanitisierungsrauschen dazu. Egal wie hoch wir den Aufwand treiben, bleibt unser Ergebnis nur eine angenäherte Schätzung - und daran wird sich niemals etwas ändern ..

 

Genau. Das Rauschen ist die Crux. Das Rauschen kann die Dekonvolution instabil machen (vereinfacht ausgedrückt sowas wie Division durch Null) und muss zusätzlich stabilisiert werden. Mit den dadurch verbundenen Kompromissen, die das Ergebnis zunichte machen können.

Einfacher formuliert: jedes vorhandene Detail wird durch die Unschärfe auf mehrere Pixel (diskrete Auflösung) "verteilt"; dadurch verringert sich der Signal-Rauschabstand - auch die intelligentesten Verfahren können aber Rauschen nicht vom verschwommenen Detail unterscheiden. Somit ist der Anteil an Detail, den man rekonstruieren kann systematisch begrenzt und wird mit zunehmder Unschärfe auch immer kleiner.

 

Also nichts von wegen einmal verschmiert ist die Bildinformation für immer verloren. Es kommt schon auf die Art des Verschmierens an.

Der Vorteil für die Rekonstruktion liegt in dem Fall aber auch genau darin, daß die Verschmierung durch einen deterministisch beschriebene Funktion erfolgt, also im Gegensatz zur realen Unschärfe sehr genau eruiert werden kann. Zumal man ebenfalls genau ermitteln kann, in welchem Bereich diese "künstliche" Unschärfe angewendet wurde.

 

Nein. Warum sollte das so sein? Man muss lediglich den "Verschmieroperator" kennen oder bestimmen, welcher kaum bzw nicht von der Motiventfernung abhängig ist.

Einspruch: bei Bewegung der Kamera ist der "Verschmieroperator" durchaus auch vom Objektabstand zur Kamera abhängig - also NICHT konstant. Es sei denn, man erfindet eine Kamera die ausschließlich durch den Nodalpunkt rotierend verzittern kann ..

 

Jedenfalls dann nicht, wenn die Verwacklung durch eine Rotation der Kamera zustande gekommen ist, was zumindest bei entfernteren Motiven bei weitem überwiegen wird.

je weiter entfernt, desto gleichförmiger die Verschmierung, die durch Kamerabewegung verursacht wurde - das ist korrekt. Hilft uns aber nur begrenzt, weil wir in jedem diskreten Pixel verschmierte Bestandteile von Objektdetails finden können, die sich in unterschiedlichem Abstand zur Kamera befinden.

 

 

Nicht eindeutig umkehrbar heißt nicht umkehrbar.

Ja, mathematisch korrekt. Im Praxisbezug gibt es diese Absolutheit aber nicht. Es gibt annähernd umkehrbare Funktionen und es gibt solche, die nahezu unmöglich umzukehren sind. Mathematisch gesehen war meine Formulierung Käse, aber bezogen auf die Aufgabenstellung ist sie zielführend.

 

Ohne Rauschen wäre das Problem deterministisch und keine Schätzung im statistischen Sinne.

Sprechen wir jetzt von Dekonvolution? Die ist NICHT deterministisch, weil die Unschärfe durch Kameraverwacklung nicht eindeutig umkehrbar ist.

 

Du meinst die Rauschreduktion verschlechtert das Ergebnis der Dekonvolution? Möglich, wenn die Algorithmen nicht aufeinander abgestimmt sind. Man würde wohl erst die die Dekonvolution ausführen und beim entschmierten Bild die üblichen Algorithmen zur Rauschreduktion anwenden, um solche Probleme zu vermeiden.

Sorry, das ist Wunschdenken. Wie datou (und ich) bereits weiter oben beschrieben habe, ist Signal (Detail) und Rauschen nicht voneinander zu trennen, mit steigender Unschärfe immer weniger.

 

Eine Dekonvolution wird aus dem Rauschen Details ermitteln, die es niemals gegeben hat. JEDER praktisch anwendbare Algorithmus MUSS ZWINGEND den wahrscheinlichen Rauschanteil unberücksichtigt lassen, um keine Artefakte zu erzeugen. Damit wird aber gleichzeitig die Rekonstruktion von Detail zuverlässig beschränkt.

Wenn man Versuche mit Dekonvolution ohne Rauschunterdrückung auf "echten" digitalen Bildern durchführt, die man von einer absolut gleichmässigen Fläche gemacht hat, wird das Problem offensichtlich. Da "erscheinen" Details, die es niemals gegeben hat - und die sind sehr häßlich und unansehnlich!

 

Wenn man im Labor bereits ansehnliche Ergebnisse erzeugen kann, ist es nach Moores Gesetz nur eine Frage der Zeit bis es auch in Bildverarbeitungssoftware oder gar Kameras möglich sein wird.

Sorry, das ist Wunschdenken. Man muss sytematisch Fehler und Grenzen eines Verfahrens kennen, um zu einer Abschätzung zu kommen. Und systematische Fehler kann man auch mit unendlicher Rechenleistung nicht korrigieren.

 

Das kann ich im Moment nicht nachvollziehen. Man muss doch nur die Änderung des Ortes der Kamera über der Zeit kennen. Außer man möchte sich bewegende Objekte von Verschmierung befreien. Da würde der Ansatz natürlich nichts bringen, das stimmt.

Nein. Wie oben schon gesagt. Man muss die Bewegung der Kamera kennen .. und wenn die nicht ausschließlich aus einer Rotation um den Nodalpunkt besteht auch die Entfernung des Objekts.

 

Welche Übertragungsfunktion meinst du? Und wie kann man sie aus dem Bild extrahieren? Die Frage geht auch an datou.

Ich meinte die Unschärfe-Funktion. War sprachlich ungenau, gut daß du hinterfragst.

Bewegungsunschärfe erzeugt in Abhängigkeit von der Kamerabewegung ein bestimmtes Muster eines Details auf einer gleichmäßigen Fläche. Anhand des Himmels oder sehr dunkler Bildbestandteile kann man den Rauschanteil ermitteln. Durch beispielsweise Spitzlichter als auch durch kontraststarke Details kann man dieses Muster statistisch ermitteln - mit einer geringen Ungenauigkeit.

 

Da fehlt mir die Erfahrung, aber ich habe keinen Grund, dir das nicht zu glauben. Ich denke immer noch, dass die Schätzung der Funktion, mit der gefaltet wurde, das Hauptproblem ist, lasse mich aber auch gerne einees Besseren belehren.

Ja, das bleibt vor allem ein Problem, weil ja die Funktion im einzelnen von der Kamerabewegung, dem konkret verwendeten Objektiv, dem Objektabstand und beispielsweise der Fokuseinstellung abhängt.

Man wird aber zu zufriedenstellenden Ergebnissen kommen können, wenn man die Funktion hinreichend genau abschätzen kann.

 

Das Grundproblem der Dekonvolution, daß diese Funktion NICHT umkehrbar im mathematischen Sinne ist - also auch praxisbezogen nur annähernd umkehrbar- , bleibt aber bestehen.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Ähhmm...

 

bevor wir hier noch eine Doktorarbeit machen, können wir uns

doch sicher einigen.:confused:

 

Mit den Möglichkeiten dieser Berechnung gibt es in Zukunft womöglich

noch bessere Schärfungsfilter als ohnehin schon existieren.

 

Aber einen Stabi wird keine Software in Gänze ersetzen können.

 

Das ist auch gut so, sonst machen wir unsere Fotos bald komplett

am Rechner.;)

 

Kavenzmann

Link zum Beitrag
Auf anderen Seiten teilen

Hallo kavenzmann,

korrekt: ein gutes Stativ kann durch einen Stabi nur annähernd ersetzt werden, eine Software-Lösung wird auch einen Stabi nur annähernd ersetzen können. Kamera stabilisieren ist und bleibt der Königsweg.

 

Fehler, die man vermeiden kann sind immer besser, als Fehler die man korrigieren muss. Deshalb kann man erstaunlich viel von den alten Meistern der Fotografie auch heute noch lernen .. die Physik hat sich nicht geändert.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallo kavenzmann,

korrekt: ein gutes Stativ kann durch einen Stabi nur annähernd ersetzt werden, eine Software-Lösung wird auch einen Stabi nur annähernd ersetzen können. Kamera stabilisieren ist und bleibt der Königsweg.

 

Fehler, die man vermeiden kann sind immer besser, als Fehler die man korrigieren muss. Deshalb kann man erstaunlich viel von den alten Meistern der Fotografie auch heute noch lernen .. die Physik hat sich nicht geändert.

Gruß Thorsten

 

He, He!

 

Willst Du wohl die alten Geheimnisse in Ihren Töpfen lassen!:eek:

 

Wo kommen wir denn hin, wenn plötzlich alle merken, das man die

meisten "Profi"-Fotos nicht mit dicken Kameras, sondern mit dicken

Stativen macht... Da könnte ich meinen Job ja gleich an den Nagel

hängen. Also bitte löschen!:D

 

P.S: Die Kamera in meinem Avatar galt in den 60ern als qualitativ

hochwertige Schnappschusskamera. Es war sozusagen eine 6x7 Leica

mit Messsucher und optional Auslöser am Griff...

 

Kavenzmann

Link zum Beitrag
Auf anderen Seiten teilen

P.S: Die Kamera in meinem Avatar galt in den 60ern als qualitativ

hochwertige Schnappschusskamera. Es war sozusagen eine 6x7 Leica

mit Messsucher und optional Auslöser am Griff...

 

Kavenzmann

 

Hallo Kavenzmann,

 

 

wenn sich der "Rangefinder-Style" verbraucht hat kriegen wir ja vielleicht noch Digitale in entsprechendem Design zu sehen - bei motorbetriebenen Objektivschlitten möglicherweise sogar mit "Altglas-AF". :)

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Was ich sagen wollte: wir haben es bei unserer Fragestellung (Unschärfe durch Bewegung der Kamera) natürlich mit einer diskreten Auflösung und deshalb auch korrekt angesetzter FFT zu tun; wir müssen uns aber bewußt bleiben, daß sich die Unschärfe nicht an Pixelgrenzen hält und deshalb auch alle Algorithmen nur mit annähernder Genauigkeit arbeiten.

 

Zusätzlich kommt bei jedem denkbaren Verabreitungsschritt noch das Quanitisierungsrauschen dazu. Egal wie hoch wir den Aufwand treiben, bleibt unser Ergebnis nur eine angenäherte Schätzung - und daran wird sich niemals etwas ändern ..

 

Du hast natürlich recht, wir sind uns alle darüber bewusst, dass eine digitale Fotografie eben nur ein Abbild der Realität ist. Aber ich denke bei der Dekonvolution sind weder die FFT noch das Quantisierungsrauschen der begrenzende Faktor.

 

Einfacher formuliert: jedes vorhandene Detail wird durch die Unschärfe auf mehrere Pixel (diskrete Auflösung) "verteilt"; dadurch verringert sich der Signal-Rauschabstand - auch die intelligentesten Verfahren können aber Rauschen nicht vom verschwommenen Detail unterscheiden. Somit ist der Anteil an Detail, den man rekonstruieren kann systematisch begrenzt und wird mit zunehmder Unschärfe auch immer kleiner.

 

Rauschen und Signal lassen sich nicht mehr trennen, keine Frage. Die Rauschleistung hängt aber doch bei gleicher ISO, Temperatur, etc. nur von der Aufnahmezeit ab, ganz gleich ob die Kamera bei der Aufnahme bewegt wurde oder nicht. Wenn man davon ausgeht, dass das Rauschen auf den einzelnen Bildpunkten statistisch unabhängig ist wird die Verminderung des Signal-zu-Rausch-Verhältnisses, die du erwähnst, dadurch kompensiert, dass man benachbarte Pixel bei der Dekonvolution miteinander verrechnet (vorausgesetzt das Rauschen ist mittelwertfrei). Mir ist noch nicht klar, warum mit zunehmender Unschärfe das Rauschen problematischer wird. Dass das Rauschen ein Problem für die Dekonvolution ist, stelle ich nicht in Frage.

 

Einspruch: bei Bewegung der Kamera ist der "Verschmieroperator" durchaus auch vom Objektabstand zur Kamera abhängig - also NICHT konstant. Es sei denn, man erfindet eine Kamera die ausschließlich durch den Nodalpunkt rotierend verzittern kann

 

Verstanden, da hast du recht.

 

Sprechen wir jetzt von Dekonvolution? Die ist NICHT deterministisch, weil die Unschärfe durch Kameraverwacklung nicht eindeutig umkehrbar ist.

 

Ok, also für mich ist nicht-deterministisch was anderes, aber wir wissen denke ich beide, was der andere meint.

 

Sorry, das ist Wunschdenken. Wie datou (und ich) bereits weiter oben beschrieben habe, ist Signal (Detail) und Rauschen nicht voneinander zu trennen, mit steigender Unschärfe immer weniger.

 

Eine Dekonvolution wird aus dem Rauschen Details ermitteln, die es niemals gegeben hat. JEDER praktisch anwendbare Algorithmus MUSS ZWINGEND den wahrscheinlichen Rauschanteil unberücksichtigt lassen, um keine Artefakte zu erzeugen. Damit wird aber gleichzeitig die Rekonstruktion von Detail zuverlässig beschränkt.

 

Hier liegt vielleicht ein Missverständnis vor. Ich unterliege nicht dem Fehlglaube, man könne Rauschen von Signal trennen. Allerdings bin ich der Meinung, dass das Rauschen bei der Dekonvolution eben gerade berücksichtigt werden muss, um bessere Ergebnisse zu erhalten. Damit meine ich keine Rauschreduktionsalgorithmen, sondern die Berücksichtigung der statistischen Störung des Einganssignals zu dessen Schätzung. Im hier schon erwähnten Wiki-Artikel zur Dekonvolution ist das beschrieben und das macht für mich auch Sinn. Hat man die Dekonvolution abgeschlossen, kann man immer noch die üblichen Rauschreduktionsalgorithmen anwenden.

 

Sorry, das ist Wunschdenken. Man muss sytematisch Fehler und Grenzen eines Verfahrens kennen, um zu einer Abschätzung zu kommen. Und systematische Fehler kann man auch mit unendlicher Rechenleistung nicht korrigieren.

 

Vielleicht etwas reiserisch von mir formuliert, ich habe allerdings nicht behauptet, man könne die Dekonvolution mit beliebig großen Rechenressourcen perfekt durchführen. Ich behaupte, dass Verfahren, die heute im Labor möglich sind, wegen zu hohen Rechenaufwandes aber für die kommerzielle Nutzung ausscheiden, in Zukunft eben doch Einzug in kommerzielle Software oder sogar DSPs von Kameras halten, da die Rechenleistung ständig steigt.

 

Ich meinte die Unschärfe-Funktion. War sprachlich ungenau, gut daß du hinterfragst.

Bewegungsunschärfe erzeugt in Abhängigkeit von der Kamerabewegung ein bestimmtes Muster eines Details auf einer gleichmäßigen Fläche. Anhand des Himmels oder sehr dunkler Bildbestandteile kann man den Rauschanteil ermitteln. Durch beispielsweise Spitzlichter als auch durch kontraststarke Details kann man dieses Muster statistisch ermitteln - mit einer geringen Ungenauigkeit.

 

Ok, leuchtet ein, ja.

 

Das Grundproblem der Dekonvolution, daß diese Funktion NICHT umkehrbar im mathematischen Sinne ist - also auch praxisbezogen nur annähernd umkehrbar- , bleibt aber bestehen.

 

Jap, da hilft nichts. Seien wir gespannt, was die Zukunft bringt. Eine kleine Verbesserung ist ja schon mal besser als nichts. Natürlich stimme ich dir darin zu, dass man Fehler vermeiden sollte, anstatt zu versuchen, sie hinterher wieder herauszurechnen und deswegen sind Stativ und Stabi sicherlich auch in nächster Zukunft wichtige Werkzeuge.

 

Grüße

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...