Jump to content

EBV-Filter- oder Maskenfunktion um Staub oder Flecken im Bild zu finden?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Gibt es dazu Tricks, besondere Einstellungen, auf die ich noch nicht gekommen bin oder eine Maske z.B. in PS die ich noch nicht entdeckt habe, ausser alles einzeln zu stempeln? Ich muss es erstmal selbst entdeckt haben, bevor ich stemple...

Einzig spontane Idee für die Zukunft wäre ein konsequent dunklerer Hintergrund, vor dem Linsen- oder Sensorstaub unsichtbar wird... Bei mir fliegt meistens irgendwelcher aufgewirbelter Staub oder ein Vogel weit im Hintergrund durch die Luft, den man irgendwo finden wird, wenn man will.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb rostafrei:

Gibt es dazu Tricks, besondere Einstellungen, auf die ich noch nicht gekommen bin oder eine Maske z.B. in PS die ich noch nicht entdeckt habe, ausser alles einzeln zu stempeln? Ich muss es erstmal selbst entdeckt haben, bevor ich stemple...

Einzig spontane Idee für die Zukunft wäre ein konsequent dunklerer Hintergrund, vor dem Linsen- oder Sensorstaub unsichtbar wird... Bei mir fliegt meistens irgendwelcher aufgewirbelter Staub oder ein Vogel weit im Hintergrund durch die Luft, den man irgendwo finden wird, wenn man will.

Bei Photoshop kenne ich nichts - da habe ich aber auch nur eine ziemlich alte Version - CS5.

Bei Capture One kann man eine Entfleckungsmaske anlegen. Man kennzeichnet auf einer Aufnahme einer Session die Flecken, die dann auf allen damit versehenen Aufnahmen automatisch mehr oder weniger (meist mehr) erfolgreich der Umgebung angeglichen werden.

In RawTherapee gibt es die Möglichkeit, selbst eine Maske für Dead Pixel, Hot Pixel u. Ä. anzulegen und nach Bedarf zu nutzen - das sollte sich auch für Sensordreck machen lassen. Habe ich aber im Unterschied zu der Funktion von C1 noch nicht versucht.

Link zum Beitrag
Auf anderen Seiten teilen

Es müsste eine Funktion "Equalize" sein, die wird genutzt, um diese Stellen besser erkennen zu können. Also Egalisieren oder evtl. Nomalisieren. Es kann ebenfalls an meinem alten Monitor liegen, dass ich solche Stellen mangels Auflösung und veralteter Qualität nicht entdecke. Equalize wurde mir in einer ausführlichen Info als Funktion genannt, nur kenne ich das  explizit als Wahlfunktion bisher nur aus Zoner. Muss ich mal in PS nachsehen, ich habe bisher eher zaghafte Versuche gemacht...

Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Stunden schrieb micharl:

In RawTherapee gibt es die Möglichkeit, selbst eine Maske für Dead Pixel, Hot Pixel u. Ä. anzulegen und nach Bedarf zu nutzen - das sollte sich auch für Sensordreck machen lassen.

Das hilft @rostafreiaber nicht. Denn er will ja "dynamische" Störungen automatisch wegstempeln lassen.

In RT kann man eine Weißbilddatei (Flatfield) hinterlegen, die schon beim Demosaicing berücksichtigt wird. Damit kann man zum einen Staub auf dem Sensor eliminieren, soweit der Staub noch an der Stelle auf dem Sensor ist, wenn man beim Arbeiten diese Störungen feststellt und das Weißbild nachträglich erstellen kann. Man kann aber auch für ein Objektiv viele Weißbilder mit verschiedenen Blenden und Brennweiten-Einstellungen hinterlegen. Dann kann RT diese an Hand der Exif-Daten automatisch heranziehen, um z. B. Vignettierungen auszugleichen. Auch irgendwelche Sensor-Farbfehlet sollen sich neutralisieren lassen. Die automatische Auswahl geht natürlich nicht mit Altglas wegen der fehlenden Exif-Daten. Aber der Ausgleich von Vignettierung oder anderen Inhomogenitäten in der Lichtverteilung klappt hervorragend.

bearbeitet von RoDo
Link zum Beitrag
Auf anderen Seiten teilen

@RoDo das ist mal ein interessante Info, RT nutze ich ja auch (noch gelegentlich). Vllt. überinterpretiere ich den Begriff "Equalizing" auch und es ist lediglich eine ausführlichere Tonwertkorrektur, mit der man diese Fehler sichtbar machen kann. Was mich immer verwundert ist, dass mir solche Fehler fast regelmäßig als KO-Kriterium mitgeteilt werden. Ich konnte diese "Equalizing-Maske" oder was auch immer dahintersteckt, nirgends in meinen bisherigen Programmen finden. Aber es gibt so eine Funktion per Knopfdruck, nur nicht in den üblichen Programmen. Ich kann das auf einer Plattform nachträglich nutzen, aber erst nachdem Fotos abgelehnt wurden, nicht vorher... - witzig, oder? Dann erstz sehe ich, was man bemängelt hat. Für jede Rubrik ein Schalter...  🥳 🤥

Die einzigen Fälle, in denen ich solche Fehler selber ganz deutlich erkennen konnte, waren extrem abgeblendete Fotos (bei Oly zwischen 14 -22) oder vorzugsweise bei s/w, bzw. Graustufen, im Tonemapping. Prinzipiell also nicht viel mehr, als eine verstärkte Betonung durch Aufhellung / Abdunkelung / Sättigung / Luminanz bestimmter Bereiche mit Kontrast oder Helligkeitsschwerpunkt.

Der alte Monitor mit "nur" Full-HD bei 1920x1080px ist ein weiterer Grund, ebenso die taktisch unkluge Festlegung meiner Motive auf "action", bzw. "active" anstatt nur "static display" vor dunklen Hintergründen. Dann weiter die ansich plausible Neigung, eher bei Sonne anstatt bei diffusem, gedämpften Licht aufzunehmen, das verstärkt Staub und Flecken. Mir wird allmählich klar, warum die meisten Spotter eher den 0815-bleigrauen Himmel als Hintergrund nehmen, anstatt blau mit lockerer Bewölkung. da sind also mehrere Baustellen zu bearbeiten, ich muss es nur möglichst praktikabel aus der Situation zusammenbringen...

 

bearbeitet von rostafrei
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 2 Stunden schrieb rostafrei:

... solche Fehler selber ganz deutlich erkennen konnte, ...

Die Weißbildkorrektur kann nur statische Probleme korrigieren.

Hier mal ein Beispiel einer Weißbilddatei:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Geladen in RT und ohne jegliche Bearbeitung und Profil als JPG abgespeichert. Man sieht eine fast gleichwertige Vignettierung und links unten eine sehr deutliche. In etwa in der Mitte und rechts oben (3/4 der Höhe) sind Flecke zu sehen.

Wird dieselbe Datei als Weißbild dazu geladen, sollte eine homogene graue Fläche entstehen. Mit den reinen Default-Einstellungen klappt das nicht perfekt:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Man nimmt die Flecken immer noch war, aber die Vignettierung ist schon weitgehend neutralisiert.

Reduziert man den Unschärferadius von default 32 auf 6, ist der Ausgleich perfekt:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Eine homogene Fläche in 18%-Grau, denn eine Weißbilddatei soll genau so belichtet werden.

Link zum Beitrag
Auf anderen Seiten teilen

Setzt man den Unschärferadius auf 0, kommt das Rauschen wohl heraus:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Stellt man auf gemachten Bildern Flecken fest und vermutet als Ursache einen verschmutzten Sensor, kann man, soweit man den Sensor nicht zwischenzeitlich gereinigt hat, eine Aufnahme eines weißen Blatts Papier, manuell auf Unscharf eingestellt (sonst kommt die Papierstruktur zum Tragen) nachholen. Aber Vögel, herumfliegende Blätter oder was auch immer dynamisch zu Störungen führt, bekommt man damit nicht gelöscht.

Link zum Beitrag
Auf anderen Seiten teilen

Solche externen oder natürlichen Störungen sind prinzipiell das geringere Problem, da sie zur Authentizität eines Fotos in der Situation vor Ort beitragen - normalerweise! Sind es aber an sich schon kleine, entfernte oder weit ausserhalb jeglicher Schärfe erkennbare Schatten ohne Referenz, kann man sie nicht mehr eindeutig zuordnen, das ist die Schwierigkeit. Z.B. einzelne Vögel oder Signalbälle an Hochspannungsleitungen. Erkennt man die Leitung nicht, sind auch die Signalbälle nur als störende Punkte erkennbar.

Durch meine Nachfrage bei einem, der selbst über so etwas entscheiden darf, habe ich erfahren, dass es in Adobe Elements diese "equilization" als eigenständige Funktion gibt.

Link zum Beitrag
Auf anderen Seiten teilen

  • 4 months later...

Die Bereichsreparatur kenne und nutze ich schon länger, aber die hilft nicht immer 🤪

In LR habe ich zwei Schieber entdeckt, mit denen ich das "Egalisieren" weitgehend simulieren kann. In der Gradation die hellen und dunklen Mitteltöne paar- oder wechselweise in extreme Randbereiche regeln. Dann erhalte ich ungefähr das Bild, was mir die Screener als "Plausibilität" (eher Rechtfertigung) für ihre Ablehnung zusenden. Habe ich dann selbst experimentell herausgefunden, weil es mich ziemlich gewurmt hat, wie die das immer hinbekommen. Es ist schon erschreckend, dass man willkürlich ganz bestimmte Regler bedienen muss, um dann etwas in Fotos finden zu können, was die Betrachter niemals zu sehen bekämen...

Mittlerweile habe ich mich aber auch etwas intensiver mit PS beschäftigt, um manche andere Ablehnung vermeiden zu können. Da sehe ich dann selbst an meinem Monitor, dass das tatsächlich ein Foto verbessern kann. Aber auch das hilft letztlich nichts. Sollte nämlich wirklich nicht manipulatives machbar oder nichts zu bemoppern sein, werden die "blurry" - "not-centered" - "align +0,3° to the left" Joker gezogen - zeigt man diesen "gatekeepern" dann dutzende, nach ihren Maßstäben absolut untaugliche Fotos, die akzeptiert worden und in deren Galerie veröffentlicht sind, kommt nämlich nichts mehr aber die Ablehnung wird trotzdem aufrechterhalten... 😡🤬

Ich habe das Problem jetzt anders für mich gelöst: Ich lade meine Fotos jetzt dort hoch, wo man keine "gatekeeper" zum Hinhalten beschäftigt.

bearbeitet von rostafrei
Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb rostafrei:

Die Bereichsreparatur kenne und nutze ich schon länger, aber die hilft nicht immer 🤪

Das hatte ich vergessen zu erwähnen:

Ich habe auch die Sensorverglasung, (bei den DSLRs auch den Spiegelkasten wegen Staub) und die fraglichen Objektive mal penibler mit blauem, rotem und UV-Licht mit zusätzlicher Leuchtlupe angesehen und von meinem Sohn mit dessen besseren Augen nachkontrollieren lassen. Und siehe da:  da waren einige sehr hartnäckige aber fast unsichtbare Pünktchen erkennbar, die ich zum Glück entfernen konnte. Diese nervigen Störungen waren meist an den exakt selben Stellen, sowohl im Quer- als auch Hochformat 😬

bearbeitet von rostafrei
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...