Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 2 Stunden schrieb flyingrooster:

Interessant finde ich, dass diese künstliche Unschärfe laut Forenmeinung noch Teufelszeug war, solange diese Funktionalität Smartphones vorbehalten war, aber kaum kann es auch Lightroom, verhält sich die Sache plötzlich gänzlich anders …

Für mich nicht! 😏 Für mich ist Fotografie ein Hobby bei dem ich mit dem vorhandenen Equipment versuche, ein Motiv so gut wie möglich ins Bild zu setzen und dabei auch bewusst mit den Grenzen dieses Equipments umzugehen. Unabhängig von den Fehlern, die diese KI immer noch produziert, ist es eben nicht mein Hobby, einfach mal drauf zu halten und dann am Rechner zu gucken, was man draus machen kann. Dann lass ich's lieber bleiben!

Das heißt natürlich nicht, dass ich meine Bilder nicht nachträglich optimiere, aber in gewissen Grenzen.

bearbeitet von Petterson
Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb flyingrooster:

Interessant finde ich, dass diese künstliche Unschärfe laut Forenmeinung noch Teufelszeug war, solange diese Funktionalität Smartphones vorbehalten war, aber kaum kann es auch Lightroom, verhält sich die Sache plötzlich gänzlich anders

Mein altes SP kann ja sowas nicht…was ich bisher von SP im Netz gesehen habe, war immer schlimmer…ich finde es nett. Würde es aber kaum sehr oft nutzen. Man kann ja selbst den „Charakter“ des bokeh wählen, sowie die „Lage“ der Schärfentiefe.

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 26 Minuten schrieb timeit:

spätestens, wenn die Tiefeninformation mitgeliefert würde, dürfte das künstliche Freistellen perfekt sein. Frage mich gerade, wieviel versatz man benötigen würde, um das aus 2 Bildern zu errechnen. Oder ob es andere Wege gäbe. (Schärfen-analyse?)

Man darf nicht vergessen: Diese KI- basierte Funktion in LR ist neu. Sie wird weiterentwickelt werden, und bei bestimmten Motiven arbeitet sie schon jetzt sehr zuverlässig. Nämlich dann, wenn das Motiv im Vordergrund klar von einem deutlich weiter hinten liegenden Hintergrund getrennt ist. 

Die Tiefeninformation fehlt halt jetzt noch bei Landschaftsaufnahmen, bei denen die Tiefenschärfe allmählich nach hinten abnimmt - das heisst LR bekommt noch keine Schärfegradienten hin. Aber es dürfte nur eine Frage der Zeit sein bis auch das geht. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 29 Minuten schrieb wasabi65:

Mein altes SP kann ja sowas nicht…was ich bisher von SP im Netz gesehen habe, war immer schlimmer…ich finde es nett. Würde es aber kaum sehr oft nutzen. Man kann ja selbst den „Charakter“ des bokeh wählen, sowie die „Lage“ der Schärfentiefe.

 

 

 

Nun ja - die Wassertropfen haben leider auch eine gewisse Mutation erfahren - sie sind jetzt ringförmig  :D

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Minuten schrieb Markus B.:

Man kann mit natürlicher Intelligenz Stellen nachträglich wieder scharfzeichnen, welche die künstliche Intelligenz verbockt hat :blink:

Ausserdem kann man mit dem Klarheits-Pinsel noch eine gewisse Staffelung der Tiefenschärfe simulieren. 

Sicher. Oder man verwendet einfach ein Objektiv, welches auf einen Tastendruck ein Bild mit gewünschter Tiefenschärfe generiert.

Auch vor dieser Funktion war es ja bereits jahrzehntelang möglich Objektauswahlen zu erstellen und den Rest mittels Verläufen weichzuzeichnen. Aber es war halt aufwendig und im Idealfall sollte einem die KI diesen Aufwand abnehmen.

vor 16 Minuten schrieb Markus B.:

Man sollte es nicht übertreiben - wenn man fein dosiert arbeitet schaut es in vielen - nicht in allen - Fällen doch recht natürlich aus - hier die leicht verbesserte Version:

Ja, absolut. Wobei die KI natürlich unverändert dieselben Fehler macht, diese jedoch weniger deutlich bis hin zu unbemerkbar zutage treten. Der eigentlich beabsichtigte Effekt wird damit jedoch selbstverständlich ebenfalls verringert.

Ich begrüße grundsätzlich die Implementierung dieser Funktion, sehe sie aktuell jedoch nicht als Alternative an. Teils produziert sie überzeugende Ergebnisse und dafür ist sie natürlich willkommen, aber oft auch nicht. Kann und wird künftig aber nur besser werden. Schauen wir mal wie sich die Sache entwickelt.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor einer Stunde schrieb flyingrooster:

Wobei man hier aber eben auch ein paar der typischen Probleme der künstlich generierten geringen Schärfentiefe sieht. Zahlreiche Haare sind weggeschnitten/weichgezeichnet, das Gras im Maul wird unscharf, Objekte mit etwas Tiefenausdehnung wirken aufgrund fehlenden Unschärfeverlaufs auf ihnen selbst wie digital ausgeschnitten (trifft ja auch zu), der Hintergrund wird ab geringer Entfernung nur noch gleichmäßig und nicht mehr tiefenabhängig weichgezeichnet, beim Tier rechts hinten hat sich die KI vertan, &c. Öfters sehe ich dabei auch eine Art Halo scharfen Hintergrunds um Teile des Objekts herum und die Unmöglichkeit das „scharfe Objekt“ selbst auswählen, anstatt automatisiert durch die KI definieren zu lassen, schränkt ebenfalls ein.

Bei eindeutigem und eher flacherem Hauptobjekt mit glatten Rändern vor nicht zu tiefem Hintergrund funktioniert es aber meist ziemlich gut. Insgesamt weist die KI mMn. aber noch so einiges an Lernbedarf auf, um generell als Alternative zu fungieren.

Interessant finde ich, dass diese künstliche Unschärfe laut Forenmeinung noch Teufelszeug war, solange diese Funktionalität Smartphones vorbehalten war, aber kaum kann es auch Lightroom, verhält sich die Sache plötzlich gänzlich anders … ;)

Die Lightroom Funktion ist noch im Early Access Modus. Adobe erhofft sich von praktizierenden Benutzern Feedback für die nächsten Verbesserungsschritte.

Maßgeblich ist für mich die Vollbildansicht auf meinem 32 Zoll 4K Monitor. Wenn ich da keine angeschnittenen Haar erkennen kann, ist das Ergebnis für mich OK. Ich nutze die reingezoomte Ansicht praktisch nie zum Anschauen.

MMn. ist der Entwicklungsstand in Lightroom schon deutlich weiter als entsprechende Funktionen auf Smartphones. In Lightroom kann man den Unschärfenereich schon sehr flexibel beeinflussen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 40 Minuten schrieb timeit:

spätestens, wenn die Tiefeninformation mitgeliefert würde, dürfte das künstliche Freistellen perfekt sein. Frage mich gerade, wieviel versatz man benötigen würde, um das aus 2 Bildern zu errechnen. Oder ob es andere Wege gäbe. (Schärfen-analyse?)

Gibt auch noch andere Wege. Im Gegensatz zu KI-Lösungen ist dafür aber immer kosten- und platzintensive zusätzliche Hardware erforderlich und eben dies wird andere Entwicklungen abseits von Spezialanwendungen ausbremsen.

vor 39 Minuten schrieb wasabi65:

ich finde es nett.

Finde ich ebenfalls und vereinzelt auch bereits mehr als das.

Respekt für's überzeugende Nissen-Bokeh in deinem Beispiel. Wenngleich die tiefenbasierte Ausprägung der Unschärfe auch hier eigenwillig ausfällt.

vor 5 Minuten schrieb tgutgu:

Die Lightroom Funktion ist noch im Early Access Modus. Adobe erhofft sich von praktizierenden Benutzern Feedback für die nächsten Verbesserungsschritte.

Betatester nicht zu bezahlen, sondern von Testern sogar Geld zu kassieren, stellt zweifellos für jede Firma ein hoffnungsvolles Konzept dar … ;)

Abgesehen davon begrüße ich diese Funktion ja und sie wird sich künftig zweifellos weiter verbessern. Nur sehe ich aktuell halt in den meisten Fällen noch keine ernsthafte Alternative für entsprechende Hardwarelösungen an.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb flyingrooster:

Gibt auch noch andere Wege. Im Gegensatz zu KI-Lösungen ist dafür aber immer kosten- und platzintensive zusätzliche Hardware erforderlich und eben dies wird andere Entwicklungen abseits von Spezialanwendungen ausbremsen.

Finde ich ebenfalls und vereinzelt auch bereits mehr als das.

Respekt für's überzeugende Nissen-Bokeh in deinem Beispiel. Wenngleich die tiefenbasierte Ausprägung der Unschärfe auch hier eigenwillig ausfällt.

Betatester nicht zu bezahlen, sondern von Testern sogar Geld zu kassieren, stellt zweifellos für jede Firma ein hoffnungsvolles Konzept dar … ;)

Abgesehen davon begrüße ich diese Funktion ja und sie wird sich künftig zweifellos weiter verbessern. Nur sehe ich aktuell halt in den meisten Fällen noch keine ernsthafte Alternative für entsprechende Hardwarelösungen an.

Im Software Business sind Benutzertests üblich. Die Funktion ist zudem schon sehr ausgereift und nach meiner Erfahrung stabil. Ein Problem ist, wenn Software als Betasoftware ausgeliefert wird, ohne dass der Nutzer dies weiß und die Qualität nicht für den produktiven Einsatz geeignet ist. Davon kann hier keine Rede sein. Ich denke, die meisten finden es gut, dass dieser Entwicklungsstand herausgebracht wurde. Insofern würde ich das nicht mit dem klassischen Betatest vergleichen. Öffentliche Betatester werden im übrigen nie bezahlt. Lightroom Classsic war 2006 auch erst als Betasoftware herausgekommen und hat schon perfekt funktioniert. Es ging darum noch breiteres Nutzerfeedback einzuholen, bevor das Produkt endgültig freigegeben wurde.

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Stunden schrieb Markus B.:

Nun ja - die Wassertropfen haben leider auch eine gewisse Mutation erfahren - sie sind jetzt ringförmig  :D

…bokeh ist per Definition nie realistisch…und man hätte auch eine andere Charakteristik wählen können. Mach das Mal mit einem Objektiv…

😇

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Stunden schrieb Markus B.:

Man darf nicht vergessen: Diese KI- basierte Funktion in LR ist neu.

Nicht nur das: Sie ist quasi eine öffentliche Beta, was Adobe etwas seltsam als "früher Zug" bezeichnet. Das wird schon noch verbessert werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb embe71:

Nicht nur das: Sie ist quasi eine öffentliche Beta, was Adobe etwas seltsam als "früher Zug" bezeichnet. Das wird schon noch verbessert werden.

Early Access ist keine öffentliche Beta. Es ist ein komplett funktionsfähiges, bereits möglichst fehlerfreies öffentliches Produktrelease, von dem jedoch klar ist, dass es funktional noch verbessert werden soll. Es ermöglicht den Nutzern einen frühen Zugang zu Funktionen anstatt noch lange warten zu müssen, bis alles funktional fertig ist. In dem Sinne entspricht es einem "Minimal Viable Product" (MVP). Es ist eher "die erste minimal funktionsfähige Iteration eines Produkts die dazu dient, möglichst schnell aus Nutzerfeedback zu lernen und so Fehlentwicklungen an den Anforderungen der Nutzer vorbei zu verhindern" (Wikipedia).

Ich würde sogar sagen, dass es über ein übliches MVP schon hinausgeht.

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb Markus B.:

Nämlich dann, wenn das Motiv im Vordergrund klar von einem deutlich weiter hinten liegenden Hintergrund getrennt ist. 

Das bekommt man im übrigen auch beeinflusst, indem eine höhere Sensorauflösung verwendet wird, weil dann auf Pixelebene der als scharf gemessene Bereich verkleinert wird. Zudem sind dann auch im Verlauf der Unschärfe für die KI Abstufungen besser erkennbar. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb Markus B.:

Die Wassertropfen in deinem Bild liegen nicht im unscharfen Bokeh- Bereich 😉

Bin nicht sicher, ob ich dich verstehe…aber genau darum geht es doch bei diesem Tool…etwas was noch im Schärfebereich liegt, kontrolliert unscharf werden zu lassen. Umgekehrt wäre es ein Sharpeningtool…

😇

bearbeitet von wasabi65
Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Stunden schrieb mftler:

Wer ein vernünftiges Bokeh haben möchte, sollte sich anständige Objektive zulegen oder ein vernünftiges System kaufen...🙂

All dieses "AI und KI Software Gedöns" hat für mich persönlich gesehen nichts mehr mit realer Fotografie zu tun...

 

Zu deinem ziemlich pauschalisierten Statement gibt es einiges zu sagen:

Man muss unterscheiden zwischen dem Ausmass der technisch möglichen Freistellung, die von der Brennweite des Objektivs, und dessen maximaler Öffnung bzw. Lichtstärke abhängt. Und der Qualität des Bokeh, die wesentlich auch von der Konstruktion des Objektivs abhängt. Konkret gesagt:  Ein F1.4 Objektiv für Vollformat muss nicht das schönere Bokeh haben als ein F1.4 oder ein F1.2 Objektiv für mFT, obwohl es mehr freistellen, d.h. die Schärfentiefe mehr begrenzen kann.

Was ist schon "reale" Fotografie?  Ein Bild aus der Kamera gibt die Wirklichkeit ohnehin immer anders wieder als die Szene vor Ort unserem Auge erscheint. Ein Bild ist immer zweidimensional,  die Wirklichkeit hat drei Dimensionen. Dass Bilder mehr oder weniger nachbearbeitet werden ist doch gang und gäbe. Haben wir früher in der Dunkelkammer auch gemacht, durch abwedeln und nachbelichten, durch starken und schwachen Kontrast. Jetzt bekommen wir halt dank KI neue Möglichkeiten. Es hängt dann vom Geschick und dem Geschmack des Bearbeiters ab diese Instrumente sinnvoll einzusetzen, um eine möglichst naturnahe Darstellung des Motivs zu erzeugen, bzw. künstlerische Effekte zu erzeugen mit dem Ziel einer erwünschten Verfremdung, wie z.B. Low- und High- Key. 

bearbeitet von Markus B.
Link zum Beitrag
Auf anderen Seiten teilen

Vollkommen zutreffend!

Jedes vermeintlich "natürliche" JPEG-Digitalfoto wurde softwaremäßig schon erheblich bearbeitet.

Und die neueren Smartphones schaffen dies nun immer "besser" als die Digitalkameras, da sie etwa starke Kontraste nahezu perfekt ausgleichen.

Am "realsten" ist wohl immer noch ein Diafoto im Kodachrome-Prozess.

Link zum Beitrag
Auf anderen Seiten teilen

Freistellung ist für mich kein überaus originelles Kompositionselement, im Grunde ist sie lediglich eine oft eher unangenehme Eigenschaft unserer Objektive. Sehr oft passt das Ausmaß der Freistellung am Ende doch nicht und oft muss damit gekämpft werden, dass man zwar gestalterisch einen unscharfen Hintergrund haben möchte, dann aber eben das Motiv nicht ausreichend bzw. vollständig scharf abgebildet wird, was gestalterisch wiederum stört. Freistellung gehört ohnehin nicht zur natürlichen Wahrnehmung des Menschen, man versucht damit lediglich einem Bild eine gewisse Dreidimensionalität zu geben.

Die kompositorischen Künste eines Fotografen liegen eher im Erkennen einer Situation, der Führung des Lichtes bzw. der Ausnutzung von natürlichem Lichteinfall, geometrischen Bildelementen und in der Nutzung von Kontrast und Farbe. Die Freistellungseigenschaften sind mMn. Beiwerk.

Für mich ist es völlig egal, ob ich Freistellung bereits bei der Aufnahme erzeuge oder nachträglich bei der Bildbearbeitung. Bei der Bildbearbeitung habe ich viel mehr Möglichkeiten mit Unschärfe zu gestalten, ohne dass ich irgendein fotografisches "Ethos" verletzen würde.

Letztlich relativiert sich damit immer mehr die Notwendigkeit für Freistellung auf KB KB Systeme setzen zu müssen. Ich sehe es als Vorteil, das Stilmittel Unschärfe erst im Bildbearbeitungsprozess einzusetzen, da ich so den Unschärfebereich besser selbst beeinflussen kann. Das Objektiv und das Softwarewerkzeug sehe ich als völlig gleichberechtigte Arbeitswerkzeuge. (Noch) nicht gleichwertig, aber nahe dran.

Mit mFT zu fotografieren wird immer entspannter.

Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Minuten schrieb tgutgu:

Freistellung ist für mich kein überaus originelles Kompositionselement, im Grunde ist sie lediglich eine oft eher unangenehme Eigenschaft unserer Objektive. Sehr oft passt das Ausmaß der Freistellung am Ende doch nicht und oft muss damit gekämpft werden, dass man zwar gestalterisch einen unscharfen Hintergrund haben möchte, dann aber eben das Motiv nicht ausreichend bzw. vollständig scharf abgebildet wird, was gestalterisch wiederum stört. Freistellung gehört ohnehin nicht zur natürlichen Wahrnehmung des Menschen, man versucht damit lediglich einem Bild eine gewisse Dreidimensionalität zu geben.

Die kompositorischen Künste eines Fotografen liegen eher im Erkennen einer Situation, der Führung des Lichtes bzw. der Ausnutzung von natürlichem Lichteinfall, geometrischen Bildelementen und in der Nutzung von Kontrast und Farbe. Die Freistellungseigenschaften sind mMn. Beiwerk.

Für mich ist es völlig egal, ob ich Freistellung bereits bei der Aufnahme erzeuge oder nachträglich bei der Bildbearbeitung. Bei der Bildbearbeitung habe ich viel mehr Möglichkeiten mit Unschärfe zu gestalten, ohne dass ich irgendein fotografisches "Ethos" verletzen würde.

Letztlich relativiert sich damit immer mehr die Notwendigkeit für Freistellung auf KB KB Systeme setzen zu müssen. Ich sehe es als Vorteil, das Stilmittel Unschärfe erst im Bildbearbeitungsprozess einzusetzen, da ich so den Unschärfebereich besser selbst beeinflussen kann. Das Objektiv und das Softwarewerkzeug sehe ich als völlig gleichberechtigte Arbeitswerkzeuge. (Noch) nicht gleichwertig, aber nahe dran.

Mit mFT zu fotografieren wird immer entspannter.

Bin mit allem einverstanden was du schreibst Thomas - entspricht meine Erfahrung. Mit Vollformat ist doch bei offener Blende oft nicht nur der Hintergrund unscharf (oft, aber nicht immer erwünscht) sondern auch ein Teil des Hauptmotivs (oft unerwünscht). Um letzteres zu vermeiden muss man abblenden - was wieder die ISO hochjagt, wobei der Dynamikvorteil gegenüber mFT schwindet oder sogar verschwindet - weil man mit mFT häufig mit Basis-ISO 200 arbeiten kann.

Das Bokeh meines Olympus 45/1.2 PRO kann es mit allen Vollformatobjektiven aufnehmen die ich bisher kennengelernt habe. Es ist sogar harmonischer als die meisten von ihnen.

Und ja - Freistellung durch Unschärfe ist nur eine, und oft nicht die optimale Möglichkeit die Aufmerksamkeit des Betrachters auf das Hauptmotiv zu lenken. Auf einem Bild kann alles oder fast alles scharf sein, und dennoch das Hauptmotiv herausgehoben werden: Durch Farbe, Licht/Schatten, Muster, Form, Komposition/Geometrie usw. Man schaue sich nur die Bilder der alten Meister in der Malerei an - die haben auch nicht den Hintergrund gesoftet :rolleyes:, und dennoch ist ein Meisterwerk draus geworden. Was man von vielen rezenten Fotografien nicht sagen kann die mit einem 35mm/1.4 oder einem 90mm/1.2 Vollformatobjektiv geschossen wurden :blink:

Link zum Beitrag
Auf anderen Seiten teilen

vor 26 Minuten schrieb tgutgu:

Mit mFT zu fotografieren wird immer entspannter.

Ich seh das ähnlich.

Die Entscheidung von OM-Digital Solutions und Panasonic, sich bei MFT vorrangig auf den Tele-Bereich (Wildlife/Sport etc) sowie auf hochwertige Videographie zu konzentrieren, ergibt immer mehr Sinn. Freistellung kann man nachträglich erzeugen, Lowlight ist mit Multiframe-Aufnahmen und gutem Denoising sehr gut mit kleinen Sensoren machbar (schwierig wird es hier halt wieder bei Kombination mit schnell bewegten Motiven), hohe Auflöung ist auch mit kleinen Sensoren gut möglich.

Das einzige, was man auf absehrbare Zeit nicht vernünftig und ausreichend miniaturisieren kann, damit es in SF passt, ist optischer Zoom. Also lange Tele-Brennweiten. Und von daher ist MFT in seiner Nische auch gar nicht mal so schlecht aufgestellt, da es Vorteile großer und kleiner Sensoren einigermaßen vereinen kann.

Das es im PRO-Bereich natürlich immer Anwendungen für große Sensoren geben wird, wenn es auf allerhöchste Qualität ankommt, und dass es immer SemieProfis oder Hobby-Anwender geben wird, die aus verschiedensten Gründen nur das beste vom besten nutzen wollen, sollte klar sein. Aber vor dem großen Massenmarkt, auch dem ,wo sich noch KB-Systeme tummeln, werden die Smartphones nicht halt machen.

Die Frage der Zukunft, eigentlich schon der Gegenwart lautet: wann ist gut gut genug ?

 

lg

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb tgutgu:

Letztlich relativiert sich damit immer mehr die Notwendigkeit für Freistellung auf KB KB Systeme setzen zu müssen.

Ja. Aber auch im Mft „Kernbereich“ der Telefotografie können solche tools helfen. Dort geht es nicht um Freistellung weil das bei Tele eh durch die Brennweite gegeben ist. Sondern um die zum Teil grausligen bokeh der langen Mft Brennweiten wenn der Hintergrund unruhig ist. Da erzeugt das tool keine zusätzliche Freistellung, bietet aber eine gute Alternative zu Hintergrundsmasken.

Link zum Beitrag
Auf anderen Seiten teilen

Am 2.11.2023 um 06:49 schrieb tgutgu:

Im Software Business sind Benutzertests üblich.

Ja, üblich ist eine ganze Menge …

vor einer Stunde schrieb tgutgu:

Freistellung gehört ohnehin nicht zur natürlichen Wahrnehmung des Menschen […]

Eine Feststellung, welche konsequent fortgesetzt auch u.a. folgendes umfasst: Makrofotografie, Teleaufnahmen, UWW-Aufnahmen, Langzeitbelichtungen, eingefrorene Bewegungen mittels kurzer Belichtungszeiten, Schwarz-Weiss Fotografie, jegliche Form von menschl. Wahrnehmung abweichender Farbgebung, Fokus-Stacking, teils HDR, ungewöhnliche Aufnahmestandpunkte, teils High-Key/Low-Key bzw- jegliche Form „unüblicher“ Belichtung, betont hohe oder niedrige Kontraste, &c.     Die menschliche Wahrnehmung kann man als Kriterium heranziehen – muss man aber nicht.

Ich persönlich sehe die Berücksichtigung und Nutzung von Schärfentiefe durchaus als wichtiges kompositorisches Element an, welches den Hintergrund meines Motivs und oft auch das Motiv selbst betrifft. Letztlich übt diese, neben zahlreichen weiteren Parametern, deutlichen Einfluss auf das sichtbare Bildergebnis aus, nicht nur in rein technischer (Rauschen würde ich in diese Kategorie setzen), sondern auch ästhetischer Hinsicht. Dies umfasst natürlich sowohl geringe wie auch hohe Schärfentiefen.

vor einer Stunde schrieb tgutgu:

Letztlich relativiert sich damit immer mehr die Notwendigkeit für Freistellung auf KB KB Systeme setzen zu müssen.

Sicher. Dies betrifft aber wiederum in Konsequenz nicht nur KB Systeme, sondern jegliche Kamerasysteme hinsichtlich dieses Punktes. Nicht umsonst stammt diese Entwicklung ja genau aus diesem Grund aus dem Smartphone-Sektor, mittels welcher sich nun ebenfalls freistellen lässt.

Dieser ständige Zwist zwischen verschiedenen Kamerasystemen mutet auch in diesem Punkt etwa an wie jener der Volksfront von Judäa gegen die judäische Volksfront, während die Römer das Land überrennen bzw. schon längst übernommen haben.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...