Jump to content

Empfohlene Beiträge

wir könnten uns auch auf Reisen einfach wieder Postkarten kaufen, dann sparen wir uns die ganze künstliche Intelligenz in der Kamera und sogar die Kamera selber ;)

 

Karlo

Mache ich immer noch sehr gerne, genauso wie Weihnachtskarten. :)

Link zum Beitrag
Auf anderen Seiten teilen

Mal anders gefragt: Warum Bokeh oder Freistellung? Eigentlich doch zur Erzeugung ein bestimmten Bildwirkung mit Fokussierung auf Person/Motiv.

 

Künstlich erzeugtes Bokeh und damit künstlich erzeugte Bildwirkung = schlecht. Durch Objektiv erzeugtes Bokeh und Freistellung = gut?

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mal anders gefragt: Warum Bokeh oder Freistellung? Eigentlich doch zur Erzeugung ein bestimmten Bildwirkung mit Fokussierung auf Person/Motiv.

 

Künstlich erzeugtes Bokeh und damit künstlich erzeugte Bildwirkung = schlecht. Durch Objektiv erzeugtes Bokeh und Freistellung = gut?

Oder Nachbearbeitung in Lightroom, mit Autofokus fotografieren, Bracketing, Panorama usw?

Link zum Beitrag
Auf anderen Seiten teilen

Künstlich erzeugtes Bokeh und damit künstlich erzeugte Bildwirkung = schlecht. Durch Objektiv erzeugtes Bokeh und Freistellung = gut?

 

Ob das künstllich erzeugte Bokeh in diesem Kontext als schlecht empfunden wird, hängt meiner Meinung nach von zwei Faktoren ab:

 

Einerseits ob das Bokeh technisch überzeugend wirkt. Entspricht der Unschärfeverlauf der jeweiligen Entfernung der Motivanteile von der Kamera oder erzeugt der Algorithmus "unlogische", damit dem menschliche Sehempfinden (und auch üblichem "Fotografierempfinden") nach optisch widersprüchliche, und daher nicht überzeugende Ergebnisse? Ich stelle mir hundertprozentig überzeugende Bokehalgorithmen schwierig vor, solange nicht auch die Entfernungen der abgebildeten Elemente pro Pixel aufgezeichnet werden.

 

Andererseits ob der Fotografierende denn überhaupt noch Einfluss auf die Erzeugung der Unschärfen hat. An Kameras blendet man auf oder ab und steuert diesen Parameter schnell und effizient (natürlich innerhalb engerer Grenzen als dies allein softwareseitig möglich wäre). Und an Smartphones? Entscheidet die KI wann und wie stark weichgezeichnet wird oder der Nutzer? Falls es der Nutzer nicht entscheidet, verliert das Smartphone gehörig an "fotografischen" Möglichkeiten, wäre jedoch nach wie vor mit einer Taste bedienbar. Und falls es der Nutzer entscheidet, wie könnte dann jemals die Bedienung und anfallende Optionsvielfalt am Smartphone einfacher ausfallen als an Kameras? (Da sich hierbei sogar noch mehr Einstellmöglichkeiten ergäben als durch simples Öffnen/Schließen einer Blende, wäre sie sogar nochmals komplexer.) Das ist übrigens genau das von mir bereits angesprochene Paradoxon des Dreiecks aus gleichzeitiger voller Kontrolle, vereinfachter Bedienung und zusätzlicher Funktionalität, welches sich bereits vom Prinzip her widerspricht.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Aber jedes Tier/Insekt hat in der Kolonie meist nur genau eine Aufgabe. Das ist schon fast wie ein binärer Computer. So weit reduziert sehe ich das menschliche Denken durch KI noch nicht. ;)

 

 

Ist pauschal nicht zutreffend. Bei Bienen ist es reproduzierbar nachgewiesen, dass bis auf die Königin jede Biene je nach Alter mehrere Funktionen ausüben kann. Ist abhängig von verschiedenen Faktoren und situationsabhängig. Selbst ein Drohn erfüllt mehr als nur einen Zweck, auch wenn dieser eine schwerpunktmäßig betrachtet wird :cool:

 

Soweit sind wir prinzipiell gar nicht auseinander. Ich bevorzuge aber die eigenständige Denkarbeit, wäre aber auch nicht verlegen, wenn mir meine Kamera z.B. anstatt nur ISO + Blende evtl. auch "Live comp" oder ND als Empfehlung geben würde. Aber ich sehe die versteckten Möglichkeiten, über die ich als Verbraucher nichts erfahre, weil ich dann evtl. diesen oder jenen Artikel gar nicht erst kaufen würde. Niemand weiß, wie sich in Zukunft verschiedene, vordergündig völlig verschiedene, fremde Netzwerke miteinander verknüpfen, um Profile zu erstellen und eigene Entscheidungen ermöglichen oder verhindern. Selbstverständlich nur zum Wohle und der Bequemlichkeit aller...

 

Ich spinne das Beispiel mit Auto mal in Kombination mit Kamera und einem Intranet weiter:

Ich gebe Zielort ein, habe Kamera im Auto... -

Auto fragt: "na wieder zum Flugplatz, Hubschrauber spotten?"

Kamera hat gemeldet, die am Zielort hast du schon x-Mal aufgenommen, die sehen heute noch genauso aus, wie letztes Mal, ausserdem regnet es gerade, in 20min hört es auf, rh dann bei ca. 97%, bei diesen Bedingungen brauchst du mindestens 15 Versuche, bis ein Treffer rauskommt, [...] ...!

ZES am Zielort beim Systemabgleich an die Kamera mitgeteilt, dass du heute dienstfrei hast, aber Minusstunden. GF ist anwesend und es könnte passieren, dass du gleich Dienst übernehmen musst, weil Spätabfertigungen angefordert worden sind..."

Anderen Zielort eingeben oder Anlassvorgang abbrechen?  [j]   [n]

 

Gruß Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Es ist schon interessant, wie gut die Defizite der Brettchen durch angebliche „KI“ geradegebogen werden und uns das dann durch den völlig unsinnigen Begriff „Computational Photography“ als neuer Trend, vielleicht auch „Game Changer“ von den Vermarktern nahegebracht wird. Computational Photography wird auch gleich noch zum „Computational Photography Market“ hochstilisiert, „Analysten“ verifizieren dies als „Experten“. Ich sehe schon, wie da die nächste Blase aufgepumpt wird, um den Käufern einzuhämmern, dass es mehr als ein Brettchen eigentlich nicht braucht.

 

Man darf gespannt sein, was die „KI“ so alles unscharf macht, um ein Bokeh zu erzeugen. Wie gut eigentlich scharf gestellte Details auch scharf bleiben. Wie der Schärfeverlauf sein wird. Gespannt bin ich auch auf das Daddel-Interface mit dem die Bildaufnehmer auf einem vergleichsweise kleinen Bildschirm bei hellem Licht mit zugekniffenen Augen und dicken Fingern die Unschärfezone festlegen (oder soll das erst hinterher gemacht werden?), bzw. malen.

 

Sicher wird das kommen. Ob es begeistern wird? Die Kameras wird es sicher nicht retten, bei größeren Sensoren wird es eher nicht benötigt. Ich wäre jedenfalls sehr interessiert, wie viele Fotografen es gäbe, auf einem Kamera mit angehängtem Teleobjektiv sich vor (meinetwegen auch gleich danach) der Aufnahme damit auseinander zu setzen, was unscharf sein soll und was nicht. Ich würde mal vermuten, dass da doch eher dem schnellen Blendenring oder Einstellrad getraut wird, ggf. auf Arbeitsblende abgeblendet.

 

Mag ja sein, dass das zu altbacken klingt und ein Problem für die Analysten und Ratgeber ist sicherlich, dass das erstmal nach weniger Geschäft aussieht. Andererseits ist das auch alles etabliert und wenig risikoreich. Es könnte ja auch sein, dass Computational Photography ein Megaflopp wird. Dann war‘s das mit dem Market. Aber der nächste Market wird ja schon da sein.

 

Musterbasierte Bildbearbeitung / Auswahlmasken etc. pp. wird sicher kommen - in der Bildbearbeitungssoftware einschl. RAW Editor.

Link zum Beitrag
Auf anderen Seiten teilen

Eine KI die automatsch Pickel entfernt und die Figur 10Kg schlanker macht wäre bei den Selfie-Knipsern sicherlich ein Verkaufsschlager.

Japanische Kompaktkameras hatten ne Zeitlang mal einen Schlankmachermodus - irgend was anamorphotisches.

 

Und wo wir schon am Spinnen sind, spinn ich mal bei rostafrei weiter.

 

Zunächst die Kamera ohne Objektiv. Per GPS weiß sie natürlich genau, wo sie ist und wählt für den Hintergrund eine im Pool der Unendlichkeit abgelegte Aufnahme der location von den Besten der Besten - die sind so gut, daß 3D schon mit den meisten einen Latte getrunken hat.  Gute Porträts der Familie (Freundin/Geliebten) sind in der Datenbank. Intelligent wardrobe weiß, welche Hosen ich angezogen habe - kommt samt aktuellem Wetterbericht mit dazu. Und dann beginnt die multiperspektische super-bokeh- KI zu wirbeln - das Rendering ist im Kasten. Perfekt.

 

Aber nichts ist so perfekt, daß eine Steigerung unmöglich wäre. Konkreter Vorschlag: Wir müssen auch gar nicht mehr hinfahren. Ich sitze auf der Potato-couch und tippere auf dem Monsterhandy ein, wo ich mit wem gerne gewesen sein möchte. Dem Intelligenten Schrank überlasse ich die Auswahl der Garderobe, zum Wetter beauftrage ich "spektakulär" und überlasse den Rest einer auf meinen Geschmack personalisierten VR-KI. Und schon erscheint die Szene auf dem wall screen, und wenn sie gefällt, speichere ich sie ab. Dafür brauche ich dann noch nicht einmal mehr RAW.

bearbeitet von micharl
Link zum Beitrag
Auf anderen Seiten teilen

Richtig, Datenbanksuche nach Schlüsselwörtern, mehr ist das im Grunde nicht.

Da Juristen im allgemeinen mit Technik und Software auf Kriegsfuß stehen, sind sie davon stark beeindruckt.

Wenn wir in Google nach irgendwas suchen, passiert nichts anderes.

 

Vielleicht sollten mache heutige Software- bzw. KI-Gläubige mal nicht Programmierhochsprachen oder Interpreter verwenden, die ihnen schon 99,8% der eigentlichen Programmierarbeit abnehmen, sprich fertige Objekte bzw. Klassen mit fertigen Funktionen in Bibliotheken zur Verfügung stellen, sondern zuerst auf Assemblerebene und dann auf Machinenspracheebene einen komplizierten Vorgang programmieren, damit sie darauf kommen, auf welche primitive Abläufe von Einsen und Nullen in nichts anderem als Addier- und Subtrahiergliedern das alles am Ende zurück geht.

Hört, hört, der Wolfgang ist nicht nur Optik-Experte sondern auch noch Experte für KI-Software....Respekt!

Link zum Beitrag
Auf anderen Seiten teilen

Seit den 80ern wird das KI-Schwein doch schon durchs Dorf gejagt und damals haben sie ja schon die Welt von

Expertensystemen beherrscht gesehen. Und nun wird es schon wieder mal von Werbewirtschaft und Milititär als

Allheilmittel vorgeführt.

Es kreißen die Berge, zur Welt kommt nur ein lächerliches Mäuschen.

Horaz, 8 v.u.Z.

Link zum Beitrag
Auf anderen Seiten teilen

„Schöne, Neue Welt.“ -

 

Am Ende bleibt immer die Frage was nutzt man für sich und was nicht, was hilft einem und was ist nicht hilfreich.

 

Wie verbindet man das klassische mit dem modernem. Das Alte mit dem Neuen. Das Mechanische mit dem Elektronischen. Zum Glück, bleibt es einem selbst überlassen und man kann sich seine „Mischung“ selbst aussuchen.

 

Und wie immer gibt es die, die das gleich voll nutzen, die, die noch abwarten und später damit anfangen, die, die dann beginnen, wenn es alle machen und die, die es komplett verweigern.Wie beim CD-Player, MP3 Player und Streaming Service. Oder beim Mobiltelefon und Smartphone. usw. usw.

Link zum Beitrag
Auf anderen Seiten teilen

Ein Blindtest könnte peinlich ausgehen. ;) Ich habe leider kein Pixel XL 2, aber einige Beispiele sind schon recht überzeugend. Und unterschätzt nicht das Thema cloud-gestützte KI. Adobe nutzt Cloud-KI in der neuesten Version für die Autokorrektur. Bisherige recht einhellige Meinung sehr gute Korrektur, kaum noch Änderungsbedarf. Automatisches Bokeh im SP verhaut sich noch oft, aber die Software lernt. ;)

 

Wenn man SP-Bilder in Google eigenen Server aufhübscht kann man natürlich einiges machen. Wenn Google weiß, wo das Bild gemacht wurde, dann kann man zum Beispiel Teile des SP Fotos durch qualitativ hochwertige Bilder aus einer eigenen Datenbank ersetzen.  Im Extremfall hat das Bild, welches tatsächlich vom SP gemacht wurde und das Bild, das der Nutzer nach der Bearbeitung dann sieht, fast nichts mehr miteinander zu tun. Ich mache ein mieses Bild bei grellem Licht vom Matterhorn, die Server erkennen ungefähr Position und Perspektive und senden dann ein technisch einwandfreies Bild zurück. Sowas wäre technisch möglich und wird vielleicht so ähnlich auch schon gemacht.

Link zum Beitrag
Auf anderen Seiten teilen

Hat der Sensor aber nicht. Wenn der Sensor das von sich aus hätte brauche ich die Funktion natürlich nicht. Aber was ist denn das für eine Argumentation? Ich bekomme langsam Bluthochdruck hier. Nochmal: Aktueller 1-Zoll-Sensor, kleine Kamera mit möglichst nicht herausstehendem Objektiv für volle Hosentaschentauglichkeit (z.B. wie meine uralte Panasonic FX-150), Limitierungen des Sensors und Objektiv durch KI-gestützte Bildverarbeitung bei Bokeh, Telezoom, Rauschen etc umgehen. Das wäre heute ja durchaus machbar.

 

 

Diese Limitierungen kann man reduzieren, aber nicht vorhandene Information im Bild kann keine Software er Welt wieder hineinzaubern. Man kann es so ändern, dass es fürs Auge hübscher aussieht. Details, die nicht da sind, lassen sich nicht mehr nachträglich errechnen.

Link zum Beitrag
Auf anderen Seiten teilen

Vielleicht sollten mache heutige Software- bzw. KI-Gläubige mal nicht Programmierhochsprachen oder Interpreter verwenden, die ihnen schon 99,8% der eigentlichen Programmierarbeit abnehmen, sprich fertige Objekte bzw. Klassen mit fertigen Funktionen in Bibliotheken zur Verfügung stellen, sondern zuerst auf Assemblerebene und dann auf Machinenspracheebene einen komplizierten Vorgang programmieren, damit sie darauf kommen, auf welche primitive Abläufe von Einsen und Nullen in nichts anderem als Addier- und Subtrahiergliedern das alles am Ende zurück geht.

 

Der Vergleich mit Assembler ist ziemlich hanebüchen, weil in Assembler schreiben zu 80 %, in Maschinensprache zu 99,8 % Routine-, in C und Co zu 80 % Denkarbeit ist *

 

Noch nicht mal in den 60ern, als ich mich erstmals mit Hard- und Software beschäftigte, die Namen gab es da noch nicht, hat man mit Addier- und Subtrahiergliedern gearbeitet, sondern mit logischen Gattern und Schieberegistern. Gut, gelegentlich gab es ein AND-Gatter.

 

Manche wollen immer zurück, zur Kutsche z. B., um das Verhältnis zum Pferd zu verbessern, in die Vor-Bahn-Zeit, in der es weniger Übergewichtige gab, zu Lumiere, um wieder bewusst zu fotografieren... Hoffentlich haben diese Leute nichts mit Kindererziehung zu tun oder sind ohne sonstigen Einfluss.

 

* Meine Zahlen sind vermutlich nicht exakt, aber die Richtung stimmt. Sie sind auf jeden Fall richtiger als Deine. Du hast Dich wohl um eine Zehnerpotenz vertan.

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Seit den 80ern wird das KI-Schwein doch schon durchs Dorf gejagt und damals haben sie ja schon die Welt von

Expertensystemen beherrscht gesehen. Und nun wird es schon wieder mal von Werbewirtschaft und Milititär als

Allheilmittel vorgeführt.

Es kreißen die Berge, zur Welt kommt nur ein lächerliches Mäuschen.

Horaz, 8 v.u.Z.

 

Ah, ja, jetzt wo du es sagst. Die IT hat seit den 80ern auch so gut wie keinen Einfluss auf unser Leben gehabt. Und Expertensysteme gibt es auch kaum. Ich hoffe, du musstest Horaz nicht googeln.

Link zum Beitrag
Auf anderen Seiten teilen

Diese Limitierungen kann man reduzieren, aber nicht vorhandene Information im Bild kann keine Software er Welt wieder hineinzaubern. Man kann es so ändern, dass es fürs Auge hübscher aussieht. Details, die nicht da sind, lassen sich nicht mehr nachträglich errechnen.

 

Das habe ich auch nicht geschrieben. Oder wo liest du das genau raus? 

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man SP-Bilder in Google eigenen Server aufhübscht kann man natürlich einiges machen. Wenn Google weiß, wo das Bild gemacht wurde, dann kann man zum Beispiel Teile des SP Fotos durch qualitativ hochwertige Bilder aus einer eigenen Datenbank ersetzen.  Im Extremfall hat das Bild, welches tatsächlich vom SP gemacht wurde und das Bild, das der Nutzer nach der Bearbeitung dann sieht, fast nichts mehr miteinander zu tun. Ich mache ein mieses Bild bei grellem Licht vom Matterhorn, die Server erkennen ungefähr Position und Perspektive und senden dann ein technisch einwandfreies Bild zurück. Sowas wäre technisch möglich und wird vielleicht so ähnlich auch schon gemacht.

 

Nein, so wird aktuell nicht gemacht. Lies dir mal meinen verlinkten Beitrag durch, da steht es was angewendet wird und wie das funktioniert. Wenn man es so macht wie von Dir beschrieben brauche ich nicht mehr zum Matterhorn fahren, sondern lade mir bequem auf der Couch sitzend das Bild herunter.

Link zum Beitrag
Auf anderen Seiten teilen

Ob das künstllich erzeugte Bokeh in diesem Kontext als schlecht empfunden wird, hängt meiner Meinung nach von zwei Faktoren ab:

 

Einerseits ob das Bokeh technisch überzeugend wirkt. Entspricht der Unschärfeverlauf der jeweiligen Entfernung der Motivanteile von der Kamera oder erzeugt der Algorithmus "unlogische", damit dem menschliche Sehempfinden (und auch üblichem "Fotografierempfinden") nach optisch widersprüchliche, und daher nicht überzeugende Ergebnisse? Ich stelle mir hundertprozentig überzeugende Bokehalgorithmen schwierig vor, solange nicht auch die Entfernungen der abgebildeten Elemente pro Pixel aufgezeichnet werden.

 

Andererseits ob der Fotografierende denn überhaupt noch Einfluss auf die Erzeugung der Unschärfen hat. An Kameras blendet man auf oder ab und steuert diesen Parameter schnell und effizient (natürlich innerhalb engerer Grenzen als dies allein softwareseitig möglich wäre). Und an Smartphones? Entscheidet die KI wann und wie stark weichgezeichnet wird oder der Nutzer? Falls es der Nutzer nicht entscheidet, verliert das Smartphone gehörig an "fotografischen" Möglichkeiten, wäre jedoch nach wie vor mit einer Taste bedienbar. Und falls es der Nutzer entscheidet, wie könnte dann jemals die Bedienung und anfallende Optionsvielfalt am Smartphone einfacher ausfallen als an Kameras? (Da sich hierbei sogar noch mehr Einstellmöglichkeiten ergäben als durch simples Öffnen/Schließen einer Blende, wäre sie sogar nochmals komplexer.) Das ist übrigens genau das von mir bereits angesprochene Paradoxon des Dreiecks aus gleichzeitiger voller Kontrolle, vereinfachter Bedienung und zusätzlicher Funktionalität, welches sich bereits vom Prinzip her widerspricht.

 

Die Stärke des Bokeh über den Touchscreen einstellen ist sicherlich einfacher als eine Blendenreihe zu schiessen. Aber da stellen sich dem ambitioniertem Fotografen natürlich die Nackenhaare auf. Wo bleibt da die fotografische Magie?  Aber noch mal, ich für meinen Teil, hätte das gerne in einer sehr kompakten Kamera. Meine traditionelle Kameras würde ich dafür nicht aufgeben wollen, aber so kleines KI-unterstütztes Teil würde mir schon gefallen. Und nein, ich meine kein Smartphone damit. Ich weiß nicht, warum hier immer auf dem Smartphone rumgeritten wird? Dort wird die Technik schon genutzt, aber ich würde sie gerne in einer performanteren Kamera nutzen wollen.

Link zum Beitrag
Auf anderen Seiten teilen

Gast
Dieses Thema wurde für weitere Antworten geschlossen.
×
×
  • Neu erstellen...