Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Am 11.1.2026 um 17:17 schrieb beerwish:

...

Es gibt natürlich immer wieder Versuche Smartphone-Technik einfach so für Kameras zu nutzen aber bislang konnten die nie mithalten wenn man die Leistung mit richtigen Kameras vergleicht und so genau hinsieht wie bei Vergleichen der Kameras untereinander. Mit Smartphone-Technik hat man es dafür natürlich leichter bei Internet-Zugang, Filetransfer und vielen Standardoperationen. Eventuell gibt es ja irgendwann eine Kombination aber die Frage ist dann was es kosten wird und wie viel Strom man braucht.

Das verwundert mich jetzt aber. Noch nicht vor allzulanger Zeit hat es auch hier im Forum geheißen, dass SP rein von hrer Rechnerleistung auf wesentlich kleineren Raum mittlerweile (nicht erst Stand heute) deutlich leistungsfähiger seien, als Kameras. Und daraus entstand die Frage, warum das nicht in viel größerem Raum von Kameragehäusen möglich ist... Klar, das war bezogen auf generelles Leistungsvermögen incl. Konnektivität und Potential als mobiler Arbeitsplatz für alle möglichen Tätigkeiten, die man am Rechner erledigen kann. Aber immer auf deutlich weniger Raum mit schnelleren Prozessoren, die als Primärfaktor angesehen wurden... 

🤔😵‍💫

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb rostafrei:

Das verwundert mich jetzt aber. Noch nicht vor allzulanger Zeit hat es auch hier im Forum geheißen, dass SP rein von hrer Rechnerleistung auf wesentlich kleineren Raum mittlerweile (nicht erst Stand heute) deutlich leistungsfähiger seien, als Kameras. Und daraus entstand die Frage, warum das nicht in viel größerem Raum von Kameragehäusen möglich ist... Klar, das war bezogen auf generelles Leistungsvermögen incl. Konnektivität und Potential als mobiler Arbeitsplatz für alle möglichen Tätigkeiten, die man am Rechner erledigen kann. Aber immer auf deutlich weniger Raum mit schnelleren Prozessoren, die als Primärfaktor angesehen wurden... 

🤔😵‍💫

ich hatte die gleiche Frage mal in die KI eingegeben, da kam so ziemlich das heraus, was beerwish beschrieben hat. SP gute Rechenleistung bei "normalen" Dingen, Kamera sehr gut bei Bildverarbeitung, da darauf spezialisiert.
Es ist also nicht so, dass die Kamera-Hersteller keine Lust haben mehr Leistung einzubauen, sondern das ist schon eine Menge Leistung drin in den Cams.

Gruß Reinhard

Link zum Beitrag
Auf anderen Seiten teilen

Die Frage an dieser Stelle ist, ob man das KI-Zeug in einer Systemkamera haben möchte. SP und dessen KI sind gut darin, aus vielen schlechten Daten („Datenmüll“) etwas zu interpretieren, was eine hohe Rechenleistung erfordert, und Details, die so nicht vorhanden sind, in ein Bild zu verwandeln, das man anschauen kann. Eine OM oder auch andere Systemkameras verfolgen hier einen anderen Weg: Sie geben gute Daten weiter, ohne die Natur dessen neu zu erfinden – daher ist diese Rechenleistung gar nicht erforderlich.

In Bezug auf Bildverbesserungen würde ich einen Smartphonesensor also weniger in einer Kamera sehen. Wo Rechenleistung vermutlich mehr bringt, ist bei der Motivverfolgung. Da wüsste ich aber nicht, dass SP-Chips darauf spezialisiert wären – warum auch, ist doch eh alles scharf.

bearbeitet von Richi Foto
Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb Richi Foto:

Eine OM oder auch andere Systemkameras verfolgen hier einen anderen Weg: Sie geben gute Daten weiter, ohne die Natur dessen neu zu erfinden – daher ist diese Rechenleistung gar nicht erforderlich.

Nun, darüber kann man unterschiedlicher Meinung sein. Ich experimentiere gerade mit Lightroom und bin sehr angetan davon, was z.B. "empfohlene Presets" oder "automatische Motiverkennung" aus einem Bild machen können. Für Puristen ist das natürlich nichts. Aber für mich kann ich sagen, dass ich hier mit wenigen Clicks aus einem durchschnittlichen Foto das machen kann, was ich "eigentlich" gesehen habe, als ich das Foto gemacht habe. Und ein solches Ergebnis direkt aus der Kamera zu bekommen... mir würde es gefallen! 

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Stunden schrieb Kater Karlo:

ich hatte die gleiche Frage mal in die KI eingegeben, da kam so ziemlich das heraus, was beerwish beschrieben hat. SP gute Rechenleistung bei "normalen" Dingen, Kamera sehr gut bei Bildverarbeitung, da darauf spezialisiert.
Es ist also nicht so, dass die Kamera-Hersteller keine Lust haben mehr Leistung einzubauen, sondern das ist schon eine Menge Leistung drin in den Cams.

Gruß Reinhard

Welche KI war denn da so gut, dass die möglicherweise eine Aussagekraft wie beerwish erreichen könnte? Zitieren würde ich doch aber lieber nur beerwish, denn die KI kann bei der nächsten eigentlich gleichen Frage doch ganz anders antworten, um eben jemand anderem gefällig oder in anderem Zusammenhang zu sein.

In diesem Falle hätte ich die KI noch einmal nachgefragt, ob sie auch das iPhone17 und z.B. die spezielle Bild/Videohardware in dem Haupt-Prozessor und dem Videoprozessor beide berücksichtigt hat - dann schreibt z.B. ein Chatgpt gerne schon mal das Gegenteil der ersten Antwort... 

So oder so - eine KI ist heute noch nicht zitierfähig und sowieso erst mal unglaubwürdig.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Am 14.1.2026 um 10:12 schrieb rostafrei:

Das verwundert mich jetzt aber. Noch nicht vor allzulanger Zeit hat es auch hier im Forum geheißen, dass SP rein von hrer Rechnerleistung auf wesentlich kleineren Raum mittlerweile (nicht erst Stand heute) deutlich leistungsfähiger seien, als Kameras. Und daraus entstand die Frage, warum das nicht in viel größerem Raum von Kameragehäusen möglich ist... Klar, das war bezogen auf generelles Leistungsvermögen incl. Konnektivität und Potential als mobiler Arbeitsplatz für alle möglichen Tätigkeiten, die man am Rechner erledigen kann. Aber immer auf deutlich weniger Raum mit schnelleren Prozessoren, die als Primärfaktor angesehen wurden... 

🤔😵‍💫

Ich komme beruflich aus dem Bereich Messdatenverarbeitung. Da gibt es Aufgaben wo riesige Datenmengen von AD-Wandlern in den Speicher geschaufelt werden müssen aber auch Aufgaben wo man für Steuerung oder Regelung in sehr genau definierten Zeittakten auf aktuelle Messwerte zugreifen und sofort reagieren muss. Das Schaufeln geht über Buffer und es ist egal ob der Wert eine Sekunde später verarbeitet wird. Hauptsache er ist am Ende da wo er hingehört. Regelung erfordert Echtzeit mit Priorität wo man z.B. nur einen 1000Hz Takt einhalten muss aber eben immer egal was der Rechner sonst gerade macht und sehr genau also alle Millisekunde mit möglichst nur wenigen Mikrosekunden Abweichung.

In Kameras gibt es beides gleichzeitig. Für Video muss sie ein bis mehrere GBytes Daten pro Sekunde vom Sensor holen, komprimieren und auf die Karte schieben. Das geht nur gebuffert weil z.B. die normale Long GOP-Komprimierung aktuelle Frames komprimiert indem sie die Änderung von Frames davor zu Frames danach abspeichert. Sound wird parallel mit eine ganz anderen Geschwindigkeit erfasst und dazugemischt. Hier werden auf jeden Fall Daten für etliche Frame gebuffert bevor sie tatsächlich auf der Karte landen.

Gleichzeitig benötigt der AF ganz aktuelle Daten von ausgewählten Punkten auf dem Sensor, die Zeitnah aus dem Datenstrom gezogen werden müssen. Die werden unverzüglich zu Befehlen an die Objektivsteuerung umgerechnet die Schrittmotoren präzise ansteuern muss. Da muss der Zeittakt sehr exakt eingehalten werden. IBIS bewegt nicht nur den Sensor mit eine unabhängigen Echtzeitregelung. Die Position des Sensors muss auch noch mitgeschrieben werden damit sie einige Frames später in der e-Stabilisierung berücksichtigt werden kann. Da kommt die Position des Sensors mit den Gyrodaten des Bewegungssensors zusammen damit Bewegungen der Kamera, die nach IBIS übrig geblieben sind und Verzerrungen durch den Rolling shutter raus gerechnet werden können.  

Gleichzeitig ziehen andere Subsysteme reduzierte Daten aus dem Datenstrom um die Bilder für den Sucher oder das Display zu berechnen. Da möchte man aber möglichst wenig Verzögerung haben.

Die Ausgabe auf HDMI muss das fertige Bild zeigen, eventuell mit Ton, man wünscht da aber auch möglichst wenig Verzögerung wenn man über HDMI einen Monitor anschließt.

Insgesamt findet da ungeheuer viel statt. Es wird gleichzeitig mit verschiedenen Takten gearbeitet und sowohl gebuffert als auch direkt. Die verschiedenen Takte müssen aber über Stunden synchronisiert bleiben, also von einem "Master-Takt abgeleitet werden, was gar nicht so einfach ist wenn man z.B. 24fps und 23.976fps können will und das mit den 44100Hz für den Sound synchronisieren muss (so was ist viel schwieriger als man sich vorstellt). Die Datenmengen sind wahnsinnig groß und die Messwerte werden von Pixelpeepern bis aufs 14. oder 16. Bit geprüft. Ich bin immer wieder beeindruckt.

Smartphones haben kein HDMI, keinen so komplexen Autofokus, man akzeptiert grässliche Auslöseverzögerungen und Delays. Dafür machen sie tolle Sachen mit Mehrfachbelichtungen in ihren Grafikprozessoren. Da geht einiges was die großen Kamera auch mal können sollten aber es fehlt auch vieles was die Hardware dann eben nicht kann. Deshalb kann man auch nicht einfach ein Smartphone nehmen oder die Prozessoren und eine konkurrenzfähige Kamera draus bauen. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb jens_ac:

Welche KI war denn da so gut, dass die möglicherweise eine Aussagekraft wie beerwish erreichen könnte? Zitieren würde ich doch aber lieber nur beerwish, denn die KI kann bei der nächsten eigentlich gleichen Frage doch ganz anders antworten, um eben jemand anderem gefällig oder in anderem Zusammenhang zu sein.

In diesem Falle hätte ich die KI noch einmal nachgefragt, ob sie auch das iPhone17 und z.B. die spezielle Bild/Videohardware in dem Haupt-Prozessor und dem Videoprozessor beide berücksichtigt hat - dann schreibt z.B. ein Chatgpt gerne schon mal das Gegenteil der ersten Antwort... 

So oder so - eine KI ist heute noch nicht zitierfähig und sowieso erst mal unglaubwürdig.

Google

es ging ja ursprünglich darum, dass im Raum stand, dass sich die Kamera-Hersteller doch eine Scheibe bei den SP-Herstellern abschneiden sollen, weil die einen alte, schnarchlangsame Prozessoren verwenden und die anderen das Neueste vom Neuen (etwas überspitzt :) )
Das scheint nicht so zu sein.

Und um es klar zu sagen, natürlich traue ich einem Menschen - der auch noch vom Fach ist - da mehr, als einer KI-Aussage. Zur Unterstützung von Sachverhalten oder zur ersten Orientierung taugt die KI-Abfrage m. Meinung dann schon.
Wer mehr wissen will, muss halt dann weiter recherchieren.
 

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb abel:

Nun, darüber kann man unterschiedlicher Meinung sein. Ich experimentiere gerade mit Lightroom und bin sehr angetan davon, was z.B. "empfohlene Presets" oder "automatische Motiverkennung" aus einem Bild machen können. Für Puristen ist das natürlich nichts. Aber für mich kann ich sagen, dass ich hier mit wenigen Clicks aus einem durchschnittlichen Foto das machen kann, was ich "eigentlich" gesehen habe, als ich das Foto gemacht habe. Und ein solches Ergebnis direkt aus der Kamera zu bekommen... mir würde es gefallen! 

Natürlich kann man das auch anders sehen – und ich verstehe das und das habe ich anfangs aber auch jetzt noch (im kleinerem Umfang) selbst genutzt. Presets, automatische Motiverkennung oder Tonwertanpassungen sind nützliche Tools, das Bild näher an das heranzubringen, was man beim Fotografieren gesehen oder gedacht hat zu sehen. Der Kern meiner Aussage liegt aber eine Ebene tiefer.
Mir ging es nicht um Entwicklung oder Optimierung, sondern um die Frage, was die Kamera überhaupt liefert. Wenn die Sensordaten bereits kein „sauberes“ oder vollständiges Bild mehr darstellen und eine KI anfängt, Inhalte zu interpretieren, zu ergänzen oder im Zweifel sogar zu halluzinieren, dann ist das etwas grundlegend anderes als klassische Bildbearbeitung. Dann verlässt man den Bereich „Ich forme vorhandene Informationen“ und betritt den Bereich „Ich lasse etwas hinzufügen, was objektiv nicht da war“.

Und genau da stellt sich für mich die Frage:
Will man das bei einer Systemkamera?

Bei Smartphones akzeptieren wir das – weil sie physikalisch limitiert sind und das Ziel ein gefälliges Ergebnis ist. Genau aus dem Grund bin ich jedoch mit einer Systemkamera unterwegs und erwarte mir in erster Linie verlässliche Rohdaten, auf deren Basis ich entscheide, wie ich diese entwickle.

Kurz gesagt:
KI als Werkzeug (Motiverkennung, Live ND, Highres) nach dem Sensor → völlig okay, bitte her damit. --> Wie gehabt, so machen wir das.
KI als Instanz, welche die Mängel des Sensors durch Rechenleistung ersetzt oder interpretiert in Form von Details die da eigentlich nicht sind siehe Smartphones → das ist für mich der kritische Punkt, dass will ich eigentlich nicht.

 

bearbeitet von Richi Foto
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Richi Foto:

Natürlich kann man das auch anders sehen – und ich verstehe das und das habe ich anfangs aber auch jetzt noch (im kleinerem Umfang) selbst genutzt. Presets, automatische Motiverkennung oder Tonwertanpassungen sind nützliche Tools, das Bild näher an das heranzubringen, was man beim Fotografieren gesehen oder gedacht hat zu sehen. Der Kern meiner Aussage liegt aber eine Ebene tiefer.
Mir ging es nicht um Entwicklung oder Optimierung, sondern um die Frage, was die Kamera überhaupt liefert. Wenn die Sensordaten bereits kein „sauberes“ oder vollständiges Bild mehr darstellen und eine KI anfängt, Inhalte zu interpretieren, zu ergänzen oder im Zweifel sogar zu halluzinieren, dann ist das etwas grundlegend anderes als klassische Bildbearbeitung. Dann verlässt man den Bereich „Ich forme vorhandene Informationen“ und betritt den Bereich „Ich lasse etwas hinzufügen, was objektiv nicht da war“.

Und genau da stellt sich für mich die Frage:
Will man das bei einer Systemkamera?

Bei Smartphones akzeptieren wir das – weil sie physikalisch limitiert sind und das Ziel ein gefälliges Ergebnis ist. Genau aus dem Grund bin ich jedoch mit einer Systemkamera unterwegs und erwarte mir in erster Linie verlässliche Rohdaten, auf deren Basis ich entscheide, wie ich diese entwickle.

Kurz gesagt:
KI als Werkzeug (Motiverkennung, Live ND, Highres) nach dem Sensor → völlig okay, bitte her damit. --> Wie gehabt, so machen wir das.
KI als Instanz, welche die Mängel des Sensors durch Rechenleistung ersetzt oder interpretiert in Form von Details die da eigentlich nicht sind siehe Smartphones → das ist für mich der kritische Punkt, dass will ich eigentlich nicht.

 

sehr gut!

Link zum Beitrag
Auf anderen Seiten teilen

Ich will mal zurück kommen auf das Thema dieses Threads, die OM-1 Mk III, darum geht es!

Gerüchteweise soll sie einen TruePic XI erhalten, der wesentlich leistungsfähiger als die Vorgängerversion sein soll. Und die Gründe wurden auch schon genannt: wesentlich mehr AF-Berechnungen mit allen 1053 AF-Punkten und/oder einem Ausschnitt davon, z.B. anhand des AF-Felds, zum Beispiel mit 240 Berechnungen pro Sekunde, CP-Funktionen in Echtzeit (oder zumindest wesentlich beschleunigt), Kombination von CP-Funktionen ermöglichen.

Es ist mir völlig egal, welche Architektur die Kamera-CPU hat, das soll OMDS mal selbst austesten. Wahrscheinlich gibt es auch ein neues Akku mit mehr Kapazität (vielleicht abwärtskompatibel?), das wird dann auch die CPU entsprechend versorgen.

Nach 4 Jahren ist die Zeit ja wohl reif für einen neuen Kameraprozessor, alleine die Fertigungsprozesse haben in dieser Zeit Riesenfortschritte gemacht.

Die Diskussion um Smartphone-Hardware finde ich völlig überflüssig, da die OM1.3 eine Kamera sein wird, sie wird keinen Webbrowser haben, keine Ballerspielchen bieten und auch nicht Telefonieren können. Auch die Simultanübersetzung von mitgelauschten Gesprächen, Fahrzeugnavigation, Maps, Online Banking wird sie nicht bieten... also was soll die Diskussion hier?

Und das weiß doch auch jeder hier!

Trotzdem muss man doch jetzt nicht diesen Uralt-Prozessor in Schutz nehmen, natürlich geht das nach 4 Jahren besser und wahrscheinlich auch energieeffizienter.

Was mir auch an der Duskussion fehlt: Um neue Kunden zu gewinnen, muss die OM-1.3 etwas bieten, was sonst keine andere Kamera kann, schon gar nicht diese FullFrame Clones von SonyCanonNikonPanasonic.

Und dazu braucht es nun mal einen modernen Prozessor, hervorragende Software und den schnellsten für Geld erhältlichen Sensor.

Ich möchte meine Phantasie nun nicht gleich mit so Argumenten, wie OM System kann es sowieso nicht oder die notwendige Hardware gibt es sowieso nicht, beschneiden.

OM System soll erfolgreich sein, das wollen wir hier doch alle.

Und dann müssen wir auch mal was verlangen, die Kreativität von OM System herausfordern.

Sonst bekommen die mein Geld nicht.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Stunden schrieb x_holger:

...

Nach 4 Jahren ist die Zeit ja wohl reif für einen neuen Kameraprozessor, alleine die Fertigungsprozesse haben in dieser Zeit Riesenfortschritte gemacht.

Die Diskussion um Smartphone-Hardware finde ich völlig überflüssig, da die OM1.3 eine Kamera sein wird, sie wird keinen Webbrowser haben, keine Ballerspielchen bieten und auch nicht Telefonieren können. Auch die Simultanübersetzung von mitgelauschten Gesprächen, Fahrzeugnavigation, Maps, Online Banking wird sie nicht bieten... also was soll die Diskussion hier?

Und das weiß doch auch jeder hier! ...

Allein dieser Teil deines Beitrages ist ein guter Grund, die Unterschiede zwischen Kamera- und SP-Prozessoren nochmal von jemandem mit Fachwissen wie @beerwish beschrieben zu bekommen. Eben weil Kameras das alles nicht haben oder können müssen. Weil Kameraprozessoren den SP-Prozessoren demnach doch nicht so hoffnungslos unterlegen sind, wie das über einige Jahre behauptet wurde. Darum hatte ich speziell nachgefragt, weil es mir im Hinterkopf geklingelt hatte. 

------

Wer weiß, was man bei OMDS noch aus den 20MP rauskitzeln kann. Dieser Kern scheint wohl unverändert zu bleiben, aber das Drumherum lässt sich garantiert noch weiter verfeinern.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb rostafrei:

Allein dieser Teil deines Beitrages ist ein guter Grund, die Unterschiede zwischen Kamera- und SP-Prozessoren nochmal von jemandem mit Fachwissen wie @beerwish beschrieben zu bekommen. Eben weil Kameras das alles nicht haben oder können müssen. Weil Kameraprozessoren den SP-Prozessoren demnach doch nicht so hoffnungslos unterlegen sind, wie das über einige Jahre behauptet wurde. Darum hatte ich speziell nachgefragt, weil es mir im Hinterkopf geklingelt hatte. 

------

Wer weiß, was man bei OMDS noch aus den 20MP rauskitzeln kann. Dieser Kern scheint wohl unverändert zu bleiben, aber das Drumherum lässt sich garantiert noch weiter verfeinern.

Das ändert sich gerade schnell: Z.B. für Entrauschung und Schärfung werden heute KI-Methoden eingesetzt, die sich gerade bei kleinen Sensoren (z.B. 1" Smartphone und 1,33" MFT) lohnen. Diese Methoden profitieren von den Hardwarebeschleunigungen in aktuellen Prozessoren (KI-Module und Matrixoperationen wie bei z.B. NVidia) - was früher nur in speziellen ASICs ging, macht heute so ein KI-Chip 10x schneller und dennoch flexibel programmierbar. Das gleiche gilt für Videocoding/encoding - dafür ist in jedem Appleprocessor heute die Hardware verbaut.

Nun kommen sogar erste Bildsensoren auf den Markt, die bereits selbst mit KI das demosaicing beschleunigen - das müssen die Smartphones also schon gar nicht mehr machen (https://www.sony-semicon.com/en/info/2025/2025112701.html ). Wenn diese aktuellen Sensoren ihren Weg auch in die normalen Kameras finden, dann wird das da auch so sein.

Generell ist ja der Trend zu "Computational" einer, der ja von den Smartphones kommt und die Unterschiede zwischen Smartphones/Drohnen/Kameras in Autos/Industrie und eben Kameras mit Wechselobjekiven werden immer kleiner. Der wesentliche Unterschied liegt in der Mensch-Maschine-Schnittstelle und da eben in so AF-Steuerungsmöglichkeiten, damit die Kamera macht, was der Mensch will. Beim Smartphone meint die Kamera dagegen eher, es besser zu wissen und macht einfach mal selsbt - aber auch das schwappt ja bei den normalen Kameras immer mehr rein, gerade auch bei OM System und Lumix. 

Von KI möchte ich aber eigentlich auf Wunsch unabhängig sein, denn sonst braucht man ja bald nicht mal mehr die Wirklichkeit, um schöne Bilder zu erhalten. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb rostafrei:

Wer weiß, was man bei OMDS noch aus den 20MP rauskitzeln kann. Dieser Kern scheint wohl unverändert zu bleiben, aber das Drumherum lässt sich garantiert noch weiter verfeinern.

Genau um diese Verfeinerungen geht es, da muss OMDS bei der Anwendbarkeit einen großen Schritt nach vorne machen, um relevant zu bleiben.

Es ist doch erstaunlich, dass die CP-Funktionen bisher hier im Forum keinen großen Stellenwert einnehmen. Jetzt könnte ich motzen, dass viele zu konservativ in punkto Fototechnik denken, aber das trifft es nicht so richtig.

Ich finde eher, dass bisher die Praxistauglichkeit und Bedienbarkeit zu wünschen übrig lässt. Der Ablauf und die Verrechnung der MultiShot-Technik dauert zu lange, ist zu wenig in die üblichen Funktionen integriert, es ist zu viel Gefummel das spontan einzustellen und die CP-Funktionen müssen kombinierbar sein. Auch die Qualität der HiRes-Funktionen reicht noch nicht aus. Wenn OMDS 50 oder sogar 80 MP behauptet, dann muss die Kamera das auch liefern und nicht nur real 35 MP Auflösung statt der behaupteten 80 MP.

Die HDR-Funktionen sind bisher noch eine Randerscheinung, auch da stimmt die Qualität noch nicht so ganz. Wo bleibt das Wow beim Ansehen der Bilder? 

Ohne überzeugende Bewegungskompensation bei HiRes oder HDR bleibt das sowieso Stückwerk.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb jens_ac:

...Generell ist ja der Trend zu "Computational" einer, der ja von den Smartphones kommt und die Unterschiede zwischen Smartphones/Drohnen/Kameras in Autos/Industrie und eben Kameras mit Wechselobjekiven werden immer kleiner. Der wesentliche Unterschied liegt in der Mensch-Maschine-Schnittstelle und da eben in so AF-Steuerungsmöglichkeiten, damit die Kamera macht, was der Mensch will. Beim Smartphone meint die Kamera dagegen eher, es besser zu wissen und macht einfach mal selsbt - aber auch das schwappt ja bei den normalen Kameras immer mehr rein, gerade auch bei OM System und Lumix....

Das soll ja gerade der Unterschied zu den Smartphones bleiben, die Steuerungsmöglichkeiten bei echten Kameras.

Für soziale Medien reichen vielleicht KI-gesteuerte Automatik Funktionen, für anspruchsvolle Fotografie auf keinen Fall.

Es war doch schon immer so, Knippser stellen auf "P" wie Programmautomatik oder "iA" wie intelligente Automatik, Fotografen stellen selbst die Parameter ein.

Die Eingriffs- und Steuerungsmöglichkeiten machen den Unterschied und das soll auch so bleiben. Und selbst wenn High-End Smartphones manuelle Eingriffsmöglichkeiten bieten, dann ist die Bedienbarkeit mangels spezifischer Bedienelemente so schlecht, dass es zum zeitaufwändigen und nervigen Gefummel ausartet, völlig unpraktikabel und unintuitiv, da ist das Motiv längstens weg.

bearbeitet von x_holger
ergänzt
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb x_holger:

Die Eingriffs- und Steuerungsmöglichkeiten machen den Unterschied und das soll auch so bleiben. Und selbst wenn High-End Smartphones manuelle Eingriffsmöglichkeiten bieten, dann ist die Bedienbarkeit mangels spezifischer Bedienelemente so schlecht, dass es zum zeitaufwändigen und nervigen Gefummel ausartet, völlig unpraktikabel und unintuitiv, da ist das Motiv längstens weg.

Und genau bei dem Punkt gehen unsere Meinungen auseinander: Du meinst, dass die Kameras die größeren Steurungsmöglichkeiten bieten und ich meine, dass das nicht der Fall ist: Nur auf dem Smartphone kann ich eine eigene App schreiben und so selbst z.B. HighRes und Stacking kombinieren oder sonst wie nach Belieben die Kamera automatisieren oder einfach die App eines dritten installieren (Adobe, Blackmagic, sonstwem). Auf der Kamera kann ich dagegen nur das tun, was der Hersteller mich mit dem SDK und dessen Dokumentation tun lässt: Bei Panasonic nichts mehr (sogar WiFi jetzt verschlüsselt), bei Fuji noch fast alles, bei OM System gucke ich noch - sieht aber nicht so gut aus bisher. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb jens_ac:

Und genau bei dem Punkt gehen unsere Meinungen auseinander: Du meinst, dass die Kameras die größeren Steurungsmöglichkeiten bieten und ich meine, dass das nicht der Fall ist: Nur auf dem Smartphone kann ich eine eigene App schreiben und so selbst z.B. HighRes und Stacking kombinieren oder sonst wie nach Belieben die Kamera automatisieren oder einfach die App eines dritten installieren (Adobe, Blackmagic, sonstwem)....

Es sind 2 verschiedene Ansatzpunkte:

Das eine ist die Bedienung und Haptik, da sind Kameras für meinen Geschmack meilenweit überlegen, benötigen aber etwas Einarbeitung. Spezifische Bedienelemente, die ich auch noch nach Bedarf umprogrammieren kann, sind einfach viel schneller zu greifen als Appfunktionen aufgerufen und bedient werden können. 

Das andere sind die Vorzüge eines quelloffenen Betriebssystems; natürlich lassen sich Apps für Android einfacher programmieren als für eine proprietäre Version von Ultimatix (und Co). Auch die Dokumentation des Betriebssystems fehlt bei Kameras.

Allerdings ist die App-Entwicklung auch eher etwas für Software-Ingenieure als für Hobby-Fotografen 😉

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...