Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Am 11.1.2026 um 17:17 schrieb beerwish:

...

Es gibt natürlich immer wieder Versuche Smartphone-Technik einfach so für Kameras zu nutzen aber bislang konnten die nie mithalten wenn man die Leistung mit richtigen Kameras vergleicht und so genau hinsieht wie bei Vergleichen der Kameras untereinander. Mit Smartphone-Technik hat man es dafür natürlich leichter bei Internet-Zugang, Filetransfer und vielen Standardoperationen. Eventuell gibt es ja irgendwann eine Kombination aber die Frage ist dann was es kosten wird und wie viel Strom man braucht.

Das verwundert mich jetzt aber. Noch nicht vor allzulanger Zeit hat es auch hier im Forum geheißen, dass SP rein von hrer Rechnerleistung auf wesentlich kleineren Raum mittlerweile (nicht erst Stand heute) deutlich leistungsfähiger seien, als Kameras. Und daraus entstand die Frage, warum das nicht in viel größerem Raum von Kameragehäusen möglich ist... Klar, das war bezogen auf generelles Leistungsvermögen incl. Konnektivität und Potential als mobiler Arbeitsplatz für alle möglichen Tätigkeiten, die man am Rechner erledigen kann. Aber immer auf deutlich weniger Raum mit schnelleren Prozessoren, die als Primärfaktor angesehen wurden... 

🤔😵‍💫

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb rostafrei:

Das verwundert mich jetzt aber. Noch nicht vor allzulanger Zeit hat es auch hier im Forum geheißen, dass SP rein von hrer Rechnerleistung auf wesentlich kleineren Raum mittlerweile (nicht erst Stand heute) deutlich leistungsfähiger seien, als Kameras. Und daraus entstand die Frage, warum das nicht in viel größerem Raum von Kameragehäusen möglich ist... Klar, das war bezogen auf generelles Leistungsvermögen incl. Konnektivität und Potential als mobiler Arbeitsplatz für alle möglichen Tätigkeiten, die man am Rechner erledigen kann. Aber immer auf deutlich weniger Raum mit schnelleren Prozessoren, die als Primärfaktor angesehen wurden... 

🤔😵‍💫

ich hatte die gleiche Frage mal in die KI eingegeben, da kam so ziemlich das heraus, was beerwish beschrieben hat. SP gute Rechenleistung bei "normalen" Dingen, Kamera sehr gut bei Bildverarbeitung, da darauf spezialisiert.
Es ist also nicht so, dass die Kamera-Hersteller keine Lust haben mehr Leistung einzubauen, sondern das ist schon eine Menge Leistung drin in den Cams.

Gruß Reinhard

Link zum Beitrag
Auf anderen Seiten teilen

Die Frage an dieser Stelle ist, ob man das KI-Zeug in einer Systemkamera haben möchte. SP und dessen KI sind gut darin, aus vielen schlechten Daten („Datenmüll“) etwas zu interpretieren, was eine hohe Rechenleistung erfordert, und Details, die so nicht vorhanden sind, in ein Bild zu verwandeln, das man anschauen kann. Eine OM oder auch andere Systemkameras verfolgen hier einen anderen Weg: Sie geben gute Daten weiter, ohne die Natur dessen neu zu erfinden – daher ist diese Rechenleistung gar nicht erforderlich.

In Bezug auf Bildverbesserungen würde ich einen Smartphonesensor also weniger in einer Kamera sehen. Wo Rechenleistung vermutlich mehr bringt, ist bei der Motivverfolgung. Da wüsste ich aber nicht, dass SP-Chips darauf spezialisiert wären – warum auch, ist doch eh alles scharf.

bearbeitet von Richi Foto
Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb Richi Foto:

Eine OM oder auch andere Systemkameras verfolgen hier einen anderen Weg: Sie geben gute Daten weiter, ohne die Natur dessen neu zu erfinden – daher ist diese Rechenleistung gar nicht erforderlich.

Nun, darüber kann man unterschiedlicher Meinung sein. Ich experimentiere gerade mit Lightroom und bin sehr angetan davon, was z.B. "empfohlene Presets" oder "automatische Motiverkennung" aus einem Bild machen können. Für Puristen ist das natürlich nichts. Aber für mich kann ich sagen, dass ich hier mit wenigen Clicks aus einem durchschnittlichen Foto das machen kann, was ich "eigentlich" gesehen habe, als ich das Foto gemacht habe. Und ein solches Ergebnis direkt aus der Kamera zu bekommen... mir würde es gefallen! 

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Stunden schrieb Richi Foto:

Die Frage an dieser Stelle ist, ob man das KI-Zeug in einer Systemkamera haben möchte.

Hast Du schon. Motivverfolgung ist im weiteren Sinne auch KI, da das vorher "trainiert" werden muss.

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Stunden schrieb Kater Karlo:

ich hatte die gleiche Frage mal in die KI eingegeben, da kam so ziemlich das heraus, was beerwish beschrieben hat. SP gute Rechenleistung bei "normalen" Dingen, Kamera sehr gut bei Bildverarbeitung, da darauf spezialisiert.
Es ist also nicht so, dass die Kamera-Hersteller keine Lust haben mehr Leistung einzubauen, sondern das ist schon eine Menge Leistung drin in den Cams.

Gruß Reinhard

Welche KI war denn da so gut, dass die möglicherweise eine Aussagekraft wie beerwish erreichen könnte? Zitieren würde ich doch aber lieber nur beerwish, denn die KI kann bei der nächsten eigentlich gleichen Frage doch ganz anders antworten, um eben jemand anderem gefällig oder in anderem Zusammenhang zu sein.

In diesem Falle hätte ich die KI noch einmal nachgefragt, ob sie auch das iPhone17 und z.B. die spezielle Bild/Videohardware in dem Haupt-Prozessor und dem Videoprozessor beide berücksichtigt hat - dann schreibt z.B. ein Chatgpt gerne schon mal das Gegenteil der ersten Antwort... 

So oder so - eine KI ist heute noch nicht zitierfähig und sowieso erst mal unglaubwürdig.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Am 14.1.2026 um 10:12 schrieb rostafrei:

Das verwundert mich jetzt aber. Noch nicht vor allzulanger Zeit hat es auch hier im Forum geheißen, dass SP rein von hrer Rechnerleistung auf wesentlich kleineren Raum mittlerweile (nicht erst Stand heute) deutlich leistungsfähiger seien, als Kameras. Und daraus entstand die Frage, warum das nicht in viel größerem Raum von Kameragehäusen möglich ist... Klar, das war bezogen auf generelles Leistungsvermögen incl. Konnektivität und Potential als mobiler Arbeitsplatz für alle möglichen Tätigkeiten, die man am Rechner erledigen kann. Aber immer auf deutlich weniger Raum mit schnelleren Prozessoren, die als Primärfaktor angesehen wurden... 

🤔😵‍💫

Ich komme beruflich aus dem Bereich Messdatenverarbeitung. Da gibt es Aufgaben wo riesige Datenmengen von AD-Wandlern in den Speicher geschaufelt werden müssen aber auch Aufgaben wo man für Steuerung oder Regelung in sehr genau definierten Zeittakten auf aktuelle Messwerte zugreifen und sofort reagieren muss. Das Schaufeln geht über Buffer und es ist egal ob der Wert eine Sekunde später verarbeitet wird. Hauptsache er ist am Ende da wo er hingehört. Regelung erfordert Echtzeit mit Priorität wo man z.B. nur einen 1000Hz Takt einhalten muss aber eben immer egal was der Rechner sonst gerade macht und sehr genau also alle Millisekunde mit möglichst nur wenigen Mikrosekunden Abweichung.

In Kameras gibt es beides gleichzeitig. Für Video muss sie ein bis mehrere GBytes Daten pro Sekunde vom Sensor holen, komprimieren und auf die Karte schieben. Das geht nur gebuffert weil z.B. die normale Long GOP-Komprimierung aktuelle Frames komprimiert indem sie die Änderung von Frames davor zu Frames danach abspeichert. Sound wird parallel mit eine ganz anderen Geschwindigkeit erfasst und dazugemischt. Hier werden auf jeden Fall Daten für etliche Frame gebuffert bevor sie tatsächlich auf der Karte landen.

Gleichzeitig benötigt der AF ganz aktuelle Daten von ausgewählten Punkten auf dem Sensor, die Zeitnah aus dem Datenstrom gezogen werden müssen. Die werden unverzüglich zu Befehlen an die Objektivsteuerung umgerechnet die Schrittmotoren präzise ansteuern muss. Da muss der Zeittakt sehr exakt eingehalten werden. IBIS bewegt nicht nur den Sensor mit eine unabhängigen Echtzeitregelung. Die Position des Sensors muss auch noch mitgeschrieben werden damit sie einige Frames später in der e-Stabilisierung berücksichtigt werden kann. Da kommt die Position des Sensors mit den Gyrodaten des Bewegungssensors zusammen damit Bewegungen der Kamera, die nach IBIS übrig geblieben sind und Verzerrungen durch den Rolling shutter raus gerechnet werden können.  

Gleichzeitig ziehen andere Subsysteme reduzierte Daten aus dem Datenstrom um die Bilder für den Sucher oder das Display zu berechnen. Da möchte man aber möglichst wenig Verzögerung haben.

Die Ausgabe auf HDMI muss das fertige Bild zeigen, eventuell mit Ton, man wünscht da aber auch möglichst wenig Verzögerung wenn man über HDMI einen Monitor anschließt.

Insgesamt findet da ungeheuer viel statt. Es wird gleichzeitig mit verschiedenen Takten gearbeitet und sowohl gebuffert als auch direkt. Die verschiedenen Takte müssen aber über Stunden synchronisiert bleiben, also von einem "Master-Takt abgeleitet werden, was gar nicht so einfach ist wenn man z.B. 24fps und 23.976fps können will und das mit den 44100Hz für den Sound synchronisieren muss (so was ist viel schwieriger als man sich vorstellt). Die Datenmengen sind wahnsinnig groß und die Messwerte werden von Pixelpeepern bis aufs 14. oder 16. Bit geprüft. Ich bin immer wieder beeindruckt.

Smartphones haben kein HDMI, keinen so komplexen Autofokus, man akzeptiert grässliche Auslöseverzögerungen und Delays. Dafür machen sie tolle Sachen mit Mehrfachbelichtungen in ihren Grafikprozessoren. Da geht einiges was die großen Kamera auch mal können sollten aber es fehlt auch vieles was die Hardware dann eben nicht kann. Deshalb kann man auch nicht einfach ein Smartphone nehmen oder die Prozessoren und eine konkurrenzfähige Kamera draus bauen. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb jens_ac:

Welche KI war denn da so gut, dass die möglicherweise eine Aussagekraft wie beerwish erreichen könnte? Zitieren würde ich doch aber lieber nur beerwish, denn die KI kann bei der nächsten eigentlich gleichen Frage doch ganz anders antworten, um eben jemand anderem gefällig oder in anderem Zusammenhang zu sein.

In diesem Falle hätte ich die KI noch einmal nachgefragt, ob sie auch das iPhone17 und z.B. die spezielle Bild/Videohardware in dem Haupt-Prozessor und dem Videoprozessor beide berücksichtigt hat - dann schreibt z.B. ein Chatgpt gerne schon mal das Gegenteil der ersten Antwort... 

So oder so - eine KI ist heute noch nicht zitierfähig und sowieso erst mal unglaubwürdig.

Google

es ging ja ursprünglich darum, dass im Raum stand, dass sich die Kamera-Hersteller doch eine Scheibe bei den SP-Herstellern abschneiden sollen, weil die einen alte, schnarchlangsame Prozessoren verwenden und die anderen das Neueste vom Neuen (etwas überspitzt :) )
Das scheint nicht so zu sein.

Und um es klar zu sagen, natürlich traue ich einem Menschen - der auch noch vom Fach ist - da mehr, als einer KI-Aussage. Zur Unterstützung von Sachverhalten oder zur ersten Orientierung taugt die KI-Abfrage m. Meinung dann schon.
Wer mehr wissen will, muss halt dann weiter recherchieren.
 

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb abel:

Nun, darüber kann man unterschiedlicher Meinung sein. Ich experimentiere gerade mit Lightroom und bin sehr angetan davon, was z.B. "empfohlene Presets" oder "automatische Motiverkennung" aus einem Bild machen können. Für Puristen ist das natürlich nichts. Aber für mich kann ich sagen, dass ich hier mit wenigen Clicks aus einem durchschnittlichen Foto das machen kann, was ich "eigentlich" gesehen habe, als ich das Foto gemacht habe. Und ein solches Ergebnis direkt aus der Kamera zu bekommen... mir würde es gefallen! 

Natürlich kann man das auch anders sehen – und ich verstehe das und das habe ich anfangs aber auch jetzt noch (im kleinerem Umfang) selbst genutzt. Presets, automatische Motiverkennung oder Tonwertanpassungen sind nützliche Tools, das Bild näher an das heranzubringen, was man beim Fotografieren gesehen oder gedacht hat zu sehen. Der Kern meiner Aussage liegt aber eine Ebene tiefer.
Mir ging es nicht um Entwicklung oder Optimierung, sondern um die Frage, was die Kamera überhaupt liefert. Wenn die Sensordaten bereits kein „sauberes“ oder vollständiges Bild mehr darstellen und eine KI anfängt, Inhalte zu interpretieren, zu ergänzen oder im Zweifel sogar zu halluzinieren, dann ist das etwas grundlegend anderes als klassische Bildbearbeitung. Dann verlässt man den Bereich „Ich forme vorhandene Informationen“ und betritt den Bereich „Ich lasse etwas hinzufügen, was objektiv nicht da war“.

Und genau da stellt sich für mich die Frage:
Will man das bei einer Systemkamera?

Bei Smartphones akzeptieren wir das – weil sie physikalisch limitiert sind und das Ziel ein gefälliges Ergebnis ist. Genau aus dem Grund bin ich jedoch mit einer Systemkamera unterwegs und erwarte mir in erster Linie verlässliche Rohdaten, auf deren Basis ich entscheide, wie ich diese entwickle.

Kurz gesagt:
KI als Werkzeug (Motiverkennung, Live ND, Highres) nach dem Sensor → völlig okay, bitte her damit. --> Wie gehabt, so machen wir das.
KI als Instanz, welche die Mängel des Sensors durch Rechenleistung ersetzt oder interpretiert in Form von Details die da eigentlich nicht sind siehe Smartphones → das ist für mich der kritische Punkt, dass will ich eigentlich nicht.

 

bearbeitet von Richi Foto
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Richi Foto:

Natürlich kann man das auch anders sehen – und ich verstehe das und das habe ich anfangs aber auch jetzt noch (im kleinerem Umfang) selbst genutzt. Presets, automatische Motiverkennung oder Tonwertanpassungen sind nützliche Tools, das Bild näher an das heranzubringen, was man beim Fotografieren gesehen oder gedacht hat zu sehen. Der Kern meiner Aussage liegt aber eine Ebene tiefer.
Mir ging es nicht um Entwicklung oder Optimierung, sondern um die Frage, was die Kamera überhaupt liefert. Wenn die Sensordaten bereits kein „sauberes“ oder vollständiges Bild mehr darstellen und eine KI anfängt, Inhalte zu interpretieren, zu ergänzen oder im Zweifel sogar zu halluzinieren, dann ist das etwas grundlegend anderes als klassische Bildbearbeitung. Dann verlässt man den Bereich „Ich forme vorhandene Informationen“ und betritt den Bereich „Ich lasse etwas hinzufügen, was objektiv nicht da war“.

Und genau da stellt sich für mich die Frage:
Will man das bei einer Systemkamera?

Bei Smartphones akzeptieren wir das – weil sie physikalisch limitiert sind und das Ziel ein gefälliges Ergebnis ist. Genau aus dem Grund bin ich jedoch mit einer Systemkamera unterwegs und erwarte mir in erster Linie verlässliche Rohdaten, auf deren Basis ich entscheide, wie ich diese entwickle.

Kurz gesagt:
KI als Werkzeug (Motiverkennung, Live ND, Highres) nach dem Sensor → völlig okay, bitte her damit. --> Wie gehabt, so machen wir das.
KI als Instanz, welche die Mängel des Sensors durch Rechenleistung ersetzt oder interpretiert in Form von Details die da eigentlich nicht sind siehe Smartphones → das ist für mich der kritische Punkt, dass will ich eigentlich nicht.

 

sehr gut!

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...