Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo lieber Community,

ich habe mir am Wochenende ein neues Handy gegünd und zwar einer den besten Fotohandys zur Zeit auf dem Markt Google Pixel 9 Pro XL. Mehrfach ausgezeichnete für seine Fotoqualität. Was soll ich dazu sagen, ich bin total enttäuscht mit den Fotos von diesem Handy. Ich habe ganzes Wochenende Fotos mit meinen alten Oneplus 8 Pro verglichen. Dynamikumfang ist um Welten besser bei meinem alten Handy, die hellen Bereiche beim Pixel sind komplett überbelichtet, auch Farbeumgebung ist besser,

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Schärfe ist ungefähr gleich. In der Nacht sind die Bilder von Pixel besser. Wie kann es sein das ein Handy dass zur Zeit so gelobt für seine Fotoqualität gelobt wird so kläglich an einem 5 Jahre alten Handy verliert? Anbei 2 Fotos von beiden Handys, beide in Automatikmodus mit automatischen hdr modus, bei pixel gibt es ultra hdr jedoch das brach auch keine Verbesserung. Kann mir das jemand erklären?
Link zum Beitrag
Auf anderen Seiten teilen

Das Pixelbild gefällt mir deutlich besser! Die Farben sind neutraler und der Gesamteindruck ist klarer und reallistischer. Das Bild ist wirklich o.k.!

Das Oneplusfoto sieht dagegen künstlich aus, die Kontraste sind so plattgebügelt, daß es kaum einen Unterschied zwischen drinnen und draußen gibt.
Das ist völlig unrealistisch für ein Foto und erinnert mich an die üblen, überzogenen SP Bilder, die man oft zu sehen bekommt.

Fotografierst Du in RAW?  Falls nicht, solltest Du das mal versuchen. Damit geht auch beim Pixel noch mehr ;) 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb D700:

Das Pixelbild gefällt mir deutlich besser! Die Farben sind neutraler und der Gesamteindruck ist klarer und reallistischer. Das Bild ist wirklich o.k.!

Das Oneplusfoto sieht dagegen künstlich aus, die Kontraste sind so plattgebügelt, daß es kaum einen Unterschied zwischen drinnen und draußen gibt.
Das ist völlig unrealistisch für ein Foto und erinnert mich an die üblen, überzogenen SP Bilder, die man oft zu sehen bekommt.

Fotografierst Du in RAW?  Falls nicht, solltest Du das mal versuchen. Damit geht auch beim Pixel noch mehr ;) 

Hallo, danke erstmal für deine Rückmeldung und Beurteilung. Über Farbdarstellung lässt sich streiten das ist ein subjektives Empfinden von jedem. Ich stand vor dem Motiv und mir persönlich gefällt die Farbdarstellung von oneplus besser, ist für mich naturgetreu. Das Weißabgleich von Pixel ist für mich viel zu kalt. Was aber nicht subjektiv ist, ust die Tatsache das der Dynamikumfang von Pixel viel schlechter ist. Man sieht das in hellen Bereichen hinterm Fenster die hellen Bereiche sind komplett überbelichtet, dagegen bein Oneplus sind dam deutlich die Wolken. Auch im dunklen Bereich unten am Teppich gefällt mit der Oneplus besser. Und das ist bei jedem Bild mit extremen Lichtverhältnissen so. Ich fotografiere mit Handy nicht in raw bin auch kein Profi. Aber ein wenig kenne ich mich  schon aus, habe seit 20 Jahren eine Dslr Kamera.Ich bleibe dabei das die Bilder von dem alten Oneplus 8 Pro viel besser sind als von dem hochgelobten Google Pixel 9 Pro. Wenn auch nur im Tageslicht. 

Link zum Beitrag
Auf anderen Seiten teilen

Die Dynamik des Google Pixel 9 Pro Bildes überzeugt nicht. Eventuelle gibt es Einstellungen in der Foto App, die bessere Ergebnisse abliefern.

Ist keine Bewegung im Spiel, fotografiere ich mit meinem Vivo Ultra 100 Pro gerne im Super RAW HiRes Modus und bin begeistert von den Ergebnissen

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb sardinien:

Die Dynamik des Google Pixel 9 Pro Bildes überzeugt nicht. Eventuelle gibt es Einstellungen in der Foto App, die bessere Ergebnisse abliefern.

Ist keine Bewegung im Spiel, fotografiere ich mit meinem Vivo Ultra 100 Pro gerne im Super RAW HiRes Modus und bin begeistert von den Ergebnissen

Ich habe bei beiden mit Automatikmodus fotografiert. Bei beiden war hdr aktiviert wobei bei Google gabs noch ultra hdr modus, das brach aber überhaupt keine Verbesserung. Beide Bilder wurden im Stand fotografiert mit ruhiger Hand. Wie gesagt ich habe mehrere Bilder gemacht mit unterschiedlichen Motiven wo extreme Lichtverhältnisse waren. Immer das Gleiche. Ich bin sehr enttäuscht, und kann die ganzen Lobeshymnen auf die Qualität von Pixel überhaupt nicht nachvollziehen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Minuten schrieb turtle50:

Bei beiden war hdr aktiviert

O.k., das erklärt auch den grauenhaften Kontrast beim ONEplus.

Wenn Du ein Foto aus dem Fenster machst und es draußen hell ist, dann kann nicht drinnen und draußen gleich hell sein; egal mit welcher Kamera.
Ich bleibe dabei, das Pixelbild ist da nicht schlechter, im Gegenteil.

bearbeitet von D700
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 1 Stunde schrieb D700:

O.k., das erklärt auch den grauenhaften Kontrast beim ONEplus.

Wenn Du ein Foto aus dem Fenster machst und es draußen hell ist, dann kann nicht drinnen und draußen gleich hell sein; egal mit welcher Kamera.
Ich bleibe dabei, das Pixelbild ist da nicht schlechter, im Gegenteil.

Grauenhafter Kontrast beim oneplus?  Kontrast ist im Prinzip das Gleiche wie Dynamikumfang. Wenn du die Fotos betrachtest dann hat das Pixelbild viel weniger Abstufungen, somit ist es viel näher an deiner Aussage gleich hell oder dunkel. Du widerspricht dich hier in deiner Aussage. Das oneplus Bild hat viel mehr Abstufungen das sieht man mit bloßen Auge.

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Stunden schrieb turtle50:

Wenn du die Fotos betrachtest dann hat das Pixelbild viel weniger Abstufungen, somit ist es viel näher an deiner Aussage gleich hell oder dunkel. Du widerspricht dich hier in deiner Aussage

Nein. ich widerspreche mir nicht!
Daß, was das oneplus Foto zeigt ist nur auf Basis von Software entstanden. So kann keine Kamera der Welt sonst das darstellen.
Das Ergenbis ist einvöllig unnatürliches Bild, das mit der Ralität null zu tun hat.
Schau' Dir doch die Aussenanteile beim oneplus mal an. Das sieht künstlich aus, wie ein schlecht gemaltes Öl- oder Aquarellbild. So hat die Software das mit HDR verschandelt.
Wenn Du sowas toll findest, dann müssen wir hier nicht weiter diskutieren; denn mit fotografieren hat das nichts mehr zu tun.

Das Pixelbild ist sehr sauber und hat verlgeichsweise normale Dynamikschwächen, die jede Kamera hat, desto kleiner der Sensor, desto mehr.

Das einzige was da hilft ist in RAW zu fotografieren und es dann mit ein gescheiten Tool zu entwickeln. Da kann man noch was rausholen.
Das gilt übrigens nicht nur für das Pixel, sondern grundsätzlich für alle SPs!

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb D700:

Nein. ich widerspreche mir nicht!
Daß, was das oneplus Foto zeigt ist nur auf Basis von Software entstanden. So kann keine Kamera der Welt sonst das darstellen.
Das Ergenbis ist einvöllig unnatürliches Bild, das mit der Ralität null zu tun hat.
Schau' Dir doch die Aussenanteile beim oneplus mal an. Das sieht künstlich aus, wie ein schlecht gemaltes Öl- oder Aquarellbild. So hat die Software das mit HDR verschandelt.
Wenn Du sowas toll findest, dann müssen wir hier nicht weiter diskutieren; denn mit fotografieren hat das nichts mehr zu tun.

Das Pixelbild ist sehr sauber und hat verlgeichsweise normale Dynamikschwächen, die jede Kamera hat, desto kleiner der Sensor, desto mehr.

Das einzige was da hilft ist in RAW zu fotografieren und es dann mit ein gescheiten Tool zu entwickeln. Da kann man noch was rausholen.
Das gilt übrigens nicht nur für das Pixel, sondern grundsätzlich für alle SPs!

Das stimmt so nicht, ich sehe jeden Tag das Motiv vor mir. Du hast es noch nie live gesehen woher dann die Behauptung dass es nie was mit der Realität zu tun hat? Ich stehe davor und nehme es genauso wahr wie das oneplus Bild. Ich finde es überhaupt nicht dass das Bild wie ein schlechtes Ölgemälde aussieht. Hier sind wir wieder beim subjektiven Empfinden. Ich will hier auch nicht diskutieren für dich hat das mit fotografieren nichts zu tun für mich sieht das oneplus Foto viel besser und nicht überbelichtet aus.

Link zum Beitrag
Auf anderen Seiten teilen

Das Foto des Pixel ist neutraler. Die Pixel setzen nicht mehr so viel nachträgliche Bearbeitung ein, weil das viel kritisiert wurde. Vermutlich kannst du in Google Fotos mit einem Klick das Bild mittels Button Dynamisch anpassen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb cyco:

Das Foto des Pixel ist neutraler. Die Pixel setzen nicht mehr so viel nachträgliche Bearbeitung ein, weil das viel kritisiert wurde. Vermutlich kannst du in Google Fotos mit einem Klick das Bild mittels Button Dynamisch anpassen.

Ich verstehe wenn google nicht mehr mit Software so viel ins Bild eingreifen will. Was ich aber nicht verstehe warum hat Google überhaupt den Modus HDR und sogar Ultra HDR wenn's überhaupt keine nennenswerte Unterschiede macht? Wenn ich mit meinem oneplus ohne hdr modus fotografiere dann sieht das Bild sehr ähnlich dem Pixel. Abgesehen davon finde ich den hdr Modus von oneplus wirklich sehr gut, da wird nichts was erfunden oder pixel zugerechnet die Wolken sehen genauso live wie auf dem Bild. 

Link zum Beitrag
Auf anderen Seiten teilen

Beide Fotos sehen schlecht aus. Ist bei dem Motiv nicht so verwunderlich, wenn man es mit Smartfon und Automatik/HDR aufnimmt. Das Pixel Foto ist ein wenig besser, weil neutraler und weniger Artefakte. Ist das Motiv so wichtig? Wieso nicht relevante Motive vergleichen?

Link zum Beitrag
Auf anderen Seiten teilen

Ich versuche mal einen kleinen „Kurzlehrgang“:

Der Kontrastumfang bei dem Motiv ist sehr groß, also die Spanne zwischen dunklem Zimmer und hellem Himmel. Das können deine Augen und dein Gehirn ausgleichen, zum einen weil deine Augen eine variable „Blende“ (Iris) haben, welche sich schnell dynamisch anpasst je nachdem wohin du bevorzugt schaust, zum anderen verarbeitet dein Gehirn die Informationen anders als ein Sensor.

Der Sensor kann mit einer einzelnen Aufnahme nur einen begrenzten Kontrastumfang erfassen. Und das Bild wird auf einem Wiedergabemedium gezeigt, welches auch nur einen begrenzten Umfang an Helligkeitswerten darstellen kann. Beide können auch nur eine begrenzte Anzahl an „Helligkeitsstufen“ darstellen. Das führt bei sehr großen Motivkontrasten dazu, dass der tatsächlich vorhandene Helligkeitsumfang nicht mehr vollständig dargestellt werden kann. Je nachdem, wie man belichtet, wird dann entweder oben was herausfallen: die hellen Stellen haben keine Zeichnung mehr, sie „brennen aus“. Oder es wird eben untenrum was abgeschnitten: Die sehr dunklen Stellen haben keine Zeichnung mehr, „die Schatten saufen ab“.

Wenn eine möglichst große Spanne von  ganz hell bis dunkel dargestellt werden soll, dann muss also sowohl eine große Spanne aufgenommen als auch dargestellt werden. Sensoren sind darin unterschiedlich gut. Und das Smartphone kann auch einen Trick benutzen und mehrere Aufnahmen mit unterschiedlicher Belichtung machen, die es dann zu einer zusammenrechnet. Das wäre ein klassisches HDR Bild. Darin ist dann ein größerer Umfang an Helligkeitswerten erfasst, als mit einer Einzelaufnahme möglich wäre.
Das Problem ist, dass wie oben geschrieben ja sowohl Sensor als auch Bildschirm (und erst recht Fotopapier) nur einen begrenzten Umfang in begrenzter Abstufungszahl zeigen können. Also muss im resultierenden Bild irgendwie der zu große Umfang auf den darstellbaren zusammengepresst werden. Das hat zur Folge, dass zum einen die hellsten Stellen im Bild, die noch Zeichnung haben (in deinem Bild die Wolken), weniger hell dargestellt werden, als sie in Natur waren. Und die dunklen Stellen werden etwas aufgehellt. Außerdem werden die feinen Abstufungen dazwischen vergröbert — wir erinnern uns: auch die Gesamtzahl an Stufen ist begrenzt, wenn also jetzt mehr Umfang mit der gleichen Zahl dargestellt werden soll, müssen die Stufen größer sein.

Warum schreibe ich all das? Weil daraus deutlich wird, dass so ein HDR seine Grenzen hat. Man kann damit einen sehr großen Kontrastumfang darstellen, aber wenn man es dabei übertreibt, dann wird das Bild seine feinen Übergänge verlieren und der Kontrasteindruck wird abgeflacht. Man sieht dann zwar alles darauf, auch die hellen Wolken, aber auf den unbeteiligten Betrachter (der die Szene nicht in seinem Gedächtnis hat) wirkt es dennoch irgendwie unnatürlich. Auf ihn kann ein Bild, welches zugunsten eines weniger abgeflachten Kontrastes auf manche Details (in den dunklen oder hellen Bereichen) verzichtet, natürlicher wirken, obwohl diese Details fehlen. (Auch das hat natürlich wieder seine Grenzen, komplett ausgefressene Lichter stören oft den Bildeindruck mehr als zugelaufene Schatten. Aber ich will hier jetzt keinen ganzen Fotokurs schreiben :D )

Kommen wir zurück zu deinen beiden Bildern: Beide haben es nicht besonders gut gemacht. Das One Plus kommt dir natürlicher vor, weil du die Szene kennst und alles drauf ist, auch die Wolken. Auf mich wirkt es aber auf die Weise unnatürlich, die ich im letzten Absatz beschrieben habe. Die starke HDR Funktion hat zum Beispiel die Abstufungen bei den Blättern am Baum abgeflacht. Und es hat auch Artefakte gebildet, z.B. am Fensterrahmen (siehe Ausschnitte unten). Das Google dagegen hat sich entschieden, eine einfache Aufnahme zu machen, bei der es die Betonung auf den Innenraum gelegt hat und in Kauf nimmt, dass die Wolken „ausbrennen“. HDR ist das so auch nicht. Es wirkt dennoch insgesamt natürlicher auf mich, weil es keine Artefakte zeigt und die Kontraste nicht so abflacht.

Am besten wäre aus meiner Sicht eigentlich ein Mittelding aus beiden. Ob das Google es wirklich nicht besser kann, weiß ich nicht. Möglicherweise gibts da noch Einstellungsmöglichkeiten. Ich finde das Bildbeispiel insofern gut gewählt, als es durch die schwierige Lichtsituation das Problem gut deutlich macht und auch zeigt, wo Smartphones ihre Grenzen haben: Sie gleichen zwar vieles ganz automatisch aus, ohne dass der Nutzer etwas dazu tun muss, aber in den Grenzfällen übertreiben sie gerne, so dass das Ergebnis — zumindest für geübte Fotografenaugen — gar nicht mehr schön ist. Wer ständig oder ausschließlich Handybilder nutzt, gewöhnt sich aber wahrscheinlich an diese Darstellung und vermisst sie dann im Zweifelsfall sogar.

Hier noch zwei Ausschnitte , welche die Artefakte am Fensterrahmen zeigen, die ich oben erwähnt habe, ebenso sieht man ganz gut, was ich zu den Kontrasten bei den Blättern geschrieben habe:

One Plus:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!


 

Google:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von leicanik
Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb turtle50:

Ich verstehe wenn google nicht mehr mit Software so viel ins Bild eingreifen will. Was ich aber nicht verstehe warum hat Google überhaupt den Modus HDR und sogar Ultra HDR wenn's überhaupt keine nennenswerte Unterschiede macht? Wenn ich mit meinem oneplus ohne hdr modus fotografiere dann sieht das Bild sehr ähnlich dem Pixel. Abgesehen davon finde ich den hdr Modus von oneplus wirklich sehr gut, da wird nichts was erfunden oder pixel zugerechnet die Wolken sehen genauso live wie auf dem Bild. 

Für UltraHDR Bilder brauchst Du einen HDR-fähigen Monitor, sonst wird nur das SDR-Bild angezeigt. 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...