Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 22 Minuten schrieb x_holger:

Dann schaut euch mal die visionären Ideen von Google beim Pixel 3 an:

https://www.dpreview.com/articles/7921074499/five-ways-google-pixel-3-pushes-the-boundaries-of-computational-photography

 

5 ways Google Pixel 3 camera pushes the boundaries of computational photography

Und bevor ihr jetzt wieder alles zerpflückt und mosert ... es geht nicht um die Google Philosophie "one-button photography", das brauchen wir als engagierte Fotografen nicht!

Es geht um die enormen Verbesserungen der Bildqualität durch Pixel Shift mit 15 Aufnahmen in Serie, HiRes/super resolution techniques, sub-pixel precision, HDR+, computational RAW, Freistellung durch KI, Rausch-Eliminierung durch 15 Aufnahmen in Folge....

Alles mit einem ziemlich bescheidenen Smartphone-Objektiv(chen) und einem Mini-Sensor dahinter. 

Manche Grundlagen, wie ProCapture oder HiRes hat Olympus schon entwickelt und implementiert, aber es fehlt noch der große Wurf .... finde ich.

Was Google beim Pixel 3 an Bildqualität rausholt -> wenn das in gleichem Maße bei einem viel größeren mFT-Sensor gelänge, dann müsste sich Fujis digitales Mittelformat aber warm anziehen ....

Wahrscheinlich ist dazu ein Global Shutter erforderlich.

 

danke!
das ist beeindruckend bis geradezu beängstigend.

während unsereins von Sprachsteuerung faselt sind die schon viel weiter. Geht alles automatisch.
und das sind keine Visionen, sondern echte Kameras. Unglaublich

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb Atur:

während unsereins von Sprachsteuerung faselt sind die schon viel weiter. Geht alles automatisch.
und das sind keine Visionen, sondern echte Kameras. Unglaublich

Darum verstehe ich ja nicht, warum nicht ein Kamerahersteller mal ne Koop mit Google eingeht um das mal auszutesten. Hatte ich mir schon im Canikon-Thread gewünscht, aber macht ja keiner. Vermutlich aus Angst, dann von Google vereinnahmt zu werden, aber wenn die Hersteller nicht langsam das Thema Software ernst nehmen, dann werden sie es in Zukunft schwer haben.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb cyco:

...mal ne Koop mit Google eingeht... langsam das Thema Software ernst nehmen.

Man begibt sich in eine unsichere Abhängigkeit.

Gute Entwickler sind rar, die muss man erst mal bekommen. Meine Firma (IT-Branche) hat immer mehr das das Problem offene Stellen zu besetzen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb cyco:

Sag Bescheid, wenn du jemanden hast. 😁

Ich bin nur Angesteller und könnte bei dir anfangen, das bietet uns auch die tolle Möglichkeit, 40 Stunden die Woche über Sensorgrößen zu diskutieren :D

Kamera-Hersteller sind durch die Bank da sehr konservativ und setzen auf Hardware, da sie da auch die Leute haben.

...und seitens Google müsste man das auch wollen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 30 Minuten schrieb cyco:

Manchmal besser als in die sichere Bedeutungslosigkeit. 😉

Suche auch für IT. Sag Bescheid, wenn du jemanden hast. 😁

Bin IT Berater und Projektmanager, stell mich ein dann können wir die Diskussionen hier auf Reallife ausweiten.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 9 Stunden schrieb x_holger:

Es geht um die enormen Verbesserungen der Bildqualität durch Pixel Shift mit 15 Aufnahmen in Serie, HiRes/super resolution techniques, sub-pixel precision, HDR+, computational RAW, Freistellung durch KI, Rausch-Eliminierung durch 15 Aufnahmen in Folge....

Alles mit einem ziemlich bescheidenen Smartphone-Objektiv(chen) und einem Mini-Sensor dahinter. 

Manche Grundlagen, wie ProCapture oder HiRes hat Olympus schon entwickelt und implementiert, aber es fehlt noch der große Wurf .... finde ich.

Ich verstehe Dich nicht. Du schreibst selbst, HighRes gibt es schon. Aufnahmen damit müssen sich nicht vor hochauflösenden KB-Aufnahmen verstecken. HDR können alle Kameras bzw. in Lightroom kann man das sogar mit Hilfe der raw-Daten. Eine Rauschreduzierung über Mehrfachaufnahmen gibt's glaube ich auch schon in Kameras. Nur künstliche Freistellung fehlt.

Den Knackpunkt bei all den Mehrfachaufnahmen (und auch bei der Freistellung mit KI) sehe ich darin, dass es Probleme geben kann, wenn man die sehr hohe Qualität, die das theoretisch mit größeren Sensoren ergeben kann, auch wirklich erreichen möchte. Ein 50MP-Bild, das aus einer HighRes-Aufnahme kommt bei den 20MP-mFT-Sensoren (als jpg, 80MP als raw) hat ganz andere Anforderungen als eine aufpolierte SP-Aufnahme. Und wie ich bei dpreview sehe, kann auch das SP nicht zaubern. Hast Du Dir mal das Super Res Zoom-Bild etwas größer angesehen? Das ist gruselig.

Link zum Beitrag
Auf anderen Seiten teilen

Für Freistellung haben Systemkameras lichtstarke Objektive und deutlich größere Sensoren. Ein zu lösendes „Problem“ gibt es also hauptsächlich bei den Smartphones.

Zum großen Teil ist es natürlich auch eine Marketingblase. Die Bildaufnahme ist offenbar fast das Einzige, das den Kauf eines neuen Smartphones für einige noch attraktiv macht. Von der Leistung her könnte man auch bei seinem alten bleiben.

Dennoch bleibt es spannend, was von den Entwicklungen in den nächsten Jahren in den fotografischen Geräten abfallen wird.

Es wird immer so getan, als sei die Kameraindustrie so wenig innovativ, was ich nicht teile. Bei den SPs geht es bzgl. Speicherplatz und die Geschwindigkeit bei der Anbindung externer Geräte nur mühsam weiter. 

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

Was ist denn daran - Google Pixel 3 - neu? Pixelshift hatt vor x Jahren Hasselblad schon und Rauschreduktion durch Mehrfachaufnahmen ist in der Astrofotografie seit jeher üblich. Das ändert bei SPs nichts am winzigen Sensor und den Nachteilen, die durch die sehr früh sichbare Beugung bei den kleinen Pixeln entsteht. Alles nur Marketinggefasel.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb wolfgang_r:

Alles nur Marketinggefasel.

Leider muss ich deinen Beitrag auch dem Gefasel zuordnen. Google hat nicht behauptet, dass alles neu erfunden zu haben, aber sie perfektionieren es gerade. Sie holen mehr aus dem Winz-Sensor raus als jeder andere Hersteller dank Software und computational photography. Es geht hier auch um die Frage, wie konnte man das auf größere Sensoren anwenden und wie würde es da helfen? Könnte man dann nicht eine Kamera bauen mit 1-Zoll-Sensor und einen kleinem Objektiv (2,8?) und dann diese Software nutzen um die Kamera möglichst klein und kompakt zu halten? Was ist wenn die Algorithem immer besser werden und das Maskieren so gut funktioniert, dass ich für das Foto per Software die Blende frei wählen kann? Hinterher! Nach meiner Meinung wird das irgendwann verstärkt kommen, weil es die Herstellung der Kamera noch günstiger macht und Objektive weniger wichtig werden. Ob man das selber nutzen will, ist die andere Frage. Hier im Forum vermutlich nur x-holger und ich. 😬

Link zum Beitrag
Auf anderen Seiten teilen

vor 28 Minuten schrieb cyco:

Ich brauch keinen Berater, ich brauch einen der arbeitet und programmiert. 😜

Da bin ich der falsche, sorry. 😂

Programmieren ist nicht gerade mein Steckenpferd. Hab da aber gute Leute in der Hinterhand die das können. Aber back to topic. 😂

Link zum Beitrag
Auf anderen Seiten teilen

Natürlich ist das alles nicht nur Gefasel. Auf Softwareebene viel Entwicklung, technisch ein paar neue Dinge, eben aber auch durch viel „Gefasel“ begleitet. Die Unterschiede zu Kameras kann ein Smartphone damit nicht aufholen, aber für Leute, die sich nie eine Kamera kaufen würden, ist das sicher eine Erweiterung der Möglichkeiten. Ich glaube allerdings nicht, dass diese Entwicklungen eine größere Zahl von Leuten, die sich überlegen, eine Systemkamera zu kaufen, davon abhalten werden. Und umgekehrt sehe ich diese Entwicklungen - abgesehen vom kurzfristigen Marketingeffekt - nicht als große Gefahr für die Fotoindustrie. Einen Teil der Funktionalität gibt es schon länger in Kameras, für Freistellung ist das Objektiv zuständig und die Anpassung der Tonkurven, um besseren Ausgleich zwischen Lichtern und Schatten zu finden, gibt es schon lange. Intelligente Automatiken auch. Vielleicht liefern auf den kleineren SP Sensoren die Algorithmen etwas bessere Ergebnisse, aber Systemkameras werden auch nicht unbedingt von Leuten gekauft, die alles automatisch fertig haben wollen. Die Out-of-Camera JPEG Qualität ist heute ja auch schon sehr gut.

Dass Objekitve weniger wichtig werden halte ich auch nicht für zutreffend. Der Brennweitenbereich von SPs ist trotz mittlerweile vier Objekitven immer noch sehr eingeschränkt und über die Unterschiede in Haptik und Bedienung - gerade auch bei Objektiven - haben wir schon viel diskutiert.

Kameras entwickeln sich in ihrer Richtung weiter mit ihren speziellen Möglichkeiten und Gegebenheiten, Smartphone ebenso. Unterschiedliche Konzepte, unterschiedliche Zielgruppen. Ein SP hat jeder und die Kaufanreize sind für die Konsumenten grundsätzlich höher als bei Kameras, weil sie eben in sehr unterschiedlichen, vor allem nicht fotografischen Anwendungsgebieten, genutzt werden.

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

vor 47 Minuten schrieb wolfgang_r:

Was ist denn daran - Google Pixel 3 - neu? Pixelshift hatt vor x Jahren Hasselblad schon und Rauschreduktion durch Mehrfachaufnahmen ist in der Astrofotografie seit jeher üblich. Das ändert bei SPs nichts am winzigen Sensor und den Nachteilen, die durch die sehr früh sichbare Beugung bei den kleinen Pixeln entsteht. Alles nur Marketinggefasel.

Ich lese in dem Artikel keine Behauptung, Google hätte alles neu erfunden. Auch keine Empfehlung, die Google-Entwicklung 1 : 1 für KB zu übernehmen. Ich lese allerdings, welche Möglichkeiten per Software dem Minisensensor entlockt werden können.

Für mich ist der Artikel interessante Information, kein Marketinggefasel.

Link zum Beitrag
Auf anderen Seiten teilen

vor 41 Minuten schrieb cyco:

Nach meiner Meinung wird das irgendwann verstärkt kommen,

Das "irgendwann" ist der springende Punkt, aktuell ist (vor allem bei mFT) schon umgesetzt, was geht, und wenn irgendwann das Freistellen per Software fehlerfrei geht, mag das auch in Kameras Einzug finden. Die Anforderungen bei Kameras schätze ich wesentlich höher, wer eine Kamera nutzt, will auch entsprechende Qualität.

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb tgutgu:

Natürlich ist das alles nicht nur Gefasel. Auf Softwareebene viel Entwicklung, technisch ein paar neue Dinge, eben aber auch durch viel „Gefasel“ begleitet. Die Unterschiede zu Kameras kann ein Smartphone damit nicht aufholen, aber für Leute, die sich nie eine Kamera kaufen würden, ist das sicher eine Erweiterung der Möglichkeiten. Ich glaube allerdings nicht, dass diese Entwicklungen eine größere Zahl von Leuten, die sich überlegen, eine Systemkamera zu kaufen, davon abhalten werden. Und umgekehrt sehe ich diese Entwicklungen - abgesehen vom kurzfristigen Marketingeffekt - nicht als große Gefahr für die Fotoindustrie.

Berühmte letzte Wortes eines Kameraherstellers. Ich sehe übrigens nicht wo Google viel faselt? Die bauen einfach eine Smartphone-Kamera, die mit einem Objektiv mehr kann als fast alle anderen Smartphone-Kameras der anderen Anbieter. Wenn man jetzt noch das dazu nimmt was Adobe entwickelt, dann braucht es bald nur ein unscharfes Foto und der Rest wird errechnet. Das wird dann spannend hier, weil sich dann die analog-digitalen Fotografen mit den software-digitalen Fotografen fetzen werden, welches Bild denn nun "echter" und "besser" sind (dagegen wird MFT vs. KB ne Lachnummer sein). Ich freu mich schon.

Aber immer mehr potentielle Kamerakäufer haben den Erstkontakt mit Fotografie mit dem Smartphone. Warum diese nicht mit bekannten Interfaces, aber mehr Bildqualität und mehr Gestaltungsmöglichkeiten in Form einer Google-Kamera abholen? Ja, ich weiss hat Samsung schon mal probiert. Vielleicht war die Zeit noch nicht reif und ja ich weiß auch, dass das für viele Fotografen ja nun gar nicht geht und dass das ja keine echte Fotografie mehr ist und die schlechte Bedienung usw. usf..... verschont mich bitte damit, schon tausendmal gelesen und die Zukunft wird sich davon nicht beeinflussen lasen. 🙄

bearbeitet von cyco
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb pizzastein:

Das "irgendwann" ist der springende Punkt, aktuell ist (vor allem bei mFT) schon umgesetzt, was geht, und wenn irgendwann das Freistellen per Software fehlerfrei geht, mag das auch in Kameras Einzug finden. Die Anforderungen bei Kameras schätze ich wesentlich höher, wer eine Kamera nutzt, will auch entsprechende Qualität.

Das schnelle SP vermischt hier zum Vorteil des Fotografen Kamera- und Rechnerfunktionen.

Mehrfachfotos, auf denen die Verfahren mehrheitlich basieren, können Kameras heute schon. Wenn externe, leicht zu bedienende, schnelle Software die Bilder ausrichtet und bearbeitet, können auch Besitzer "richtiger" Kameras von der Entwicklung profitieren, ohne dies in der Kamera tun zu müssen.

Ich bin allerdings für die nahe Zukunft nicht sehr optimistisch. Google mit seinem riesigen Markt kann bei der Softwareentwicklung eher klotzen als Adobe & Co. mit ihrer überschaubaren Kundenzahl für diese Features.

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Minuten schrieb Kleinkram:

Das schnelle SP vermischt hier zum Vorteil des Fotografen Kamera- und Rechnerfunktionen.

Vermutlich gibt man in 20 Jahren nur noch per Spracheingabe vor, was man fotografieren möchte und dann wird ein Set an Bilder gerendert. Dann sucht man sich eins aus mit einem gerenderten (optimierten) Avatar von sich selbst und dann wird das auf Instagram gepostet. Weil das alle so machen werden die Bilder imm abstruser. Die neuen Googles und Facebooks dieser Zeit sind Couch- und Chipshersteller. 😂

Link zum Beitrag
Auf anderen Seiten teilen

vor 25 Minuten schrieb Jochen K.:

Unabhängig von der Entwicklung bei SP gibt es auch neue Bestrebungen im Bereich der Lichtfeldfotografie.
Die Fa. K Lens entwickelt aktuell ein Lichtfeldobjektiv. Vorgestellt wurde das Projekt auch auf der Photokina 2018.

https://www.k-lens.de/
 

 

wenn er noch lernt, das Wort "Szene" auszusprechen, ist alles wunderbar.:)
Technisch ist das alles toll, aber diese nachträgliche Beliebigkeit ist auch irgendwie öde.
Wenn ich nur irgendwie 50 MB Datenmatsch pro Aufnahme sammeln muss und die SW bastelt dann was schönes draus, 
ist die Spannung weitgehend raus. Scharf, richtig belichtet, Komposition? alles egal, das kriegen wir schon hin.
Zwiespältige Sache, gefühlsmäßig. Technologisch beeindruckend.

bearbeitet von Atur
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...