Jump to content

Wie wichtig ist RAW in der Zukunft


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

wobei ein A/D-umgesetztes Audio-Signal als "Rohdaten", also PCM eben sich schon selbst komplett beschreibt, ohne, dass da spezifisch interpoliert werden muss, wie bei einem RAW, also der Vergleich passt nicht. der würde höchsten annähernd passen, wenn du dann 24 Mio Audio-Signale hast und die alle in relation zueinander setzen musst, wobei dann schon ein Video dabei rauskommen könnte. ;)

 

Und wieso muss man verschiedene Formate haben? Na, weil man sie braucht. Weil sie spezifischer sind und somit besser in die jeweilige Anwendung passen und man kann auch jedes einzelne normen, das hat doch nichts mit der Anzahl zu tun.

 

 

Die Grenzen von heute, Datenvolumen und Speicher, sind doch morgen vollkommen egal

 

Ja, aber auch nur auf deinem Rechner daheim und nicht auf embedded Hardware. Man kann sowas nicht einfach gleichsetzen. Das ist wie Java-Logik: Einfach mehr Rechenpower dazu kaufen, scheiss auf performante Entwicklung, aber Java läuft halt nie performant und erst recht nicht auf iwelchen embedded Geräten.

 

Dazu kommt: das Aufkommen von Daten ist ein massives Problem und nicht, wie nightstalker sagt, egal. Vor paar Jahren zur Olympiade mal das Internet benutzt? Viele Online-Spiele hatten Verzögerungen von über 30 Sekunden, weil Level3 in Frankfurt ein Flaschenhals war. Da kam einfach nicht mehr alles durch, weil die Bandbreite zu gering war. Und auch Bandbreite kann man nicht einfach immer mehr aus dem Nichts erschaffen, da gibt es einfach irgendwann Grenzen, vor allem physikalisch und energie-technisch. Und, wenn das so egal wäre, dann musste man auch keine HEVC-Codierungen durchführen, die 42GBit/s-Material auf 800 MBit/s runterkomprimieren. Energie-Einsparung ist inzwischen ein sehr großes Thema in der Digitaltechnik und mehr Datenaufkommen heisst immer mehr Energieverbrauch. Und ja es ist sogar so, dass unterschiedliche Algorithmen unterschiedlich viel Energieaufwand bedeuten und inzwischen selbst das einbezogen wird in Entwicklungen. Es sind nicht einfach nur die Aspekte der Menge der Daten, die ein Thema spielen, da gehört weit mehr dazu, was so Pauschalaussagen unmöglich macht. Und nein, auch keine Tendenz ist damit aussagekräftig.

Zu den Lautsprecherkabeln @leicanik: doch das ist Voodoo. Es ist schon auf dem Papier nicht berechenbar, dass es irgendeinen Unterschied bei 4-16 Ohm Lautsprechern anhand der kabel geben kann. Außer du hörst im 10er MHz-Bereich noch was, was nebenbei das Audio-Material gar nicht wiedergibt... Das wird erst ein Problem bei Instrumentenkabeln, die mit 500kOhm Potis an einem Ende arbeiten (relativiert sich wieder bei aktiven Instrumenten), weil hier dann wirklich Leitungskapazitäten und Induktivitäten ein Thema spielen, aber bei einem Lautsprecherkabel mit 4-16 Ohm am Lautsprecher? da passiert einfach gar nichts. Und, wenn du mir es nicht glaubst, dann hol dir ein beliebiges Elektrotechnik-Buch und setz Werte in Formeln ein. Das ist ein so unglaublich verbreiteter Unsinn, mit dem so viele Betrüger so viel Geld verdienen, dass ich da richtig sauer werde, wenn ich sowas weiterhin lesen muss, was jegliche Physik ignoriert und Leute verarscht, weil man es "hört". Als nächstes kommt noch, dass verschiedene Ethernet-Kabel unterschiedlich klingen... Sorry für meine ruppige Ausdrucksweise, aber mich nervt das ungemein.

Und um zurückzukommen: warum wird das Raw überall anders angezeigt? Nun, man muss erstmal davon ausgehen, was der Kamera-Hersteller als RAW überhaupt liefert. Das ist ja und kann schonmal gar nicht normiert werden, weil sonst alle die gleichen Sensoren herstellen würden oder schon einen viel zu frühen Eingriff, mit folgendem Informationsverlust in das Bild durchführen um es in ein Format zu pressen, dass normiert ist. Das wäre einfach unsinnig. Jetz kommt, dass die Software-Hersteller nunmal ihre eigenen interpolations-Algorhitmen durchüfhren. kA inwiefern das mit Kamera-Hersteller abgeglichen ist. Aber die liegen halt nicht offen und sind wohl firmengeheimnis. Jetzt wäre die Frage wie du dir da eine Normung vorstellst? für jeden neuen Sensor eine neue Normung? Sensoren sind inzwischen kein Ingenieurs-Thema, sondern fast mehr ein Forschungsthema. Da würde ein Normung wohl eher zu einem Innovationsverlust führen, weil man gewisse Schritte nicht gehen kann, wenn sie nicht der Norm entsprechen... oder man ignoriert die Norm, womit wir sie auch gar nicht bräuchten. Sowas kenne ich btw. aus der Entwicklung recht gut.

Mit dem Format für alles, was Nightstalker meint wäre es vllt. am nähesten schon zu finden mit den Mipmaps (einfach mal wiki anwerfen), welche man mal in der Spiele-Grafik nutzt. Da sind dann einfach mehere Bilder unterschiedlich aufgelöst in einer Datei/einem Format vorhanden. Aber es ist halt genau das: es sind mehrere Bilder und nicht nur das, welches man möchte. Aber, wenn man schon alles vereinheitlichen will und das eine von allem haben will und die Antwort darauf ebenfalls, dann bitte: 42.

 

Und, dass dieses HEIF RAW irgendwann ablösen soll... also aus technischer Sicht ist das ja eher ein Witz und mich wundert es, dass man hier überhaupt auf die Idee kommt, dass das mal so sein könnte. Das wurde aber zum Glück von anderen schon weiter erörtert.

 

Und MP3 gibt es nicht mehr? Aha, und wo gibt es das nicht mehr? Das ist nach wie vor ein völlig verbreitetes Format, wenn man nicht in einer Apple-Welt lebt.

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

wobei ein A/D-umgesetztes Audio-Signal als "Rohdaten", also PCM eben sich schon selbst komplett beschreibt, ohne, dass da spezifisch interpoliert werden muss, wie bei einem RAW, also der Vergleich passt nicht.

Bei der Analogie ging es darum, dass Rohdaten keine direkte Präsentation erlauben, sondern interpretiert werden müssen um sicht- oder hörbar zu werden. Und das gilt eben für RAW-Daten aus der Kamera genauso wie für einen binärcodierten "Audio-Rohdatenstrom". Aus dem Kontext wird klar, dass es bei dem Vergleich nicht um die Methoden geht, wie die Daten nun interpretiert werden oder welche weitere Bearbeitung notwendig ist. Insofern passt der Vergleich selbstverständlich, ansonsten hätte ich ihn auch nicht gebracht (siehe dazu mein Beitrag im Diskussionsstrang zu den Analogien, weiter werde ich hier darauf nicht eingehen).

bearbeitet von Helios
Link zum Beitrag
Auf anderen Seiten teilen

 

 

Dazu kommt: das Aufkommen von Daten ist ein massives Problem und nicht, wie nightstalker sagt, egal. Vor paar Jahren zur Olympiade mal das Internet benutzt? Viele Online-Spiele hatten Verzögerungen von über 30 Sekunden, weil Level3 in Frankfurt ein Flaschenhals war. Da kam einfach nicht mehr alles durch, weil die Bandbreite zu gering war. Und auch Bandbreite kann man nicht einfach immer mehr aus dem Nichts erschaffen, da gibt es einfach irgendwann Grenzen, vor allem physikalisch und energie-technisch. 

 

 

Auch hier: 

 

Grenzen von heute, werden auf die Zukunft übertragen ;)

 

 

Natürlich muss man dazu sagen, dass Deutschland ein absolutes Entwicklungsland ist und der Netzausbau uns noch mal irgendwann Kopf und Kragen kosten wird ... wie ich letztens gelesen habe, ist Deutschland zB beim Netzausbau auf Platz 18 in Europa ... und beim LTE Ausbau auf gleicher Stufe wie Marokko ... (der Abstieg einer Nation der Ingenieure und Wissenschaftler, weil man da spart, wo die überalterte Entscheidungsetage nicht versteht, worum es geht)

 

Vor Jahren konnte man in Foren noch nicht surfen, wenn da 1024er Bilder enthalten waren ... heute schaue ich problemlos (über meine vollkommen unterdimensionierte Leitung .. ich habe ja nur 16er DSL ... und das in München, wo 50 bis100K üblich sind) HD Filme und lade nebenbei noch ein dickes Update herunter.... während ich auf dem Tablett im Systemkameraforum lese.

 

Die Zukunft kommt und wer glaubt dass die Netzgeschwindigkeit nicht noch weiter und extremer steigen wird, der lebt in einer Traumwelt ... Apple will dass die Leute von gekaufter Musik auf Streaming umsteigen, Filme werden in sehr viele Haushalten nur noch gestreamt ... man will damit Geld verdienen, also WIRD das schnellere Internet kommen .. und vielleicht auch irgendwann auf dem Land in Deutschland, wenn unsere Entscheidungsträger mal aufwachen.

 

Die Netzzukunft ist auch nicht mehr kabelgebunden, schon jetzt planen die Visionäre Funknetze, die DSL lächerlich aussehen lassen ... und ja, das muss kommen, denn wie lange will man auf die Kunden im ländlchen Raum verzichten? (.. die noch mit 384kBit oder sogar ISDN Geschwindigkeit rumgurken ... für eine Firma, teilweise ein Alptraum)

 

 

 

Zu den Lautsprecherkabeln @leicanik: doch das ist Voodoo. Es ist schon auf dem Papier nicht berechenbar, dass es irgendeinen Unterschied bei 4-16 Ohm Lautsprechern anhand der kabel geben kann. 

 

:) ich finde man hört es deutlich ... wenn einem der Testleiter vorher genau erklärt, wann und was man hören soll wird

 

Andererseits .. wer benutzt denn heute noch passive Lautsprecher? Das sind doch nur noch ein paar Highendfans, denen man mit teueren Endstufen (evtl. noch im Bi Wiring) das Geld aus der Tasche zieht, während man bei Aktivboxen perfekt abgestimmte Verstärker für jeden Treiber direkt in die Box eingebaut hat und diese auch noch regeln kann.

 

Die gesamte Studiotechnik arbeitet aktiv .. und wenn es ein wenig hochwertiger sein darf, direkt mit eingebauter Raumanpassung und der entsprechenden Messtechnik (die natürlich auch beherrscht werden will)

 

Das Problem?

 

Symetrische High End Kabel gibts meines Wissens noch nicht (wäre das nicht eine Marktlücke) deshalb verkauft man den High End Musikfans noch immer die Technik von vorgestern .. passive Boxen

 

/back to topic ;)

 

 

 

Nun, man muss erstmal davon ausgehen, was der Kamera-Hersteller als RAW überhaupt liefert. Das ist ja und kann schonmal gar nicht normiert werden, weil sonst alle die gleichen Sensoren herstellen würden oder schon einen viel zu frühen Eingriff, mit folgendem Informationsverlust in das Bild durchführen um es in ein Format zu pressen, dass normiert ist. 

 

 

so argumentieren die Hersteller auch ... andererseits gibt Leica, genau wie Pentax, inzwischen nativ DNG aus ... warum sollte das also nicht auch für alle anderen möglich sein? (wir haben ja auch einen Quasi Standard bei Sensoren ;) ... wieso soll ein Sonysensor in einer Nikon nicht das gleiche Format nutzen können, wie der Sonysensor in einer Olympus? Ein modernes Containerformat sollte es auch möglich machen, dass für mögliche andere Sensoren auch Unterstützung vorgesehen wird oder modular hinzugefügt werden kann

 

Die Kompatibilität ist ja, wie ich es beschrieben hatte, ein mehrstufiges Konstrukt:

 

Ebene 1 wäre die Anzeige auf allen Geräten ... das ist so wie die Anzeige des eingebetteten JPGs in heutigen RAW Dateien ... das machen auch alle Hersteller

 

Neu wäre halt, dass kein fixes Bild angezeigt wird, sondern eine Interpretation, mit eingebetteten Parametern, die aber änderbar sind

Das bedeutet aber, dass diese Parameter nicht von jedem Anzeigeprogramm änderbar sein müssen, sondern nur von Konverter/Bearbeitungsprogrammen

 

Ebene 2 wäre also die Bearbeitung ... hier wird nondestruktiv eingestellt, was die Anzeigeprogramme, also jede Art von Browser, zeigen sollen .. und was auch das Bearbeitungsprogramm als Vorschau und beim Öffnen zeigt. 

 

Hier ist der Punkt, an dem wir beim Update der Software sind, wenn eine neue Kamera kommt .. wie halt bislang auch.

 

Im Moment können verschiedene Bearbeiter nur mit einer Grunddatei arbeiten, weil wir in der Branche einen Quasistandard haben ... ist man mit Bildern beschäftigt, muss man mit Adobe arbeiten, macht man das nicht, kann man nicht in einer Kette tätig sein

 

 

Ebene 3 wäre dann die Wandlung ... wie Helios schon sagt, es will ja nicht jeder die volle Datei zur Verfügung stellen

16 Bit Tiff ist ein gebräuchliches Format für hochwertigen Bilddatenaustausch ... warum sollte man das nicht weiterhin verwenden? ... genauso wie es jedem überlassen bleibt, ob er vielleicht HEIF nutzen will, weil er Applefan ist

 

 

Nur weil man eine Norm schafft, bedeutet das doch nicht, dass man nichts anderes mehr nutzen darf ... aber es macht doch keinen Sinn, das Problem mit sich selbst zu begründen!

"wir können nicht standardisieren, weil die Daten verschieden sind"

 

Es ist doch nur eine Sache des Willens, ob man es will, oder nicht.

 

 

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

Der Vergleich MP3-RAW ist insofern nicht richtig, als jede .mp3-Datei, anders als .raw, mit jedem beliebigen MP3-Player wiedergegeben kann.

 

Dass Kameras RAW ausgeben ist kein sinnvolles Muss und ein Zeichen mangelnder Zusammenarbeit. Es ist heutzutage kein Problem, die Kameradaten in ein Format umzusetzen, das universal einsetzbar und trotzdem (fast) verlustfrei ist. Man muss es nur wollen.

 

Dass RAW auch in Zukunft weiter besteht, liegt nicht an seiner Qualität, sondern es ist etabliert ist und die Hersteller sehen keinen Grund, sich auf ein neues gemeinsames Format zu einigen.

Link zum Beitrag
Auf anderen Seiten teilen

 

 

Eine RAW-Datei ist aber doch kein Bild, sondern besteht aus Rohdaten, die es zu interpretieren gilt. Genau diese Interpretation macht die Software mit den Mitteln, die ihr zur Verfügung stehen nach den Vorgaben, die man ihr gibt. So wird ein Bild erzeugt, 

 

 

absolut richtig ... und was hindert uns jetzt technisch daran, die Interpretation zu normieren?

 

Ich meine jeder bekannte RAW Konverter basiert auf DCRAW ... und trotzdem sieht das geöffnete Bilder auf jedem anders aus und keiner kann die Änderungen des anderen Konverters richtig wiedergeben ... schickst Du ein bearbeitetes RAW (mit den entsprechenden Metadaten .. eingebettet, oder zusätzlich) von einem Lightroomnutzer an einen DXO Nutzer, sieht der ein jungfräuliches Bild, genauso wie der C1 Nutzer, der die Datei vom Darktablenutzer bekommt ...

 

Das Ganze wird endgültig zum Witz, wenn man dann noch versteht, dass es eigentlich nur wenige Sensorarchitekturen (und Hersteller) gibt, aber ein Mehrfaches an Kameraherstellern behaupten, dass nur ihr Format den Inhalt vollständig wiedergeben kann :D

 

Es gab auch mal eine Zeit, in der jede Datei nur von einem herstellerprogrammierten Konverter überhaupt sauber entwickelt werden konnte ... seltsamerweise nutzt heute fast jeder einen 3.Partykonverter ... was lernen wir daraus? 

Wir glauben den Herstellern erstmal nichts ;) und schauen was kommt ....

Link zum Beitrag
Auf anderen Seiten teilen

absolut richtig ... und was hindert uns jetzt technisch daran, die Interpretation zu normieren?

Nichts, aber ich habe auch nie behauptet, dies wäre der Fall, sondern habe dich gefragt warum es wichtig ist, dass die Rohdaten überall gleich angezeigt werden. Und ich sehe da trotz deiner Erklärungen noch immer wenig bis keinen Bedarf (für mich selbst schon gar nicht, auch wenn das nichts zu bedeuten hat), dafür allerdings relevante Nachteile,

von denen ich ja einige schon genannt habe, während andere, wie etwa Innovationsverluste, bisher unerwähnt geblieben sind. Ich bedanke mich für die Aufklärung, bleibe aber anderer Meinung ;)

 

Davon abgesehen basiert natürlich nicht jeder bekannte RAW-Konverter auf dcraw. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Nichts, aber ich habe auch nie behauptet, dies wäre der Fall, sondern habe dich gefragt warum es wichtig ist, dass die Rohdaten überall gleich angezeigt werden. Und ich sehe da trotz deiner Erklärungen noch immer wenig bis keinen Bedarf (für mich selbst schon gar nicht, auch wenn das nichts zu bedeuten hat), dafür allerdings relevante Nachteile,

von denen ich ja einige schon genannt habe, während andere, wie etwa Innovationsverluste, bisher unerwähnt geblieben sind. Ich bedanke mich für die Aufklärung, bleibe aber anderer Meinung ;)

 

Wir können einen Thread aufmachen über Sinn von Normung, einheitlichen Formaten, vereinheitlichten Größen, Verluste durch Umwandlung... Vielleicht bekommst Du dann Deine mir als Techniker unverständliche Frage beantwortet.

 

Übrigens: Weißt Du, dass ich trotz .rw2 die Bilder meiner GM5 nicht mit meinem PSE 13 bearbeiten kann? Gibt es einen logischen Grund dafür?

 

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Wir können einen Thread aufmachen über Sinn von Normung, einheitlichen Formaten, vereinheitlichten Größen, Verluste durch Umwandlung... Vielleicht bekommst Du dann Deine mir als Techniker unverständliche Frage beantwortet.

Es geht nicht um den Sinn von Normung, einheitlichen Formaten, vereinheitlichten Größen oder Verlusten durch Umwandlung, sondern ganz konkret darum, warum eine RAW-Datei in jedem Konverter gleich angezeigt werden sollte. Da dir das offensichtlich auch wichtig ist, sage mir doch einfach, warum. Hat der Nightstalker auch gemacht, ich habe es verstanden, teile seine Bewertung der Vor- und Nachteile aber nicht.

Dein "übrigens" hat übrigens mit der Frage nichts zu tun, denn eine vereinheitlichte Darstellung von Rohdaten würde nichts daran ändern, dass der Softwarehersteller dir für eine neue Kamera auch eine neue Softwareversion verkaufen wollte (vielleicht würde es etwas daran ändern, ob es die Softwareschmiede noch gibt, je nachdem wie sehr der Geschäftserfolg von individuellen Vorteilen bei der Konvertierung abhängt).

Link zum Beitrag
Auf anderen Seiten teilen

Nichts, aber ich habe auch nie behauptet, dies wäre der Fall, sondern habe dich gefragt warum es wichtig ist, dass die Rohdaten überall gleich angezeigt werden.

 

 

 

 

:) ich wette Dir ist auch nicht wichtig, ob Gewichte und Masse genormt sind ... wo man doch auch nach Ellen, regionalen Gewichten und so einkaufen kann

 

Also ich finde, dass die Vorherrschaft von Adobe durchaus ein Grund ist, dass man eine allgemeine Kompatibilität von Bearbeitungsschritten und -ergebnissen anstreben sollte ... 

 

 

 

 

warum eine RAW-Datei in jedem Konverter gleich angezeigt werden sollte. 

 

Ich glaube es ist nicht richtig rübergekommen, dass ich meinte, dass auch die Ergebnisse der Bearbeitung in allen Konvertern gleich angezeigt werden sollten ... dh ich kann ein Bild bearbeiten, das an einen Verlag schicken, der an der Stelle, an der ich aufgehört habe, weitermacht ... oder sogar etwas ändern kann, das ich anders bearbeitet habe, als man es für diesen Zweck braucht. ... Und das kann der Bearbeiter auch, wenn ich DxO nehme, er mit Capture One arbeitet und der endgültige Schritt in Lightroom geschieht.

 

 

 

 

Welcher Konverter basiert nicht auf DCRAW (mir ist keiner bekannt, was natürlich nicht heisst, dass es keinen gibt ;) )?

 

 

/edit:

 

Ich habe diesen Link gefunden:

 

http://www.cybercom.net/~dcoffin/dcraw/#others

 

 

 

 

 

Other Raw Photo Decoders Dcraw has made it far easier for developers to support a wide range of digital cameras in their applications. They can call dcraw from a graphical interface, paste pieces of dcraw.c into their code, or just use dcraw.c as the documentation that camera makers refuse to provide:

 

hmm, das würde für DxO, Capture One als Ausnahmen sprechen ... 

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

:) ich wette Dir ist auch nicht wichtig, ob Gewichte und Masse genormt sind ...

Die Wette hast du verloren, natürlich ist es mir wichtig, allerdings hat das eine für mich nichts mit dem anderen zu tun. Denn ich bin sehr wohl dafür, das Format als solches zu standardisieren und dadurch die Kameraunterstützung deutlich zu vereinfachen. Und ich habe auch verstanden, dass es dir nicht nur auf die einheitliche Anzeige der ursprünglichen Rohdaten ankommt, sondern auch auf jene der Bearbeitung. Nur halte ich das für weitgehend irrelevant, da die kollaborative Bearbeitung von Rohdaten meiner Einschätzung nach nur sehr selten vorkommen würde. Selbst im Agenturbereich (und da bin ich ja doch schon gut rumgekommen) und mit einem dies bereits ermöglichendem Arbeitsablauf passiert das äußerst selten, weil der Aufwand selten gerechtfertigt ist. Und dein erster Erklärungsansatz, bei dem du primär die Nutzung als Quasi-Ausgabeformat angeführt hast, ist mir immer noch fremd. Und auch was das später hinzu gekommene programmübergreifende Arbeiten angeht halte ich die Relevanz für gering. Allerdings muss ich zugeben, dass ich einen Fall nicht bedacht habe (keine Ahnung ob der bisher nicht erwähnt wurde, oder ich ihn nur übersehen habe): wenn ein Softwarehersteller die Entwicklung einstellt hätte man so die Möglichkeit, einfach zu einem anderen Anbieter zu wechseln. Auf der anderen Seite gibt es eben auch die Nachteile, die ich ja erwähnt habe und die für mich noch immer überwiegen.

 

Welcher Konverter basiert nicht auf DCRAW (mir ist keiner bekannt, was natürlich nicht heisst, dass es keinen gibt ;) )?

Es ist die Frage, wie du "basieren" definierst. Sehr viele Konverter verwenden Teile von dcraw, auch C1 beispielsweise (auch wenn es in der Liste nicht auftaucht). Umgekehrt wandern auch immer wieder Teile selbst von den großen Entwicklern nach dcraw. Einige Funktionen würden ohne diesen Austausch nicht zur Verfügung stehen. Nur gibt es einen Unterschied zwischen diesen, und solchen die tatsächlich weitgehend nur eine GUI für dcraw sind. ACR oder C1 beispielsweise basieren meiner Definition nach nicht auf dcraw ;)

Link zum Beitrag
Auf anderen Seiten teilen

Die Wette hast du verloren, natürlich ist es mir wichtig, allerdings hat das eine für mich nichts mit dem anderen zu tun. Denn ich bin sehr wohl dafür, das Format als solches zu standardisieren und dadurch die Kameraunterstützung deutlich zu vereinfachen. Und ich habe auch verstanden, dass es dir nicht nur auf die einheitliche Anzeige der ursprünglichen Rohdaten ankommt, sondern auch auf jene der Bearbeitung. Nur halte ich das für weitgehend irrelevant, da die kollaborative Bearbeitung von Rohdaten meiner Einschätzung nach nur sehr selten vorkommen würde. 

 

 

:) an der Stelle unterscheiden sich unsere Meinungen halt .. 

Link zum Beitrag
Auf anderen Seiten teilen

Der Vergleich MP3-RAW ist insofern nicht richtig, als jede .mp3-Datei, anders als .raw, mit jedem beliebigen MP3-Player wiedergegeben kann.

 

 

...neee...

Mp3, die variable Bitrates haben, oder sonstwie etwas „moderner“ gestrickt sind gehen nicht in meinem Auto (deutsches Produkt 2012) und noch ein paar andere Geräte. Dazu auch die Tags (Titel, Interpret, etc) nicht anzuzeigen, etcpepe...

Link zum Beitrag
Auf anderen Seiten teilen

deshalb nimmt man ja auch die ganz traditionellen 320er mit fester Bitrate (obwohl die variable Rate theoretisch Vorteile hat, habe ich noch nichts davon gemerkt, die 320e sind so gut, dass man auch mit den meisten CDs keinen Unterschied hört ... aber im Unterschied zu den VBR MP3s laufen sie in allen professionellen Geräten, in jedem Autoradio mit MP3 Funktion und machen auch beim schneiden keine Probleme (während ich bei VBRs da schon Klicks reinbekommen habe)

 

Die MP3 mit fester Bitrate ist das JPG der Musik ;)

Link zum Beitrag
Auf anderen Seiten teilen

Das ist glaube ich ein generell missverstandener Punkt. Es geht hier nicht darum etwas gegen Normen oder Standards zu haben. Ich bin verdammt froh, dass es solche gibt, gerade für Datenübertragungen oder eben bspweise Bilddarstellungen. Aber stell dir mal vor jeder A/D-Umsetzer müsste einem Standard folgen. Ja wo genau zeichnet sich dann ein guter A/D-Umsetzer noch aus, wenn genau vorgeschrieben ist, wie er zu funktionieren hat? Wozumal hier auch wieder Software-seitig quantisierungsfehler ausgeglichen werden können etc. Aber das lässt sich einfach nicht normen, ohne damit Schaden anzurichten und damit meine ich nicht bei einem Unternehmen, sondern technisch. Das wäre, als würde ich eine Gurkenkrümmung vorschreiben, die einzuhalten ist und eine Geschmacksnote, die die Gurke dazu noch erfüllen muss + den ganz genauen visuellen Grün-Bereich, den sie haben darf. Es wäre einfach unsinnig das zu tun. Hingegen könnte ich sagen, dass in eine Kiste maximal 5 kg an Gurken reindürfen. Wie sehr die Gurken danach noch wie Gurken aussehen bleibt dann dem überlassen, der es zurecht schnippelt. Vllt. so als fehleranfälliger, aber halbwegs nachvollziehbarer Vergleich.

Ich hab allerdings immer noch eine Abneigung der Gleichsetzung von RAW und Audio-Daten. Bei einem RAW wird wie gesagt interpoliert um es auf einem PC qualitativ korrekt darstellen zu können, was bei Audio-Daten nunmal nicht stattfindet, außer man spielt sie später über eine Wiedergabequelle mit höherer Abtastfrequenz ab, wobei diese Interpolation dann erst nach der schon lange fertig vorliegenden Datei passiert und nicht vor deren Entstehung. Es wäre sogar gegenteilig, da A/D-Umsetzer meist vielfach (zum Teil 64-fach) überabtasten. Da bin ich etwas empfindlich, nachdem ich n bisschen DSP-Programmierung hinter mir hab ;)

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

Ja...mit allen Nachteilen der Rückwärtskompatibilität...man sieht dann oft nicht Mal mehr Titel/Interpret aus den MP3-„exifs“...

[emoji56]

 

 

wenn eine MP3 mit fester Bitrate nicht sauber angezeigt wird, ist das Wiedergabegerät nicht sauber ausgeführt .. das ist der Basisstandard, IP3 Tag und MP3 mit fixer Bitrate

Link zum Beitrag
Auf anderen Seiten teilen

Klar ist doch wohl, dass ein JPEG auf einem Rechner von jeder Software möglichst gleich dargestellt werden sollte. Klar ist aber auch, dass es schon bei der Umrechnung auf die gerade verwendete Pixelzahl Unterschiede geben kann. Manche machen das besser als andere und es gibt keine exakte Vorschrift wie es gemacht werden muss.

 

Bei RAW geht das gar nicht. RAW selber zeigt niemand an. Im Programm muss also eine Interpretation stattfinden, die in etwa dem entspricht was in der Kamera passiert, wenn man JPEGs erzeugt. In der Kamera hängt das Ergebnis aber von allen möglichen Einstellungen ab. Es kommt also nicht mal da zu einem Standard-JPEG.

 

Ich kann mir zwei Wege vorstellen.

 

A: Die Kamera speichert alle Einstellungen ab und in der Software wird exakt das gemacht was die Kamera machen würde, wenn man JPEG speichert. Das geht nur wenn die Software vom Kamera-Hersteller kommt, weil nur der genau weiß welche Algorithmen die JPEGs produzieren. Selbst dann ist es schwierig, weil der RAW-Konverter dann quasi diesen Teil der Kamera-Firmware exakt enthalten muss und zwar von jeder Kamera des Herstellers und das obwohl in der Kamera ein völlig anderer Prozessor steckt. Da die Firmware vermutlich eng an die Hardware angepasst wird, ist da sicherlich jede Menge Hardwarespezifischer Code drin, der in Software auf einem PC nicht so einfach nachgebildet werden kann.

 

B: Die Software versucht mit einem möglichst guten Vorschlag zu starten und auf der Basis entwickelt man das Bild. Diese Lösung darf gar nicht zu einer Normung der Darstellung des RAWs führen, weil hier jeder Softwarehersteller seine Software wenn möglich ja weiterentwickelt und auf Basis aller Daten im RAW immer bessere Vorschläge macht. Ich erhoffe mir also von der Darstellung der RAW-Bilder in verschiedenen Programmen einen Wettbewerb um die bessere Interpretation und bin an einer genormten Darstellung gar nicht interessiert.

 

 

 

 

bearbeitet von beerwish
Link zum Beitrag
Auf anderen Seiten teilen

 

Ich kann mir zwei Wege vorstellen.

 

A: Die Kamera speichert alle Einstellungen ab und in der Software wird exakt das gemacht was die Kamera machen würde, wenn man JPEG speichert. Das geht nur wenn die Software vom Kamera-Hersteller kommt, weil nur der genau weiß welche Algorithmen die JPEGs produzieren. Selbst dann ist es schwierig, weil der RAW-Konverter dann quasi diesen Teil der Kamera-Firmware exakt enthalten muss und zwar von jeder Kamera des Herstellers 

 

nochmal: warum geht das nur, wenn die Software von Hersteller kommt?

 

Es muss einfach eine Norm existieren, nach der der Hersteller beschreiben kann, was die Software tun muss ... und das muss nichtmal irgendeine Beschränkung enthalten ... sozusagen eine Anweisungsdatei im RAW, das dem Konverter sagt, wie er das Bild interpretieren soll ... da für jede Kamera eh ein eigener Algorithmus per Update kommt, wäre das kein Problem (würde halt eine Norm erfordern ;) ... sprich: die Fotoindustrie müsste sich einig sein, oder es müsste geregelt werden)

 

 

 

 

B: Die Software versucht mit einem möglichst guten Vorschlag zu starten und auf der Basis entwickelt man das Bild. Diese Lösung darf gar nicht zu einer Normung der Darstellung des RAWs führen, weil hier jeder Softwarehersteller seine Software wenn möglich ja weiterentwickelt und auf Basis aller Daten im RAW immer bessere Vorschläge macht. Ich erhoffe mir also von der Darstellung der RAW-Bilder in verschiedenen Programmen einen Wettbewerb um die bessere Interpretation und bin an einer genormten Darstellung gar nicht interessiert.

 

so ist es ja heute .. wobei manche Konverterhersteller eine sehr eigene Vorstellung haben, was ein "guter Vorschlag" ist :D

 

Das wäre aber kein Problem, man könnte eine Standarddarstellung einbauen UND einen Softwarestandard des jeweiligen Programms aufrufen können (so wie halt jetzt auch, wo man einstellen kann, mit welcher Interpretation das Bild nach dem Öffnen angezeigt wird)

 

Dass ein gewisser Bedarf existiert, ist ja daran zu sehen, dass im Netz immer wieder die Frage gestellt wird:

 

"mein Konverter zeigt erstmal ein schönes Bild an, nach einigen Sekunden wechselt es dann zu einem flauen und unschönen Bild"

das ist, wenn zuerst kurz das JPG angezeigt wird und dann das, was der Konverter für "gut" hält ;)

Link zum Beitrag
Auf anderen Seiten teilen

Also der Prozessor an sich ist erstmal nicht groß relevant, sondern der auszuführende Algorithmus. Heutzutage kannst du das "einfach" auf jeden Prozessor umsetzen. Da kommt es natürlich drauf an, welcher welche Befehlssätze enthält etc. aber machbar ist das immer. Das einzige, was sich ändern kann ist die Ausführgeschwindigkeit, da natürlich wie gesagt nicht immer überall alle befehlssätze vorhanden sind die womöglich genutzt werden, dann muss eben drumherum gerechnet werden. kommt zum gleichen Ergebnis, dauert länger. Ist wie damals in PC-Spielen, wenn man eine "Software"- statt "Hardware"-Beschleunigung für die Grafik ausgewählt hat. Hardware lief natürlich auf der GPU, die das auch entsprechend schnell berechnen konnte, weil Rechenprotz, weil viele parallele Recheneinheiten und Software lief eben auf deinem Prozessor, der vor allem ein Controller war und kein Rechenprotz und dazu noch meist nur eine richtige Recheneinheit hatte und keine parallelen. Aber es ging eben und im Endeffekt war es das gleiche - nur langsamer. Von daher würde ich A nicht wirklich als relevanten Punkt ansehen. Man schreibt heute einfach seinen C/C++-Code und kann den auf x86, x64, ARM, PIC usw. übersetzen, der Compiler muss es halt machen, aber was nachher abläuft ist vom (Rechen-)Ergebnis her überall gleich. Wobei... runden kann problematisch sein (führt bspweise zu falschen Berechnungen, was Raketen in andere freundliche Militärbasen stürzen lässt und 25 Menschen killt).

Bevor man einfach mit einer Norm kommen kann, was die Anweisung vom RAW an die Interpretationssoftware angeht, sollten - vor allem wir, die hier drüber diskutieren - erstmal wissen, was genau dazu führt, dass es sowas nicht schon gibt. Ich weiss leider nicht, was ein Sony RAW jetzt von einem DNG so groß unterscheidet, ob es extra-Informationen wie Pixelabstände liefert oder einen kalibrierten Farbabgleich, der genutzt werden kann. Womöglich liegt die unterschiedliche Darstellung auch daran, ob manche Software manche Informationen überhaupt nutzt oder gleich verwirft. Womöglich sind sich die Raws schon sehr weit sehr ähnlich und die Software macht's komplett anders?

Schätzungsweise gibt es den Bedarf nach einer Norm einfach nicht, weil die Nutzeranzahl doch recht überschaubar ist und sich der Aufwand für eine Normierung nicht rechnen würde, für niemanden.

 

Edit: wir können: http://wwwimages.adobe.com/www.adobe.com/content/dam/acom/en/products/photoshop/pdfs/dng_spec_1.4.0.0.pdf

 

Muss ich bei Gelegenheit mal lesen.

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

Schätzungsweise gibt es den Bedarf nach einer Norm einfach nicht, weil die Nutzeranzahl doch recht überschaubar ist und sich der Aufwand für eine Normierung nicht rechnen würde, für niemanden.

 

 

ich denke, es gibt den Bedarf nicht, weil die Leute klein denken ... und sich nicht vorstellen können, was das bringt

 

So wie beim Klappdisplay, dem elektronischen Sucher und so ziemlich jeder Neuerung seit der Erfindung des Rads ;)

 

Im Mittelalter konnten sich die Leute auch nicht vorstellen, wieso es Sinn machen sollte, einheitliche Längen und Volumenmasse zu haben, weil nur wenige reisten und diese waren Profis (Kaufleute oder die Angestellten der Adligen, die dafür sorgten, dass der Herr Baron sich nicht darum kümmern musste, wie lang die Elle des Seidenverkäufers war) ... heute dagegen würden wir ziemlich sauer werden, wenn wir bei der Amazonbestellung 12 Ellen Vorhangstoff kaufen und der Verkäufer leider nur 1,52m gross ist :D

 

 

... um es auf ein fotoähnliches Beispiel umzubiegen:

 

Farben haben auch Normen, (das liegt unter anderem daran, dass man noch nicht in der Lage ist, Fotos aufzunehmen, in denen man Stoffarben sicher mit einem bestimmten Farbton darstellen kann ... auch ein Problem der Normen und Kalibrierungen ... wieso gibts eigentlich keine Normkalibrierung bei Monitoren und Druckern?) wenn nun jeder Hersteller seine eigene Farbnumer hat, statt RAL, würde das so einige Leute unglücklich machen

 

https://www.vkf-renzel.de/content/service/ral-farbtabelle/

 

 

 

Zum Adobelink:

 

bei DNG zeigt auch jeder Konverter anders an ... DNG bietet schlicht keinen Vorteil für den Anwender, ausser, dass man alte Adobeversionen weiter nutzen kann, wenn man neue Kameras kauft (bei anderen Herstellern von Konvertern klappt das leider nicht .. diese zeigen eine mit dem DNG Konverter gewandelte Datei nur an, wenn auch die Originaldatei gelesen werden kann .. frag mich nicht wieso)

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

Wenn es ohne Normung an den Gelbbeutel geht, wie bei den Engländern vor fast 50 Jahren beim Gewinde u. a., dann klappt es mit.der Normung. Wenn die Gefahr besteht, dass es mit Gleichheit an den Geldbeutel geht wie bei den Kamera- und Softwarefirmen derzeit, dann braucht es keine.

 

Ich habe in der Lehrzeit ganz gut mit Zollgewinde gelebt*, so wie heute die RAW-Leute gut mit dem Format leben.

 

Heute ärgere ich mich, wenn ich auf zöllige Schrauben treffe. Und die RAW-Verteidiger in 20 Jahren?

 

* Weil es selten war und der Lehrherr das Werkzeug stellte.

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Das Problem ist ja nicht die fehlende Norm für das RAW, RAW ist nun mal das Abbild des Sensors.

Solange die Sensoren nicht genormt werden, bleibt es bei dem Zustand wie er eben ist, da das

die Entwicklung hemmen würde.

 

 

Sogar beim Fernsehen, was ein genormtes Verfahren allerbester Güte war, wurden alle

Normen und Abwärtskompatiblitäten über den Haufen geworfen. Und als die Norm fest

stand wurde noch schnell eine Änderung eingebaut um die Asiaten aus dem Geschäft

rauszuhalten.

Übrigens haben die deutschen Rohrleger immer noch Zollgewinde aber die US-Army

und US-Post verlangen metrische Maße für Schrauben.

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...