Jump to content

Empfohlene Beiträge

.... Es gibt einige Sensoren, die wahlweise mit oder ohne Bayer-Pattern, mit oder ohne Mikrolinsen oder mit beidem geliefert werden....

Ja, bei 4/3 ist das neben dem betagten KAF8300 CCD  auch der CMOS der EM1 den Panasonic in einer SW-Version anbietet.

Wird momentan in der Astro-Szene heiß diskutiert.

https://astronomy-imaging-camera.com/products/usb-3-0/asi1600mm-cool/

http://www.qhyccd.com/QHY163.html

 

LG Horstl

Link zum Beitrag
Auf anderen Seiten teilen

meinst du das hier?

wobei ich das für mumpitz halte, zumal die algorithmen für die dxomark werte nicht offengelegt sind, und m.m.n. äquivalente iso unberücksichtigt bleibt

ja, diese Übersicht habe ich gemeint, vielen Dank.

 

Auch ich halte nicht viel von den DXO-Werten, da man keine verschiedenen Kameras mit verschiedenen Sensoren miteinander vergleichen kann. Außerdem messen sie nur einen beschränkten Teil der Bildqualität. Aber der Trend bei gleichbleibenden Algorithmen bei gleicher Sensorengröße sagt etwas über die Entwicklung der Sensoren aus. Deshalb hier nochmal die Grafik für Alle. Leider geht sie nur bis 2013. Vielleicht gibt es eine aktuellere Grafik?

 

 

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Wolfgang
Link zum Beitrag
Auf anderen Seiten teilen

Leider geht sie nur bis 2013. Vielleicht gibt es eine aktuellere Grafik?

 

Eigentlich hat sich nicht viel getan in der Zwischenzeit. Viele Kameras haben die üblichen Sony-Sensoren, die sich nicht wesentlich geändert haben bezüglich Rauschen/Dynamik. Ausnahmen sind die A7rII mit BSI und in den neuen a6300/a6500 hat es leichte Optimierungen gegeben (dazu muss man aber sagen, dass sich die a6000 nicht mit Ruhm bekleckert durch den Grünstich beim Aufhellen).

 

Bei Canon gab's in jüngerer Zeit eine Verbesserung der Dynamik und sie sind ungefähr auf Sony-Niveau.

 

Link zum Beitrag
Auf anderen Seiten teilen

ja, diese Übersicht habe ich gemeint, vielen Dank.

 

Auch ich halte nicht viel von den DXO-Werten, da man keine verschiedenen Kameras mit verschiedenen Sensoren miteinander vergleichen kann. Außerdem messen sie nur einen beschränkten Teil der Bildqualität. Aber der Trend bei gleichbleibenden Algorithmen bei gleicher Sensorengröße sagt etwas über die Entwicklung der Sensoren aus. Deshalb hier nochmal die Grafik für Alle. Leider geht sie nur bis 2013. Vielleicht gibt es eine aktuellere Grafik?

 

Wieso kann "man keine verschiedenen Kameras mit verschiedenen Sensoren miteinander vergleichen", wenn man z.B. mit jeder Kamera einen 20x30-Druck erzeugt und auch diesen analysiert (die Einstellung "Print" im Bereich der DXO-Messwerte ("measurements")).

 

Oder wenn man z.B. den Signal-Rausch-Abstand am Display misst, also in der Einstellung, in der ein Display-Pixel ein Sensor-Pixel übernimmt. Bei der Gegenüberstellung eines 16MP-Sensors und eines 24MP-Sensors weiß man dann, dass eine bestimmte Fläche bei einem Sensor z.B. 10 Prozent des Gesamtbildes darstellt, die selbe Fläche beim anderen Sensor dagegen z.B. 7 Prozent. Das Gesamtbild lässt sich in solchen Fällen dagegen unter "Print" gut vergleichen.

 

Warum also kann man "einfach so" Kameras mit verschiedenen Sensoren nicht vergleichen??... 

bearbeitet von cosmovisione
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Wieso kann "man keine verschiedenen Kameras mit verschiedenen Sensoren miteinander vergleichen", wenn man z.B. mit jeder Kamera einen 20x30-Druck erzeugt und auch diesen analysiert (die Einstellung "Print" im Bereich der DXO-Messwerte ("measurements")).

 

Oder wenn man z.B. den Signal-Rausch-Abstand am Display misst, also in der Einstellung, in der ein Display-Pixel ein Sensor-Pixel übernimmt. Bei der Gegenüberstellung eines 16MP-Sensors und eines 24MP-Sensors weiß man dann, dass eine bestimmte Fläche bei einem Sensor z.B. 10 Prozent des Gesamtbildes darstellt, die selbe Fläche beim anderen Sensor dagegen z.B. 7 Prozent. Das Gesamtbild lässt sich in solchen Fällen dagegen unter "Print" gut vergleichen.

 

Warum also kann man "einfach so" Kameras mit verschiedenen Sensoren nicht vergleichen??... 

 

na, zum beispiel weil du ohne optik gar kein bild machen kannst

der sensor ist also nur einer der vielen faktoren, die das resultat einer aufnahme bestimmen

 

Link zum Beitrag
Auf anderen Seiten teilen

na, zum beispiel weil du ohne optik gar kein bild machen kannst

der sensor ist also nur einer der vielen faktoren, die das resultat einer aufnahme bestimmen

 

 

Na ja..., ist die Optik z.B. auch für das Rauschverhalten verantwortlich?...

 

Wenn es z.B. um Schärfe und Auflösung geht, dann klar, dann kann man nicht drei verschiedene Objektive benutzen und nachher über die Auflösung der Sensoren der entsprechenden Kameras reden. Aber Rauschverhalten, Dynamik u.ä.?...

 

(Ich bin mir nicht ganz sicher, aber ich glaube, DXO benutzt je nach Anschluss (also z.B. "Sony E,, APS-C-Sensor") auch immer einheitliche Objektive, so dass bestimmte ähnliche Kameras (z.B. "Sony APS-C") sogar ziemlich genau miteinander verglichen werden können. Ich hab mir mal bei DXO die ganzen Methodenbeschreibungen durchgelesen. Ist aber schon was her.) 

bearbeitet von cosmovisione
Link zum Beitrag
Auf anderen Seiten teilen

nee, die details der bewertung behält dxo für sich, auf der website steht nur allgemeines lari fari

es geht ja auch nicht um einen vergleich verschiedener cams mit demselben sensor (da kann man die unterschiede im processing und ggf. auch im filterstack und die wirksamkeit der lichtfallen vergleichen)

große sensoren bieten einfach mehr platz für photonen als kleinere, wenn man dann für den größeren sensor das licht einfach stärker aufdreht bzw. länger belichtet, dann kriegt man geringeres photonenrauschen und mehr dynamik

rechnest du diesen effekt raus (stichwort äquivalentes iso), dann kriegst du im print vernachlässigbare unterschiede

aber was solls, den höchsten dxomark wert hat ein "kleiner" sensor von in etwa aps-h größe

Link zum Beitrag
Auf anderen Seiten teilen

Wenn es z.B. um Schärfe und Auflösung geht, dann klar, dann kann man nicht drei verschiedene Objektive benutzen und nachher über die Auflösung der Sensoren der entsprechenden Kameras reden. Aber Rauschverhalten, Dynamik u.ä.?...

 

Praktisch gesehen sind Schärfe und Rauschen Gegenspieler in der Nachbearbeitung. Wenn man das Bild eines flauen Objektivs mit Kontrasterhöhung und Nachschärfen auf das Niveau eines guten Objektivs bringt, verstärkt man das Rauschen.

Auf die Messungen von DXO sollte sich das eigentlich nicht auswirken.

 

Link zum Beitrag
Auf anderen Seiten teilen

Eine Sorge, die ich bezüglich der Sensoren habe, hab ich Euch noch gar nicht mitgeteilt :D

 

Welch eine grandiose Innovation - stellt Euch mal vor da kommt ein 1000 Megapixel-Sensor für µFT daher, der garnicht rauscht und 256 Superbit Farbtiefe mit 400% AdobeRGB und das ganze mit nur einem Gigabyte pro RAW - das wäre doch genial, endlich könnte man die native Auflösung solcher Sensoren mit der enormen Detailtiefe dazu nutzen um bei Whitewall Ausbelichtungen von 120 mal 80 Metern unter Kunstharz zu ordern - gibt es dann bestimmt im Bundle mit dem Schwertransport und auch über Bausparverträge finanziert (gilt als Leichtbau-Wand)

 

Wow, die Zukunft wird wohl doch ganz spannend... :lol:

 

(ahja, und wie immer bei meinen Gedankenspielen - wer zum Lachen in den Keller geht, der kann mir ja ne Pulle Bier mitbringen ;) )

 

----------------- SPASS // OFF ------------------

 

DXO ist ein Maßstab, der eigentlich keiner ist - da gibt es Tests, teilweise steril und gnadenlos bis auf das Linienpaar reduziert - und sowohl Optiken als auch Sensoren werden auf eine einzige Eigenschaft reduziert: Leistungsfähigkeit

 

Warum DXO kein primärer Maßstab für das Foto und die Fotografie ist - es ist numal eine Webseite, die reine Limits bewerten lässt und das hat mit dem Foto garnicht viel zu tun. Sicherlich dient solche Information zur Sensorleistung und Optikleistung klar und deutlich für einige Fotografen (für mich ja auch) dazu, dass man gezielter nach den eigenen Vorgaben eine Kamera bzw. ein Objektiv auswählen kann. Der sehr große Dynamikvorteil eines speziellen Vollformat-Body war ja auch für mich der Grund die Systeme µFT und APS-C damit zu erweitern, diese Daten kamen dann aus dem Labor - klare Sache - nur brauche ich exakt diese HighIso-Eigenschaft bei nicht mal einem Prozentchen der Fotos, die ich mache.

 

:)

 

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Eine Sorge, die ich bezüglich der Sensoren habe, hab ich Euch noch gar nicht mitgeteilt :D

 

Welch eine grandiose Innovation - stellt Euch mal vor da kommt ein 1000 Megapixel-Sensor für µFT daher, der garnicht rauscht und 256 Superbit Farbtiefe mit 400% AdobeRGB und das ganze mit nur einem Gigabyte pro RAW - das wäre doch genial, endlich könnte man die native Auflösung solcher Sensoren mit der enormen Detailtiefe dazu nutzen um bei Whitewall Ausbelichtungen von 120 mal 80 Metern unter Kunstharz zu ordern...

 

Warte mal ab! Die Pixelpeeper werden schon was finden! Und wenn es nur die miese Qualtät des Objektivs ist, das für lediglich 900 MPx gerechnet ist.

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe als Profi bisher Vollformat für die Arbeit und MFT für die Freizeit ( Urlaub) genutzt. Tatsächlich gibt es mit den Leica DG Optiken hervorragende Linsen für MFT Kameras..... Die GX7 von Panasonic schien mit mechanisch zu labbrig. Die gelobte PEN F von Olympus sieht analoger aus, als sie ist. Alles wesentliche, ist nur über Menüs erreichbar. Die GM5 von Panasonic war als Reiseset Ideal, wenn man kompakte Optiken verwendet........

 

ABER, warum ich mich wieder von MFT verabschiedet habe, ist der CROP-Faktor. Kompakt bedeudet wenig Lichtstärke, mit wenigen Ausnahmen. Hohe Lichtstärke im MFT Bereich ist sehr Kostenintensiv. Schaut nur nach dem neuen 12er Leica DG oder dem 45er1.2 er..... Wenn ich aber für diese beiden Optiken alleine über 2000,- € hinblättere, dann muss ich mich auch nach anderen Systemen umsehen.......

 

Und da scheint mir das Fuji X System als APS-C eine gelungene Alternative!

 

​Habe mich letztendlich von MFT und Nikon Vollformat getrennt und für Fuji X-PRO2 und X-A für die Freizeit entschieden. Benötige nur noch ein Objektivstem und kann die Akkus wechseln. Ausserdem habe ich einen Notfallbody mit der X-A , wenn die X-PRO als Worst-Case sich ausklingt bei einem Auftrag.....

Link zum Beitrag
Auf anderen Seiten teilen

DXO ist ein Maßstab, der eigentlich keiner ist - da gibt es Tests, teilweise steril und gnadenlos bis auf das Linienpaar reduziert - und sowohl Optiken als auch Sensoren werden auf eine einzige Eigenschaft reduziert: Leistungsfähigkeit

 

 

Ich glaube, da triffst du einen guten Punkt, der nicht nur DXO und die Sensoren betrifft. Wir vergleichen immer gerne wie früher beim Autoquartett. 6 Zylinder sind besser als 4, 220PS besser als 180 und 6 Türen besser als 2. Dabei fallen halt zwei Aspekte immer hinten runter. Erstens sollte die für einen "optimale" Fotoausrüstung nicht die mit den meinsten Features sein, sondern die mit den Features, die man selber braucht. Und zweitens werden besonders gerne die Eigenschaften gemessen, die man gut  messen kann. Was nicht so leicht messbar ist, fällt gerne hinten runter. Und Eigenschaften werden auch gerne "abgehakt". So fand ich es immer toll, wenn bei den Testzeitschriften alle Kameras, die über eine Sensorreinigung verfügten ein Häkchen bei diesem Feature bekamen. Und dabei unter den Tisch gekehrt wurde, dass die Sensorreinigung nur bei Olympus wirklich funktioniert hat. Oder jetzt eben bei der E-M1 II herausgestellt wird, wie viele AF-Punkte sie hat und und wie schnell diese ausgelesen werden können. Aber noch niemand kann wirklich sagen kann, ob dieser Aufwand sich gelohnt hat und der AF wirklich super funktioniert.

 

Ähnlich ist es doch bei den Sensoren, da lässt sich doch gar nicht so genau sagen, ob ein höchst auflösender Sensor mit guten HighIso-Fähigkeiten besser ist, als ein hoch auflösender mit sehr guten HighIso-Fähigkeiten oder gar ein nicht so hoch auflösendes HighIso-Monster. Das hängt im Grunde einfach von den individuellen Ansprüchen ab. Und dazu kommen dann eben noch die "weichen" Faktoren. Ein gutes Beispiel dafür ist der eher antike 5MP-Sensor der Olympus E-1. Geringe Auflösung, kein HighIso , aber eine genaile Bildwirkung, an der sich auch moderne Kameras noch die Zähne ausbeißen können.

 

Gruß

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

----------------- SPASS // OFF ------------------

 

DXO ist ein Maßstab, der eigentlich keiner ist - da gibt es Tests, teilweise steril und gnadenlos bis auf das Linienpaar reduziert - und sowohl Optiken als auch Sensoren werden auf eine einzige Eigenschaft reduziert: Leistungsfähigkeit

 

Warum DXO kein primärer Maßstab für das Foto und die Fotografie ist - es ist numal eine Webseite, die reine Limits bewerten lässt und das hat mit dem Foto garnicht viel zu tun. Sicherlich dient solche Information zur Sensorleistung und Optikleistung klar und deutlich für einige Fotografen (für mich ja auch) dazu, dass man gezielter nach den eigenen Vorgaben eine Kamera bzw. ein Objektiv auswählen kann. Der sehr große Dynamikvorteil eines speziellen Vollformat-Body war ja auch für mich der Grund die Systeme µFT und APS-C damit zu erweitern, diese Daten kamen dann aus dem Labor - klare Sache - nur brauche ich exakt diese HighIso-Eigenschaft bei nicht mal einem Prozentchen der Fotos, die ich mache.

 

:)

 

Ich finde, dass man doch einiges herauslesen kann, wenn man nicht nur die Punktewertung vergleicht, sondern sich die Graphen genauer ansieht. DxO ist für mich eine wichtige Seite, deren Ergebnisse ich im Allgemeinen nachvollziehen kann.

Man sollte nur einen klaren Kopf behalten und die Pünktchen nicht die Sicht verstellen lassen, auf die anderen wichtigen Aspekte.

 

Das Problem ist aber kein echtes Problem, denn die, die jetzt stur den Punktewertungen folgen, würden sonst halt eine andere Seite finden, die ihre Welt in handliche Grafiken packt ... und wer jetzt schon mitdenkt und viele Quellen heranzieht, der wird das auch zukünftig machen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich finde, dass man doch einiges herauslesen kann, wenn man nicht nur die Punktewertung vergleicht, sondern sich die Graphen genauer ansieht. DxO ist für mich eine wichtige Seite, deren Ergebnisse ich im Allgemeinen nachvollziehen kann.

Man sollte nur einen klaren Kopf behalten und die Pünktchen nicht die Sicht verstellen lassen, auf die anderen wichtigen Aspekte.

 

Das Problem ist aber kein echtes Problem, denn die, die jetzt stur den Punktewertungen folgen, würden sonst halt eine andere Seite finden, die ihre Welt in handliche Grafiken packt ... und wer jetzt schon mitdenkt und viele Quellen heranzieht, der wird das auch zukünftig machen.

 

In diesem Thread geht es ja nicht um Fotografie, sondern um die technische Frage, wie gut Sensoren noch werden können. Um die zu beantworten, ist eine Sammlung technischer Messdaten wie bei DXO schon sehr hilfreich. :)

 

Ich persönlich schätze, dass beim Rauschverhalten keine allzu großen Sprünge mehr zu erwarten sind. Bei dpreview hat irgendjemand mal die Quanteneffizienz des E-M5-Sensors zu 50% beziffert (ich weiß nicht, ob das zutrifft; die aktuell besten Sensoren liegen aber in diesem Bereich). D.h., jedes zweite Photon wird in ein Elektron gewandelt. Die maximale Quanten-Effizienz beträgt 100 Prozent. Das Rauschverhalten, dass durch die statistische Schwankung der Photonenmenge hervorgerufen wird, kann sich also max. um eine Blendenstufe verbessern. Das ist Physik und lässt sich auch nicht durch eine veränderte Sensor-Technologie steigern. Lediglich durch ausgefeiltere Entrauschungs-Algorthmen ist in Zukunft noch eine weitere Steigerung der BQ (beim Rauschen) zu erwarten.

 

Beim Dynamikabstand gilt das allerdings nicht; hier ist noch viel Luft: Die abbildbare Dynamik wird auf der einen Seite durch das Rauschen in den Schatten bestimmt und auf der anderen Seite durch die Sättigung der Lichter. Auf der Schattenseite kann man nicht allzu viel drehen, bei den Lichtern aber schon. So könnte man theoretisch für jedes Pixel während der Belichtung mit einer Uhr messen, *wann* es in Sättigung geht. Aus dieser Information kann man die Lichterinformation zurückrechnen (falls die Beleuchtungsverhältnisse während der Belichtung konstant waren).

Link zum Beitrag
Auf anderen Seiten teilen

Welch eine grandiose Innovation - stellt Euch mal vor da kommt ein 1000 Megapixel-Sensor für µFT daher, der garnicht rauscht und 256 Superbit Farbtiefe mit 400% AdobeRGB und das ganze mit nur einem Gigabyte pro RAW - das wäre doch genial, endlich könnte man die native Auflösung solcher Sensoren mit der enormen Detailtiefe dazu nutzen um bei Whitewall Ausbelichtungen von 120 mal 80 Metern unter Kunstharz zu ordern - gibt es dann bestimmt im Bundle mit dem Schwertransport und auch über Bausparverträge finanziert (gilt als Leichtbau-Wand)

Ist ja alles schön und gut, aber was nützt mir das alles wenn ich mit µFT nicht mal vernünftig freistellen kann? :(;):D

Link zum Beitrag
Auf anderen Seiten teilen

Ist ja alles schön und gut, aber was nützt mir das alles wenn ich mit µFT nicht mal vernünftig freistellen kann? :(;):D

Gar nichts. Zum  vernunftig freistellen braucht es Mittelformat und Brennweiten von  mindestens 120mm. Alles andere ist Pillepalle oder optische Täuschung. ;)

Link zum Beitrag
Auf anderen Seiten teilen

In diesem Thread geht es ja nicht um Fotografie, sondern um die technische Frage, wie gut Sensoren noch werden können. Um die zu beantworten, ist eine Sammlung technischer Messdaten wie bei DXO schon sehr hilfreich. :)

 

Ich persönlich schätze, dass beim Rauschverhalten keine allzu großen Sprünge mehr zu erwarten sind. Bei dpreview hat irgendjemand mal die Quanteneffizienz des E-M5-Sensors zu 50% beziffert (ich weiß nicht, ob das zutrifft; die aktuell besten Sensoren liegen aber in diesem Bereich). D.h., jedes zweite Photon wird in ein Elektron gewandelt. Die maximale Quanten-Effizienz beträgt 100 Prozent. Das Rauschverhalten, dass durch die statistische Schwankung der Photonenmenge hervorgerufen wird, kann sich also max. um eine Blendenstufe verbessern. Das ist Physik und lässt sich auch nicht durch eine veränderte Sensor-Technologie steigern. Lediglich durch ausgefeiltere Entrauschungs-Algorthmen ist in Zukunft noch eine weitere Steigerung der BQ (beim Rauschen) zu erwarten.

 

Die Entrauschungs-Algorithmen sind eigentlich schon so ziemlich ausgereizt und eigentlich bringen die auch nicht wirklich was sondern verschieben nur einen Fehler auf Kosten eines anderen anderen Fehlers der nur auf den ersten Blick etwas weniger auffällt oder stört.

Die Farbfilter schlucken recht viel Licht da könnte man theoretisch auch noch etwas verbessern, Panasonic hat da auch noch Patente mit Micro Color Splitter die da besser sein sollen.

Insgesamt werden aber die Verbesserungen immer kleiner und die Zeiträume wo sich was tut immer länger werden. Eine gute Nachricht braucht man doch allein wegen der Bildqualität immer seltener zu einem neuen Modell greifen.

Beim Dynamikabstand gilt das allerdings nicht; hier ist noch viel Luft: Die abbildbare Dynamik wird auf der einen Seite durch das Rauschen in den Schatten bestimmt und auf der anderen Seite durch die Sättigung der Lichter. Auf der Schattenseite kann man nicht allzu viel drehen, bei den Lichtern aber schon. So könnte man theoretisch für jedes Pixel während der Belichtung mit einer Uhr messen, *wann* es in Sättigung geht. Aus dieser Information kann man die Lichterinformation zurückrechnen (falls die Beleuchtungsverhältnisse während der Belichtung konstant waren).

Das wird nicht funktionieren, messen kann man nur beim Auslesen und dann ist es schon zu spät. Natürlich kann man öfter auslesen aber das ist dann auch nichts anderes als eine Belichtungsreihe (HDR) damit bekommt man immer beliebige Kontraste hin ist aber abhängig wie schnell sich beim Motiv was ändert.

Ganz gut funktionieren tun dagegen unterschiedlich empfindliche Sensorpixel da gibt und gab es schon immer Kameras die damit gearbeitet haben allerdings ist extreme hohe Dynamik im allgemeinen auch nicht so wichtig das man das immer unbedingt brauchen würde.

Link zum Beitrag
Auf anderen Seiten teilen

Hier ein aktueller Beitrag von DXO zur Sensorentwicklung auf http://www.mirrorlessrumors.com/ . Sie sagen, dass in den letzten 10 Jahren die Sensoren um ca. 1,5 Blendenwerte verbessert wurden, während die Software in dieser Zeit 3-4 Blendenwerte Verbesserung gebracht hat.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Wolfgang
Link zum Beitrag
Auf anderen Seiten teilen

Hier ein aktueller Beitrag von DXO zur Sensorentwicklung auf http://www.mirrorlessrumors.com/ . Sie sagen, dass in den letzten 10 Jahren die Sensoren um ca. 1,5 Blendenwerte verbessert wurden, während die Software in dieser Zeit 3-4 Blendenwerte Verbesserung gebracht hat.

 

"Digital processing" = Software? Das glaube ich nicht, mir scheint das eher die Hardware (Signalverarbeitung) + Software zu sein.

 

Daneben fehlt mir die Angabe, was für "stops" gemeint sind. Bisher sehe ich da nur recht willkürliche Zahlen.

 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...