Jump to content

Zusammenhang von Sensorgröße, Dynamik und Lichtempfindlichkeit


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Da im Thread zur A7RII eine sehr umfangreiche, zum Teil leidenschaftlich, manchmal auch polemisierend geführte Diskussion um den Zusammenhang zwischen Sensorgröße, Dynamikumfang und Lichtempfindlichkeit entbrannt ist, der dort zunehmend off-topic erschien, halte ich es für sinnvoll dieser Diskussion einen eigenen Thread zu widmen und den A7RII Thread davon zu entlasten.

 

Zusammenfassend zunächst die Thesen:

  • Einige waren der Ansicht, dass die Dynamik (bzw. der Dynamik-Umfang) bei gleicher Sensor-Technologie im Verhältnis zur Sensorfläche wächst, sich also konkret um eine Blendenstufe bzw. 1 EV erhöht wenn die Sensorfäche verdoppelt wird. Einige setzten dies auch mit der "Sensitivität" bzw. der Lichtempfindlicheit gleich, sahen also eine direkte Abhängigkeit vom Rauschanteil und damit letztlich auch zur ISO-Performance.
     
  • Andere vertraten den Standpunkt, dass in die Dynamik eine Reihe weiterer Faktoren mit hineinspielen und somit - gleiche Technologie unterstellt - der Rauschanteil nur zu einem gewissen (eher geringen) Anteil in die Dynamik eingeht. Daraus resultierte für die Vertreter dieser These, dass bei einem kleineren Sensor (oder auch bei Nutzung nur eines Crop dieses Sensors) nicht automatisch im Verhältnis zur Flächenverringerung die Dynamik abfällt.

Ich hoffe, ich habe es soweit treffend zusammengefasst und nicht noch weitere Thesen übersehen. Den Ansatz von Wolfgang_R, dabei noch weitere Faktoren, wie z.B. das Objektiv einzubeziehen, die bereits vor dem Sensor und der Verarbeitungs-Elektronik/Software ggf. die Dynamik (z.B. durch Kontrastverringerung bei Gegenlicht-Situationen) zu reduzieren, lasse ich mal außen vor, da hier für mich zumindest schon mal kein Zusammenhang zur Sensorgröße und -Technologie erkennbar ist und diese Aspekte deshalb auch getrennt betrachtet werden können.

 

Kurze Pause, geht gleich weiter...

Link zum Beitrag
Auf anderen Seiten teilen

Ich bin technisch ungebildet, glaube jedoch, im Laufe der Jahre folgende Beobachtungen gemacht zu haben:

 

o je grösser der Sensor, desto höher die Dynamik

o je höher die ISO, desto geringer die Dynamik

o je mehr Pixel pro Sensorfläche, desto geringer die Dynamik und desto grauslicher die ISO Performance

Link zum Beitrag
Auf anderen Seiten teilen

 

o je mehr Pixel pro Sensorfläche, desto geringer die Dynamik und desto grauslicher die ISO Performance

Und das ist eben nicht so.

 

Man betrachtet (sinnvollerweise) das Rauschen ja nicht auf 100% Ansicht (wo Deine These stimmen würde) sondern als gesamtes Bild.

 

Ein 36MP Bild und ein 12MP Bild auf gleicher Ausgabegrösse und bei gleicher Sensortechnik unterscheiden sich durch die Grösse der bildwirksamen Störpixel und die sind nunmal beim gröber auflösenden Sensor auch grösser.

 

Leider unterscheiden sich die Sensortechniken der Alphas pro Kamera stark, aber die Weiterentwicklung zu höher auflösenden Sensoren und deren steigende ISO Leistung, sollte uns einen Hinweis geben, dass mehr Pixel jedenfalls nicht besserer Leistung bei wenig Licht entgegen steht.

Link zum Beitrag
Auf anderen Seiten teilen

Vorschlag: lasst uns alles rund um ISO erst mal raushalten und erst nach den Basics klären. Warum?

 

o zu viele Parameter / Variablen gleich am Anfang der Diskussion

o ISO hat nichts mit Belichtung zu tun (nur Blende und Zeit können die Lichtmenge steuern / Exposure vs. Brightening)

o sind wir uns über die Basics einig, dann darf die ISO als weiterer Parameter rein

Link zum Beitrag
Auf anderen Seiten teilen

Und das ist eben nicht so.

 

Man betrachtet (sinnvollerweise) das Rauschen ja nicht auf 100% Ansicht (wo Deine These stimmen würde) sondern als gesamtes Bild.

 

Pixelpeeper sehen das anders... :P ... die sind auch Plemm-Plemm...

bearbeitet von kirschm
Link zum Beitrag
Auf anderen Seiten teilen

... aber mit einer korrekten Definition von Dynamik sollte man in die Diskussion starten.

 

Wieder mein Dynamikempfinden aus der Praxis: Dynamik ist die Anzahl der EVs zwischen reinem Schwarz und Weiss... wohlgemerkt dort, wo es in Wirklichkeit weder rein schwarz, noch rein weiss war.

Link zum Beitrag
Auf anderen Seiten teilen

Meine empirische Beobachtung: oly E-M5 und Sony A7 liegen in der Dynamik (Verbiegbarkeit der RAWs) bei gleichen ISOs erstaunlich dicht beieinander. Ausnahme: bei ISO 100, den die Oly nicht hat, ist die Sony erheblich besser. Spielt hier eine andere Sensorauslegung eine Rolle? Als Laie bin ich hier überfragt :)

Link zum Beitrag
Auf anderen Seiten teilen

Wieder mein Dynamikempfinden aus der Praxis: Dynamik ist die Anzahl der EVs zwischen reinem Schwarz und Weiss... wohlgemerkt dort, wo es in Wirklichkeit weder rein schwarz, noch rein weiss war.

Frage: hängt dieser Unterschied nicht von der bittiefe ab, auf die der A/D Wandler die Sensorsignale transformiert? Schwarz kleinster Wert, weiss größter Wert und die möglichen Werte dazwischen stehen für die Feinheit der Helligkeitsabstufungen. Je höher der Signal- Rauschabstand pro pixel ist, bei desto kleiner kann das Eingangssignal sein, um noch einen genauen Helligkeitswert aufzuzeichnen. Je mehr Helligkeitsabstufungen im Bereich weiss vorhanden sind, desto besser werden auch die Farbinformationen in diesen Bereichen interpoliert werden können und desto besser ist die Farbqualität dort, wo man fast ausgefressene Bildbereiche in der EBV abdunkelt.

Link zum Beitrag
Auf anderen Seiten teilen

Meine empirische Beobachtung: oly E-M5 und Sony A7 liegen in der Dynamik (Verbiegbarkeit der RAWs) bei gleichen ISOs erstaunlich dicht beieinander. Ausnahme: bei ISO 100, den die Oly nicht hat, ist die Sony erheblich besser. Spielt hier eine andere Sensorauslegung eine Rolle? Als Laie bin ich hier überfragt :)

Ich verstehe wenig davon, kann das aber (empirisch) bestätigen. Als ich im Bildbearbeitungsthread bei einem von Phillips mit ISO 100 aufgenommenen RAW die Schatten hochzog, war ich beeindruckt, wie gut und verlustfrei das funktionierte. Aufhellen kann ich bei den RAWs aus der OM-D mit ISO 200 auch, so gut aussehen tut's aber nicht. Bei einem anderen Bild, dass mit der Sony A7II mit ISO 800 gemacht wurde, funktionierte das nicht mehr so, da hatte ich den Eindruck, so ähnlich kann es meine wahrscheinlich auch...

bearbeitet von Karen
Link zum Beitrag
Auf anderen Seiten teilen

Ich verstehe wenig davon, kann das aber (empirisch) bestätigen. Als ich im Bildbearbeitungsthread bei einem von Phillips mit ISO 100 aufgenommenen RAW die Schatten hochzog, war ich beeindruckt, wie gut und verlustfrei das funktionierte. Aufhellen kann ich bei den RAWs aus der OM-D mit ISO 200 auch, so gut aussehen tut's aber nicht. Bei einem anderen Bild, dass mit der Sony A7II bei ISO 800 gemacht wurde, funktionierte das nicht mehr so, da hatte ich den Eindruck, so ähnlich kann es meine auch.

 

 

Genau das miene ich auch (A7R) beim Aufhellen und niedrigen ISO mag zwar das Rauschen theoretisch ansteigen, man sieht aber praktisch nichts davon, weil man mit dem Regler irgendwann aufhört, wenn die Farben kippen. Und das schaut dann ebne genaus so gleich aus, wenn man sich das Gesamtbild oder einen Ausschnitt davon anschaut.

 

Das Verbesserungspotential in vielen Diskussionen liegt darin, das man mal genauer darauf achten muss, inwieweit welcher Theorieanteil in der Praxis wirklich noch relevant ist. 

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe es gerade mit einem anderen ARW mit ISO 100 nochmal in LR ausprobiert und sehr dunkle Bereiche aufgehellt. Rauschen tut's dann bei 100% Ansicht schon auch, aber kaum und sehr fein, die Farben sind auch ein wenig flauer, aber trotzdem sehr gut und es sind sehr viele Details erhalten.

 

Jedenfalls lässt sich das Bild tadellos bearbeiten..

bearbeitet von Karen
Link zum Beitrag
Auf anderen Seiten teilen

Puh, kaum mal Luft geschnappt schon wieder 12 andere Posts...

 

Also noch mal zu Nightstalkers Anliegen:

Mit "gleicher Technologie" unterstellen wir beide einen Sensor mit identischen Fotodioden, gleichem Aufbau (egal ob BSI oder nicht, hauptsache identisch) und identischer Signalverarbeitung, gleiche Software etc. im Nachgang. Gleiche "Sensorgeneration", wie häufig argumentiert, genügt hier i.d.R. nicht, da z.B. der (jüngere) Sensor und die Signalverarbeitung einer A7S anders optimiert ist, als der Sensor einer A7R. Relativ sicher könnte man sich also sein, wenn das gleiche Messverfahren anhand ein-und-derselben Kamera sowohl an einem ungecroppten als auch einem gecroppten Bild praktiziert wird.

Vereinfacht gesagt, wird am oberen Ende die Dynamik durch das Clippingverhalten begrenzt, auf das die zusammengefasste Fläche wohl eher vernachlässigbare Auswirkungen hat, obwohl es natürlich auch am oberen Ende noch Rauschen gibt, das nur nicht mehr so auffällig ist. Das spräche also schon mal für Deine These. Am unteren Ende wirkt sich - bezogen auf eine einzelne Fotodiode - in der Tat im Wesentlichen der Signal-/Rauschabstand der Fotodioden darauf aus, ab wann Helligkeitsstufen (oder eher "Dunkelheits-Stufen") nicht mehr eindeutig differenzierbar erscheinen.

Nimmt man das zusammen, könnte man also schließen (und das scheint u.a. Nightstalkers Ansatz zu sein), dass mit jeder Verdoppelung der lichtempfindlichen Fläche (bei Pixeln identischer Eigenschaften also gleichzusetzen mit einer Verdoppelung der Pixelanzahl, die in die Messung eingehen) nach der A/D-Wandelung und Mittelwertbildung ein Bit - und damit eine eindeutig differenzierbare Helligkeitsstufe - hinzugewonnen werden kann. Fasst man also z.B. 1024 Pixel zusammen (was bei einem Sensor heutiger Auflösung im Print immer noch ein recht kleiner Punkt wäre), könnte man in der Theorie allein dadurch schon 10 Bit bzw. 10 EV am unteren Ende hinzugewinnen. Das ist mehr, als die meisten Grafikkarten/Monitor-Kombination (mal abgesehen von sehr neuen Geräten bzw. Monitoren aus dem Profi-Segment) heute insgesamt zwischen "weiß" und "schwarz" differenzieren können, ganz zu schweigen von den üblichen Printern.

Soweit die Theorie. In der Praxis ist das ganze doch etwas komplexer und es greifen schnell eine Reihe weiterer Limits in der anschließenden Signalverarbeitung. Aktuelle Sensoren bzw. deren A/D-Wandler erlauben heute id.R. ein Auslesen mit 14 Bit Tiefe, was also bei einer linearen Kennlinie genügen würde, einen entsprechenden Dynamikumfang zu erfassen. Diverse Bildformate und interne Videoformate von Consumer-Kameras reduzieren das jedoch auf 8 Bit, so dass zunächst die vom Sensor ermöglichte Dynamik komprimiert und später wieder gespreizt werden muss, wodurch Zwischenwerte verloren gehen. Auch diese kann man bei einem gewissen Rauschanteil durch Mittelung über mehrere Pixel (und damit einhergehenden Aulösungsverlust) wieder zurückgewinnen, wenn die Software dazu in der Lage ist, mit höheren Bittiefen zu rechnen. Einfache Bildverarbeitungsprogramme arbeiten jedoch häufig selbst nur mit 8 Bit, bessere mit 16 Bit. Der Ausweitung der Dynamik allein durch Mittelung über mehr Pixel sind also auch da schon wieder Grenzen gesetzt.

 

Allerdings wird das ganze dadurch nochmals komplizierter, dass heutige CMOS-Sensoren keine linearen Kennlinien haben sondern diese im Bereich kurz vor der Sättigung (also kurz vorm Clipping) zunehmend flach verlaufen. Das heißt, dass man, um hier digital unterscheidbare Zwischenstufen zu erhalten, entweder das Signal vorher schon in diesen Bereichen deutlich spreizen muss oder feiner digitalisieren (A/D-Wandeln) muss.

 

Eine ungefähre Idee, was ein Sensor in Rohform so in etwa ausliefert, erhält man, wenn man z.B. die DNGs einer Blackmagic Video-Kamera ohne irgend welche Transformationen betrachtet. Wenn die Aufnahmen "exposed to the right" aufgenommen wurden, erscheinen sie für unsere normale Wahrnehmung vollkommen überbelichtet und eigentlich auch schon hoffnungslos ausgebrannt. Dazu noch total blass im rot und blau Bereich (wegen der unterschiedlichen Anteile in der Ausprägung des Bayer-Patterns) Beispiel:

https://vimeo.com/79231766

 

oder auch hier ca. ab 15:24:

 

 

Das, was also an Dynamik aus einem Sensor herauszuholen ist, hängt auch sehr stark davon ab, was in diesem Bereich kurz vor Sättigung noch differenziert und später wieder zurückgeholt werden kann. In diesem Bereich spielt jedoch der Rauschanteil nur eine sehr untergeordnete Rolle. Sony's Sensoren zeichnen sich insbesondere gegenüber denen von Canon dadurch aus, dass sie speziell das Verhalten in diesem Bereich ausnutzen und optimieren und damit Lichter (zumindest bei Verwendung des RAW Formates) wesentlich mehr Reserven haben, die endgültige Sättigung bzw. das Clipping also erst deutlich später erreicht wird. Durch diese Eigenschaft (bzw, die Spreizung dieses Bereiches) lässt sich insgesamt ein deutlich größerer Dynamikumfang nutzbar machen und der Rauschanteil geht zu einem deutlich geringen Anteil in die gemessenen Werte (die je nach Verfahren auch noch recht deutlich differieren können) ein, als bei der vereinfachten Betrachtung, die einfach nur davon ausgeht, dass man "oben" hart anstößt und allein im unteren Bereich an der Rausch-Schwelle durch Mittelung über größere Flächen noch Dynamik hinzugewonnen werden kann. Dementsprechend ist der Zugewinn an Dynamik allein durch Vergrößerung der Sensorfläche nur gering.

 

Etwas anderes ist es bei der "Sensitivität", um noch mal Wolfgangs Begriff für die Lichtempfindlichkeit aufzugreifen. Hier schaut man tatsächlich primär auf das Rauschverhalten, also die Kennlinie "am unteren Ende" und mittelt dabei allenfalls über eine recht geringe Fläche bzw. eine recht begrenzte, auflösungsbereinigte Anzahl von Pixeln, deren Gewinn bei Mittelwertbildung auch noch im Rahmen der üblichen Berechnungsverfahren realisierbar ist. Da macht sich dann eine Vergrößerung der Fläche entsprechend deutlich bemerkbar.

 

Wer es noch genauer wissen möchte, der sollte hier mal reinschauen:

http://onlinelibrary.wiley.com/doi/10.1002/latj.200790133/pdf

Zitat:

"Die Dynamik eines Sensors wird oft mit dem Signal-Rausch-Verhältnis (SNR) verwechselt. Die maximale Dynamik in einem Bild wird bei vernachlässigbarem elektronischem Rauschen durch die Quantennatur (Poissonverteilung der Photonen) des Lichtes bestimmt. Sie ist in erster Näherung gleich der Wurzel aus der Full-Well-Kapazität (Sättigungsladung), d.h. der maximalen Anzahl von Photoelektronen, die im Potentialtopf der Photodiode eines Pixels gesammelt werden kann"

bearbeitet von 3D-Kraft
Link zum Beitrag
Auf anderen Seiten teilen

Danke für die ausführliche Erklärung! Das weiche Clipping der CMOS-Sensoren und die daraus resultierende höhere nutzbare Dynamik war mir neu. Ein Verständnisproblem habe ich aber noch, wenn ich das auf die praktische RAW-Datenbearbeitung übertragen möchte.

Zur Nutzung der Dynamik kann ich im RAW-Konverter zum einen die Lichter in eingeschränktem Maß zurückholen und in größerem Maß die Tiefen aufhellen. Die Tiefen kann ich soweit aufhellen, bis ein persönlich akzeptables Maß an Rauschen überschritten wird. Aus dieser Praxis heraus kam die Idee, dass die nutzbare Dynamik durch das SNR bestimmt wird (und auch die Rechnungen zu Sensorgröße vs. Ausgabegröße). Was limitiert jetzt am unteren Ende bzw. was für ein Rauschen ist das, kommt das durch die Signalverarbeitung (bzw. eingeschränkte Genauigkeit der Signal- und Bildbearbeitung durch 14 Bit) oder sehe ich die Poissonverteilung der Photonen?

bearbeitet von pizzastein
Link zum Beitrag
Auf anderen Seiten teilen

Danke für die Ausführung

 

 

 

Allgemein sehr hilfreich, aber in dem diskutierten Fall ging es ja darum ob ein Ausschnitt aus dem Kleinbildsensor die gleiche Dynamik hat, wie der Kleinbildsensor voll genutzt.

 

 

 

Dabei gehts also um zwei Sonysensoren, davon ein Kleinbild, der in APS meiner Ansicht nach eine geringere Dynamik bietet als in Kleinbildformat und dann den Vergleich mit einem aktuellen Sony APS Sensor.

 

Der Hintergrund der Diskussion war die Frage, ob ein SEL APS Objektiv an einer Kleinbildkamera Vorteile hat im Vergleich zur Nutzung an einer A6000.

 

 

 

Würdest Du unter den genannten Voraussetzungen immer noch behaupten, dass die Dynamik des APS Ausschnitts nicht geringer sein kann (man muss ihn ja vergrössern) als die Dynamik des Kleinbildformats des gleichen Sensors?

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Allgemein sehr hilfreich, aber in dem diskutierten Fall ging es ja darum ob ein Ausschnitt aus dem Kleinbildsensor die gleiche Dynamik hat, wie der Kleinbildsensor voll genutzt

...

Würdest Du unter den genannten Voraussetzungen immer noch behaupten, dass die Dynamik des APS Ausschnitts nicht geringer sein kann (man muss ihn ja vergrössern) als die Dynamik des Kleinbildformats des gleichen Sensors?

 

Eigentlich steckte die Antwort schon in den Ausführungen. Die Dynamik reduziert sich nur in dem Umfang, wie der Rauschanteil in die Dynamik-Ermittlung eingeht. Das variiert dann schon noch mal wieder je nach Interpretation und Messverfahren. Unterm Strich kann man aber wohl sagen: Ja die Dynamik reduziert sich durch die Betrachtung eines Crops (der ja später wieder auf das gleiche Ausgabeformat hochskaliert werden soll) ein bisschen, aber bei weitem nicht in dem Maße, wie die Reduzierung der Fläche es erwarten lassen würde. Also: "Sensitivtät" != Dynamik.

Link zum Beitrag
Auf anderen Seiten teilen

Eigentlich steckte die Antwort schon in den Ausführungen. Die Dynamik reduziert sich nur in dem Umfang, wie der Rauschanteil in die Dynamik-Ermittlung eingeht. Das variiert dann schon noch mal wieder je nach Interpretation und Messverfahren. Unterm Strich kann man aber wohl sagen: Ja die Dynamik reduziert sich durch die Betrachtung eines Crops (der ja später wieder auf das gleiche Ausgabeformat hochskaliert werden soll) ein bisschen, aber bei weitem nicht in dem Maße, wie die Reduzierung der Fläche es erwarten lassen würde. Also: "Sensitivtät" != Dynamik.

 

Und (bei gleicher Sensortechnologie) Sensitivität != Pixelgröße?

Link zum Beitrag
Auf anderen Seiten teilen

  • 3 months later...

Danke für die ausführliche Erklärung! Das weiche Clipping der CMOS-Sensoren und die daraus resultierende höhere nutzbare Dynamik war mir neu. Ein Verständnisproblem habe ich aber noch, wenn ich das auf die praktische RAW-Datenbearbeitung übertragen möchte.

Zur Nutzung der Dynamik kann ich im RAW-Konverter zum einen die Lichter in eingeschränktem Maß zurückholen und in größerem Maß die Tiefen aufhellen. Die Tiefen kann ich soweit aufhellen, bis ein persönlich akzeptables Maß an Rauschen überschritten wird. Aus dieser Praxis heraus kam die Idee, dass die nutzbare Dynamik durch das SNR bestimmt wird (und auch die Rechnungen zu Sensorgröße vs. Ausgabegröße). Was limitiert jetzt am unteren Ende bzw. was für ein Rauschen ist das, kommt das durch die Signalverarbeitung (bzw. eingeschränkte Genauigkeit der Signal- und Bildbearbeitung durch 14 Bit) oder sehe ich die Poissonverteilung der Photonen?

 

http://workupload.com/file/nZLDRc0Q

 

Der Link ist 30 Tage ab heute 23.10.15 gültig.

Link zum Beitrag
Auf anderen Seiten teilen

cooool !!!

 

das ist jetzt in ganz ironiefreies Lob.

 

Hier werden zwar teilweise die Grenzen meines

Wissens überschritten, und ich muß Sachen nachlesen

oder verstehe sie nicht ganz, aber die Art hier, eine Fragestellung

vorurteilsfrei und analytisch anzugehen finde ich wunderbar.

 

Mein dank an alle die hier sauber und sachlich beitragen.

Link zum Beitrag
Auf anderen Seiten teilen

Etwas zu loben, ohne es zu verstehen? Welch eine Erkenntnis!

 

wenn man alles gleich verstehen würde, bräuchte man keine Erklärung ;) und könnte es sich selbst zusammenreimen.

 

Ich musste da auch einiges nachschlagen, aber es hört sich definitiv fundiert an.

 

 

Wenn das mit dem grossen Sensor gecropt wirklich mehr Dynamik ergeben würde, als bei einem kleinen Sensor, dann würde ich den Firmen vorschlagen, einfach den mittleren Teil des A7RII Sensors nachzubauen, den Rand wegzulassen und das in APS Gehäusen zu verkaufen ... Dynamikrekorde sind damit sichergestellt. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Ich bin technisch ungebildet, glaube jedoch, im Laufe der Jahre folgende Beobachtungen gemacht zu haben:

 

o je grösser der Sensor, desto höher die Dynamik

o je höher die ISO, desto geringer die Dynamik

o je mehr Pixel pro Sensorfläche, desto geringer die Dynamik und desto grauslicher die ISO Performance

 

1 je grösser der Sensor, desto höher die Dynamik:

   Nicht zwingend - vergleiche doch mal die Dynamikwerte der KB-Canons mit jenen der führenden

   mFT- Modellen ...

 

2 je höher die ISO, desto geringer die Dynamik

   Ja - unabhängig von der Sensorgrösse

 

3 je mehr Pixel pro Sensorfläche, desto geringer die Dynamik und desto grauslicher

   die ISO Performance

   Stimmt i.d.R. bei ansonsten identischer Sensor- und Signalverarbeitungstechnik, d.h. der  

    Zusammenhang ist keineswegs zwingend.

   

    Die Sony A7rII mit 42MP hat eine höhere Dynamik und einen besseren Signal-Rauschabstand

    als z.B. die Nikon D700 mit 12MP ...

    D.h. mehr Pixel bedeuten nicht unbedingt weniger Dynamik und mehr Rauschen, bis zu einer

    bestimmten physikalisch bedingten Grenze allerdings.

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...