Jump to content

Fragen zum High Res Modus bei Olympus


Recommended Posts

Werbung (verschwindet nach Registrierung)

Ich habe zur Zeit ein Streitgespräch mit einem bekannten Kamerabuchautor über den High Res Modus bei Olympus.

Es geht um den High Res Modus vom Stativ aus, es werden 8 Einzelaufnahmen jeweils um 0.5 Pixel verschoben erstellt und dann zu einem Bild mit 50 MP (RAW 80 MP) zusammengefügt.

Dabei wird vom Buchautor bestritten, dass sich die Detailauflösung durch den High Res Modus erhöhe, es bleibe bei einer Auflösung von 20 MP, es sei nur eine Interpolation, eine höchst komplexe Rechnerei unter Berücksichtigung von Schärfungs-Algorithmen, Moire-Effekten und Geisterbildern. Es sei mehr Kontrast, eine bessere Farbwiedergabe zu erkennen, aber keine zusätzlichen Details.

Deshalb würden auch keine besonderen Anforderungen an das Auflösungsvermögen der Objektive im High Res Modus im Vergleich zu normalen Aufnahmen gestellt.

Das deckt sich nicht mit meinen Erfahrungen, ich sehe einen deutlichen Gewinn an Detailauflösung und auch große Unterschiede zwischen mittelmäßigen Objektiven und Spitzenoptiken bei HighRes. Ich kann es aber von der technischen Seite her nicht so gut erklären, was die Subpixelverschiebung um 0.5 Pixel je Aufnahme für einen Effekt auf die erreichbare Auflösung hat.

Bei Vergleichen auf dpreview (Studio Scene - Image comparison tool) zwischen einer E-M1 Mk II, E-M1X oder III im HighRes Modus und VF-Kameras scheint mir die Auflösung ähnlich zu einem 40 MPix Sensor zu sein, aber wie gesagt das genau technisch berechnen kann ich nicht.

Wie seht ihr das? Gab es mal eine offizielle Erläuterung von Olympus dazu? Habt ihr da mehr technische Kenntnisse als ich?

Edited by x_holger
vertippt
Link to post
Share on other sites

  • Replies 338
  • Created
  • Last Reply

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Wie erklärt er denn die grösseren Files?

Einfach reinzoomen sollte es übrigens auch beweisen, am besten bei einem Testchart.

Guckst du hier

https://petapixel.com/2015/02/21/a-practical-guide-to-creating-superresolution-photos-with-photoshop/

https://en.wikipedia.org/wiki/Super-resolution_imaging

https://en.wikipedia.org/wiki/Oversampling

Edited by wasabi65
Link to post
Share on other sites

vor 35 Minuten schrieb x_holger:

Dabei wird vom Buchautor bestritten, dass sich die Detailauflösung durch den High Res Modus erhöhe, es bleibe bei einer Auflösung von 20 MP, es sei nur eine Interpolation, eine höchst komplexe Rechnerei unter Berücksichtigung von Schärfungs-Algorithmen, Moire-Effekten und Geisterbildern. Es sei mehr Kontrast, eine bessere Farbwiedergabe zu erkennen, aber keine zusätzlichen Details.

Vor einiger Zeit hatte ich mal eine Zeichnung zur Erklärung gemacht. Stell Dir vor, es gibt einen Helligkeitsverlauf im Motiv (blau), der zu klein ist, um von den Pixeln auf dem Sensor erfasst zu werden:

Die Pixel "sehen" das feine Detail nicht, sondern nur eine mittlere Helligkeit (grün). Bei einer Verschiebung von einem halben Pixel wird das Detail erkannt (rot):

Link to post
Share on other sites

vor 40 Minuten schrieb x_holger:

Ich habe zur Zeit ein Streitgespräch mit einem bekannten Kamerabuchautor über den High Res Modus bei Olympus.

Es geht um den High Res Modus vom Stativ aus, es werden 8 Einzelaufnahmen jeweils um 0.5 Pixel verschoben erstellt und dann zu einem Bild mit 50 MP (RAW 80 MP) zusammengefügt.

Dabei wird vom Buchautor bestritten, dass sich die Detailauflösung durch den High Res Modus erhöhe, es bleibe bei einer Auflösung von 20 MP, es sei nur eine Interpolation, eine höchst komplexe Rechnerei unter Berücksichtigung von Schärfungs-Algorithmen, Moire-Effekten und Geisterbildern. Es sei mehr Kontrast, eine bessere Farbwiedergabe zu erkennen, aber keine zusätzlichen Details.

Deshalb würden auch keine besonderen Anforderungen an das Auflösungsvermögen der Objektive im High Res Modus im Vergleich zu normalen Aufnahmen gestellt.

Das deckt sich nicht mit meinen Erfahrungen, ich sehe einen deutlichen Gewinn an Detailauflösung und auch große Unterschiede zwischen mittelmäßigen Objektiven und Spitzenoptiken bei HighRes. Ich kann es aber von der technischen Seite her nicht so gut erklären, was die Subpixelverschiebung um 0.5 Pixel je Aufnahme für einen Effekt auf die erreichbare Auflösung hat.

Bei Vergleichen auf dpreview (Studio Scene - Image comparison tool) zwischen einer E-M1 Mk II, E-M1X oder III im HighRes Modus und VF-Kameras scheint mir die Auflösung ähnlich zu einem 40 MPix Sensor zu sein, aber wie gesagt das genau technisch berechnen kann ich nicht.

Wie seht ihr das? Gab es mal eine offizielle Erläuterung von Olympus dazu? Habt ihr da mehr technische Kenntnisse als ich?

OT- Frage: Schreibt er an einem Buch über die M1 Mk III, das wir bald in die Hände bekommen?

Zu deiner Frage: Das sollte doch empirisch ermittelbar sein, ob der High Res.- Modus tatsächlich higher resolution bringt ...

Link to post
Share on other sites

Hier befindet sich die Diskussion dazu, ich möchte jetzt aber nicht als Klick-Bait dienen ... eigentlich ist schon ausreichend, was ich oben dazu berichtet habe.

https://oly-e.fotografierer.com/?q=node/3415

und das war der Artikel zu High Res bei der E-M1X im letzten Jahr https://pen-and-tell.de/2019/04/der-highresshot-der-e-m1x/

Da die Corona-Epidemie das Fotografieren gerade erschwert, läd das natürlich zu Grundsatzdiskussionen ein.

Ich habe auch mal offiziell bei Olympus angefragt.

Edited by x_holger
ergänzt
Link to post
Share on other sites

Es ging auch um die Frage, ob der High Res Modus höhere Anforderungen an das Auflösungsvermögen der Objektive stellt, als der Normalmodus.

Aus meiner Erfahrung heraus würde ich das bejahen, es gibt auch systematische Beispielaufnahmen dazu https://www.wrotniak.net/photo/m43/em1.2-hires.html

Da kam dann aber als Antwort, das das nicht stimme und wrotniak unseriös sei.

Link to post
Share on other sites

Ich glaube hier verwechselt er zwei Sachen:

Wrotniak zeigt, was der HighRes-Shot macht: Er definiert vorhandene Details besser. Wenn die Optik mehr Details liefert, können die auch besser definiert werden. Was der HighResShot nicht macht, ist Details zu liefern, die der normale Shot nicht zeigt. Das geht auch nicht, weil ja nie mehr als 20MP abgebildet werden.

Wenn die Bilder genau die gleichen Stellen abtasten würden dann hätte er recht. Das macht der HiRes Shot aber nicht. Denn es sind effektiv andere Bildteile erfasst. Natürlich kommt bei 0.5 px verschobenen Bildern nicht viel mehr Information rein, aber etwas ist es schon. Sonst könnte man nicht "vorhanden Details" besser abbilden...

Link to post
Share on other sites

vor 3 Minuten schrieb wasabi65:

Wenn die Bilder genau die gleichen Stellen abtasten würden dann hätte er recht. Das macht der HiRes Shot aber nicht. Denn es sind effektiv andere Bildteile erfasst. Natürlich kommt bei 0.5 px verschobenen Bildern nicht viel mehr Information rein, aber etwas ist es schon. Sonst könnte man nicht "vorhanden Details" besser abbilden...

So sehe ich das auch, anhand der Studio Scene bei dpreview schätze ich, dass der High Res Shot im Stativ Modus so viele Auflösungsdetails wie ein 36-40 MPix Sensor liefert.

Das sind zwar keine 50 MPix aber doch schon deutlich mehr als 20 MPix

Link to post
Share on other sites

Das mit der besseren Farbauflösung hat er ja auch bestätigt .... aber das wäre ja auch bei einer Multi-Shot Aufnahme ohne Pixelshift der Fall.

Die Verbesserung der Detailauflösung bestreitet er vehement.

Edited by SKF Admin
Zitat entfernt
Link to post
Share on other sites

Das Problem hat rein gar nichts mit dem High-Res-Modus, Objektivauflösungen oder ähnlichem technischen Firlefanz zu tun, das Problem ist die Realität und unsere Wahrnehmung davon. Die ist nicht auf die Leistungsbeurteilung von optischen Systemen hin optimiert und verwirrt uns daher mit einem Mangel an klaren Trennungen und eindeutigen Ergebnissen, so dass sich fast für alles praktische Beispiele finden lassen, die vehement vorgetragene Meinungen stützen. Allein richtig werden sie dadurch nicht.

Soll heißen, es reicht nicht sich Beispiele anzuschauen und daraus Schlussfolgerungen zu ziehen, wenn nicht auch das dahinterstehende System betrachtet und seine Logik verstanden wird. Wenn wir einen Sensor hätten, bei dem sich die aktive Pixelfläche und der passive Pixelzwischenraum in gleicher Größe abwechseln, ähnlich einem Schachbrett, und wir dann per Pixelshift den Sensor jeweils um den Faktor 1 verschieben, dann könntem an das Bild nicht nur sofort zusammensetzen, sondern es würde auch klar werden, dass sich die Auflösung linear verdoppelt hätte. Zum Glück, für unsere theoretische Betrachtung aber leider, haben wir einen Sensor, bei dem das nicht der Fall ist. Die Pixel werden beim Pixelshift auch nicht künstlich verkleinert, vielmehr werden Überlappungen erzeugt. Die erlauben uns nicht, das fertige Bild einfach direkt zusammen zu setzen, sondern machen es notwendig, dieses aus den Daten zu interpolieren - ähnlich wie schon die Farbauflösung bei einer Bayer-Matrix. 

Bloß endet die Betrachtung an dieser Stelle nicht, weil "interpolieren" nicht einfach "erfinden" bedeutet, und das interpolierte Bild aus definierten Informationen besteht. Ob Details nun besser definiert werden oder neue Details dadurch erst dargestellt werden - in beiden Fällen ist es das Resultat einer höheren Auflösung, und beides ist natürlich möglich. Aus den Eingangs geschriebenen Gründen ist ersteres wahrscheinlicher, aber noch mal, auch das bedeutet höhere Auflösung.

Damit ergibt sich die Frage, wer diese Informationen definiert. Und da landen wir dann zwangsläufig wieder beim Objektiv. Solange das optische System fixiert ist und der zeitliche Faktor eine zu vernachlässigende Rolle spielt ändert sich die durch das Objektiv erzeugte Abbildung nicht, es können sich also nie mehr reale Informationen im Bild wiederfinden lassen als von dem Objektiv erzeugt werden. Damit also durch Pixelshift die Details besser definiert und unter Umständen neue Details sichtbar werden, muss das Objektiv diese liefern. Kann es das nicht, so enthält auch das interpoliert lediglich eine höher aufgelöste Unschärfe.

Und damit lande ich wieder beim ersten Absatz. Da es in der Realität keine Trennungen gibt, sondern nur Übergänge, da keine Abbildung perfekt und die Fläche nicht homogen ist, da das subjektive Empfinden sich von der objektiven Realität unterscheidet und Interpolation mit zunehmender Rechenleistung immer mehr bedeutet, ist eine Diskussion darüber, wie real Details nun wirklich sind, wie groß der Gewinn ausfällt, wie sehr er sich von einer anderen Kamera mit einem anderen Objektiv oder auch nur einem anderen Aufnahmeverfahren unterscheidet, müßig. Mit steigender Rechenleistung verbessert sich auch die Interpolation, dadurch kann sich auch das Ergebnis ändern - das war aber schon immer so, wird immer so sein (solange man sie verwendet), und ändert am Grundsätzlichen gar nichts. 

PS: Ich habe es bewusst vereinfacht formuliert, weil ich nichts davon halte, es unnötig kompliziert zu machen.

Edited by Helios
Link to post
Share on other sites

Man könnte es auch unter dem Aspekt sehen, dass ein MFT Sensor ein Viertel der Größe eines VF Sensors hat, das bedeutet, ein VF Sensor müsste dann 80 MP haben um sich mit dem MFT zu vergleichen was Details betrifft.
Hat zwar nicht direkt was mit der angesprochenen Problematik zu tun aber man sollte es nicht vergessen.

Link to post
Share on other sites

vor 1 Stunde schrieb x_holger:

Es ging auch um die Frage, ob der High Res Modus höhere Anforderungen an das Auflösungsvermögen der Objektive stellt, als der Normalmodus.

Aus meiner Erfahrung heraus würde ich das bejahen, es gibt auch systematische Beispielaufnahmen dazu https://www.wrotniak.net/photo/m43/em1.2-hires.html

Da kam dann aber als Antwort, das das nicht stimme und wrotniak unseriös sei.

Dass es keine höheren Anforderungen an die Objektive stellt müsste ja zutreffend sein, da die Einzelaufnahmen ja tatsächlich auch nur 20 mpx haben. Die Verrechnung der Einzelaufnahmen bringt dann den Detailgewinn. Ob der wie Olympus behauptet, jeweils bei den theoretischen 50 bzw. 80 mpx ist, ist eine andere Frage, aber den Detailgewinn habe ich bei meinen Versuchen auch festgestellt, allerdings auch erst nach stärkerer Schärfung der RAW Bilder als bei der Standard 20 mpx Auflösung üblich.

Link to post
Share on other sites

Es ist auch so, wenn ein Bild höhere, physikalische Auflösung hat, kann man es auch besser sehen.
Interessant in dem Zusammenhang ist dieses Video.

 

Link to post
Share on other sites

vor einer Stunde schrieb Helios:

....Bloß endet die Betrachtung an dieser Stelle nicht, weil "interpolieren" nicht einfach "erfinden" bedeutet, und das interpolierte Bild aus definierten Informationen besteht. Ob Details nun besser definiert werden oder neue Details dadurch erst dargestellt werden - in beiden Fällen ist es das Resultat einer höheren Auflösung, und beides ist natürlich möglich. Aus den Eingangs geschriebenen Gründen ist ersteres wahrscheinlicher, aber noch mal, auch das bedeutet höhere Auflösung.

Damit ergibt sich die Frage, wer diese Informationen definiert. Und da landen wir dann zwangsläufig wieder beim Objektiv. Solange das optische System fixiert ist und der zeitliche Faktor eine zu vernachlässigende Rolle spielt ändert sich die durch das Objektiv erzeugte Abbildung nicht, es können sich also nie mehr reale Informationen im Bild wiederfinden lassen als von dem Objektiv erzeugt werden. Damit also durch Pixelshift die Details besser definiert und unter Umständen neue Details sichtbar werden, muss das Objektiv diese liefern. Kann es das nicht, so enthält auch das interpoliert lediglich eine höher aufgelöste Unschärfe.....

Das habe ich auch so anhand meiner eigenen Versuche mit dem High Res Modus wahrgenommen.

Das Objektiv muss die höhere Auflösung auch liefern können. Das bedeutet zum Beispiel auch, dass ich bei mFT noch stärker auf Beugungseffekte  und auf die Abbildungsgüte der Objektive achten muss.

Ein 1.2/45 Pro abgeblendet auf F2 erreicht eine wesentlich höhere Schärfe im High Res Modus als ein 4-5.6/14-150 auf F5.6 oder 8 bei 45mm abgeblendet.

Im Normalmodus mit 20 MPix fällt das viel weniger auf. Das kann jeder auch mal zuhause ausprobieren.

Link to post
Share on other sites

Und wenn der besagte Kamerabuchautor, dann mit einem 40-150  Vergleichaufnahmen mit Normalmodus und High Res Modus erstellt und keinen Zuwachs an Detailschärfe feststellt, dann kann es sich ja auch um einen systematischen Fehler beim Testaufbau, bei der Wahl der förderlichen Blende, ungeeignetes Motiv, etc. handeln .....

Edit: er hat im Text nicht angegeben, welches Objektiv benutzt wurde, ob es das 2.8/40-150 Pro oder das 4-5.6/40-150 war, in den ausgelesenen Metadaten lese ich Blende 4.5 mit wechselnden Belichtungszeiten

Wird bei Blende 4.5 eine High Res Aufnahme an einer E-M1X schon durch Beugung stärker beeinträchtigt?

Edited by x_holger
ergänzt
Link to post
Share on other sites

vor 13 Minuten schrieb fotografski:

Es ist auch so, wenn ein Bild höhere, physikalische Auflösung hat, kann man es auch besser sehen.
Interessant in dem Zusammenhang ist dieses Video.

Ich mag und schätze Martin Krolop, aber das Video ist eher verwirrend als klärend. Da schmeißt er so viele Begriffe (Unschärfe, optische Fehler, Beugungsunschärfe) durcheinander, dass man den – validen – Punkt, an dem er recht hat, mühsam suchen muss.

Das hat @Helios hier mit einfacheren Worten besser erklärt.

Andreas

Link to post
Share on other sites

Eine große Bitte, nachdem ich einen Beitrag löschen musste:

Zitate aus urheberrechtlich geschützten Werken sind nur in sehr engen Grenzen erlaubt. Es gibt keine klare Längenbegrenzung, aber die Anforderung, dass man sich mit dem Zitat aktiv auseinander setzen muss.

Wenn Zitat, dann bitte nur sehr begrenzt und mit einem Beitrag, der sich mit dem Inhalt aktiv auseinander setzt. „Guck mal hier“ oder „sehe ich auch so“ sind nicht ausreichend ;)

Und eine Quellenangabe gehört dann auch zum guten Ton (ist aber kein Ersatz für fehlende Nutzungsrechte)

Gruß
Andreas

Link to post
Share on other sites

vor 3 Stunden schrieb SKF Admin:

Zitate aus urheberrechtlich geschützten Werken sind nur in sehr engen Grenzen erlaubt. Es gibt keine klare Längenbegrenzung, aber die Anforderung, dass man sich mit dem Zitat aktiv auseinander setzen muss.

Wenn Zitat, dann bitte nur sehr begrenzt und mit einem Beitrag, der sich mit dem Inhalt aktiv auseinander setzt. „Guck mal hier“ oder „sehe ich auch so“ sind nicht ausreichend

Sorry - wie lange sollte dann das Zitat sein?

Link to post
Share on other sites

vor 5 Stunden schrieb Helios:

Bloß endet die Betrachtung an dieser Stelle nicht, weil "interpolieren" nicht einfach "erfinden" bedeutet, und das interpolierte Bild aus definierten Informationen besteht. Ob Details nun besser definiert werden oder neue Details dadurch erst dargestellt werden - in beiden Fällen ist es das Resultat einer höheren Auflösung, und beides ist natürlich möglich. Aus den Eingangs geschriebenen Gründen ist ersteres wahrscheinlicher, aber noch mal, auch das bedeutet höhere Auflösung.

Da 8 Bilder verrechnet werden und weil wohl nicht das erste mehr Gewicht hat als die späteren, kann man sich schon denken, dass bei jedem Schritt mehr Details dazukommen. Und weil sie ja aus einem neuen Bild kommen, wird auch nichts „erfunden“ sondern eben genau wie du sagst das Gesamtergebnis zu einem Endbild gerechnet, das eben mehr Information enthält als jedes Einzelbild. Leider halt halt nicht so einfach und linear.

Link to post
Share on other sites

Kameras mitr HiRes nutze ich nun schon etliche Jahre, und habe dazu auch schon etliche Tests gemacht. Nach meinen Erfahrungen gibt es einen deutlichen Gewinn an Details bei den HiRes-Aufnahmen. Das Problem bei vielen Bildern ist einfach, dass die Strukturen gar nicht so fein sind, als dass die Bilder davon großartig profitieren. Aber wenn es entsprechend feine Strukturen gibt, dann sind die Unterschiede sehr deutlich erkennbar.

Hier mal ein Praxis-Beispiel:

links das Hires, rechts ein Einzelbild.

Die Fenster der Glashütte haben ein in der Gesamtansicht gar nicht erkennbares Drahtgitter in den Scheiben, das ist mir nicht mal direkt vor Ort aufgefallen.

Hier mal ein Detail-Ausschnitt, links das Hires 1:1, rechts das Einzelbild auf gleiche Größe scaliert (also 2:1):

 

Im Hires-Bild sind die Gitterstrukturen in allen Fenstern deutlich zu erkennen, egal ob im Schatten oder in der Sonne.  Im Einzelbild sind die Strukturen bestenfalls zu erahnen. Ich habs mit aufwändigen Scalern versucht - keine Chance, die Gitterstruktur ist durch Upscaling einfach nicht zu rekonstruieren.

Bei den Bildern handelt es sich um unbearbeitete RAW-Dateien, also noch nichts geschärft etc.

Wie hoch die Auflösung des HiRes letztlich ist kann ich schlecht beurteilen. Von DXO-Labs gibt es einen Ansatz, die tatsächlich erzielbare Auflösung einer Kamera-Objektiv-Kombination zu erfassen (Perceptual Megapixel). Diesem synthetischen Wert stehen viele skeptisch gegenüber, für mich waren die Werte in dem, was die getesteten Objektive letzlich an Schärfe lieferten, immer sehr gut nachvollziehbar. 

Aus dem Ansatz von DXO konnte man aber auch erkennen, dass selbst die besten MFT-Objektive nicht die 20MP der Sensoren abbilden können, vermutlich der extremen Pixeldichte geschuldet. Selbst  bei KB-Objektiven gab es zum damaligen Zeitpunkt auch nur ganz wenige Objektive, die die  Auflösungen der zu dem Zeitpunkt verfügbaren Kameras 32-40MP nahezu vollständig abbilden konnten.

Inzwischen gibt es höher auflösende Kameras, aber auch bei den Objektiven hat sich einiges getan, auch für MFT gibt es einige neue Objektive mit hoher Güte. Leider hat DXO die Messung von MFT-Objektiven eingestellt, daher macht diese Plattform inzwischen kaum noch Sinn für MFT-Nutzer.

Wenn man mal von dem Maximum von tatsächlich durch die Objektive abgebildeten 16MP bei MFT (Stand 2017) ausgeht, dann könnte die HiRes-Auflösung tatsächlich auch nur max. 64MP betragen. Bei den meisten Objektiven dürfte das noch deutlich darunter liegen, also eher irgendwo zwischen 40 und 60MP dürften realistisch erreichbar sein.

 

Bleibt die Frage nach dem Sinn. Wirklich mit einem positiven Effekt ist das eigentlich nur, wenn man extrem groß drucken will, oder am PC in die Detail-Betrachtung durch reinzoomen geht. Für "normale" Fotos und deren Betrachtung ist der Nutzen der hohen Auflösungen meiner Meinung nach relativ gering, auch wenn so hoch aufgelöste Bilder durchaus ihren Reiz haben. Ist halt toll, was inzwischen so alles geht.

 

lg Peter

Link to post
Share on other sites

vor 5 Stunden schrieb tgutgu:

…...aber den Detailgewinn habe ich bei meinen Versuchen auch festgestellt, allerdings auch erst nach stärkerer Schärfung der RAW Bilder als bei der Standard 20 mpx Auflösung üblich.

Das kann ich bei den HiRes G9 Aufnahmen nicht bestätigen. Bei gleicher RAW Entwicklung zeigt das HiRes Bild mehr Details und ein sehr cleanes Bild.

Ich setze HiRes ein bei:

Nahaufnahmen incl. HiRes Stacks von 2 Aufnahmen via PS

Wasserfälle, Bachläufe mit ND Filter (1 Sek. HiRes liefert Ergebnisse wie eine Normalaufnahme mit etwa 7 Sek., jedoch mit mehr Details im Wasserlosen Bereich)

Landschaft

Astro Versuche mit 1 Sek. waren vielversprechend (rauscharm und Reserven in den Lichter

Nachtaufnahmen

Gegenlichtaufnahmen sind weniger zielführend.

Als Objektive verwende ich meist das f/2.8 200 mm und f/1.7 10-25 mm.

 

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
 Share

  • Wir freuen uns über neue Mitglieder!

    Andreas, der AdminMein Name ist Andreas, und ich bin der Gastgeber hier. Wenn du Fragen hast, kannst du mich gerne jederzeit ansprechen!

    Wir haben eine Menge zu bieten:

    Wir freuen uns auf Dich!

×
×
  • Create New...