Jump to content

Empfohlene Beiträge

vor 3 Stunden schrieb cosmovisione:

Ich möchte hier mal kurz erläutern, warum ich die 42MP meiner erst vor kurzem gekauften A7R II ganz hervorragend finde, obwohl mir klar ist, dass ein fertiges Bild kaum mehr als 15 Megapixel zu haben braucht, wenn man es wie ein Mensch und nicht wie eine gerade auf dem Bild gelandete Stubenfliege betrachten will.
...

Cosmovisione,
ich teile deine Aussagen NICHT und das deshalb, weil ein Skalieren immer eine komplett neue Bildinformation aufbaut und diese muss nicht besser sein, kann jedoch in manchen Bereichen besser sein.
Vereinfachte Beispiele für 'besser' und 'schlechter':
(Ich vernachlässige das Bayer-Muster und tue so als lägen hoch-farbgenaue Pixel nebeneinader.)
1. Ich stelle mir ein Quadrat vor mit 2 x 2 Pixeln. Die linken beiden sind schwarz, die rechten beiden weiß. Wenn ich dieses Quadrat zu einem Pixel verrechne, kommt ein graues Pixel heraus. Die Kontur wird wesentlich unschärfer als beim Original --> Skalierung verschlechtert!
2. Ich habe einen relativ monotonen Pixelhaufen. Darin sind zB rauschverfärbte Pixel bzw Häufen. Eine Verrechnung harmonisiert den Haufen --> Skalierung verbessert!

Nun zur Praxis:
Meine Fotos sind original 6000 x 4000 px, ich beschneide IMMER auf 16:9, weil mein Haupt-Betrachtungsmedium Fernseher sind.
Meinem Familien- und Freundeskreis stelle ich Alben via dropbox in HD zur Verfügung, in die stick-PCs an meinen TVs lade ich die Fotos in 4K.
Für das ein oder andere Foto hier im Forum vergewaltige ich das Foto auf 1280 x 720 px und als Einzelbild auf 1 MB (und ich glaube, das ist für das neue SKF immer noch zu groß).
Sprich ich skaliere fast jedes meiner Fotos zumindest auf HD und 4K.
Das schlechteste Skalierungsergebnis liefert Lightroom. Ich verwende IrfanView64, das erscheint mir von den mir bekannten Programmen am besten geeignet.
TOP ist ein Sonderfall, das verwende ich nur für einzelne Fotos, die ich hier in SKF zeige. Sonst interessiert mich dieses Programm nicht.
ES GIBT NICHTS BESSERES FÜR MICH ALS EINEN CROP AUS DEM ORIGINAL AUF DIE ABMESSUNGEN DES ZIELMEDIUMS - sprich ein 1:1 ohne Skalierung.
Ich habe früher Schwarzbilder und Hochkontrastbilder gemacht in all den Formaten die ich verwende (Merrill, KB, APS-C, 1", 2/3") und versucht, das technisch optimale Bild für mein Equipment zu finden.
Ich habe es nicht geschafft! Mein KB-Sensor (in der RX1) ist alt, der APS-C in der 6500 wohl noch state-of-the-art. Der Unterschied BEI MEINEN STANDARDSITUATIONEN ist marginal (und zB nur im Wolkenbild erkennbar). Die TVs sind das schwächste Glied der Kette und vermantschen alles ziemlich gleich, sie sind jedoch mein Standard human interface.

Conclusio:
Ich freue mich auch, wenn ich aus den Merrills einen Crop raushole, der KB-Qualität hat - aber das Croppen ist für mich der einzige, wirklich einzige Vorteil von so Pixelgiganten. (Und mich wundert es sehr, wie die Hersteller es schaffen, diese Mini-Pixel auf der immer gleichen KB-Fläche so toll voneinander zu entkoppen;-)

Link zum Beitrag
Auf anderen Seiten teilen

ich staune immer wieder darüber, dass von Forenten, die scheinbar wirklich was von der Sache verstehen, mit großem Aufwand und vielen Details völlig unterschiedliche Darstellungen und Bewertungen desselben technischen Sachverhaltes abgegeben werden. 

Ich kann mangels technischer Kenntnisse nicht beurteilen, was richtig ist (und häufig ist es mir auch egal), aber ich hätte erwartet, dass solche technischen Kenntnisse zu einer gemeinsamen Bewertung physikalischer Sachverhalte führen. Denkste!

Wie sagt man so schön: zwei Physiker, drei Meinungen!
Ach nee, das waren die Juristen😋

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb kleinw:

Ich vernachlässige das Bayer-Muster und tue so als lägen hoch-farbgenaue Pixel nebeneinader.

Da beschreibst Du aber eine Annahme, die für die meist üblichen Bayer-Sensore nicht gilt... Für die A7RIV (und auch schon den Vorgänger) gibt es extra eine Funktion, die vier Bilder macht und verrechnet, um die Bayer-Matrix auszugleichen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb Atur:

ist das so? ich habe auch schon das Gegenteil gelesen (RAW immer 61 MP, jpegs variabel) 
wichtiger Punkt, denn immer zu 61 MP gewzungen zu sein wäre furchtbar. Das ist für mich ein Ausschlusskriterium.

wie ist das bei der R III?

Tony sagt, dass genau das fehlt, dass die R IV also keine unterschiedlichen RAW-Größen erlaubt, ca. bei 14:00

kann man das per FW-update nachrüsten?

 

bearbeitet von Atur
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 2 Stunden schrieb kleinw:

Cosmovisione,
ich teile deine Aussagen NICHT und das deshalb, weil ein Skalieren immer eine komplett neue Bildinformation aufbaut und diese muss nicht besser sein, kann jedoch in manchen Bereichen besser sein.
Vereinfachte Beispiele für 'besser' und 'schlechter':
(Ich vernachlässige das Bayer-Muster und tue so als lägen hoch-farbgenaue Pixel nebeneinader.)
1. Ich stelle mir ein Quadrat vor mit 2 x 2 Pixeln. Die linken beiden sind schwarz, die rechten beiden weiß. Wenn ich dieses Quadrat zu einem Pixel verrechne, kommt ein graues Pixel heraus. Die Kontur wird wesentlich unschärfer als beim Original --> Skalierung verschlechtert!
2. Ich habe einen relativ monotonen Pixelhaufen. Darin sind zB rauschverfärbte Pixel bzw Häufen. Eine Verrechnung harmonisiert den Haufen --> Skalierung verbessert!

Nun zur Praxis:
Meine Fotos sind original 6000 x 4000 px, ich beschneide IMMER auf 16:9, weil mein Haupt-Betrachtungsmedium Fernseher sind.
Meinem Familien- und Freundeskreis stelle ich Alben via dropbox in HD zur Verfügung, in die stick-PCs an meinen TVs lade ich die Fotos in 4K.
Für das ein oder andere Foto hier im Forum vergewaltige ich das Foto auf 1280 x 720 px und als Einzelbild auf 1 MB (und ich glaube, das ist für das neue SKF immer noch zu groß).
Sprich ich skaliere fast jedes meiner Fotos zumindest auf HD und 4K.
Das schlechteste Skalierungsergebnis liefert Lightroom. Ich verwende IrfanView64, das erscheint mir von den mir bekannten Programmen am besten geeignet.
TOP ist ein Sonderfall, das verwende ich nur für einzelne Fotos, die ich hier in SKF zeige. Sonst interessiert mich dieses Programm nicht.
ES GIBT NICHTS BESSERES FÜR MICH ALS EINEN CROP AUS DEM ORIGINAL AUF DIE ABMESSUNGEN DES ZIELMEDIUMS - sprich ein 1:1 ohne Skalierung.
Ich habe früher Schwarzbilder und Hochkontrastbilder gemacht in all den Formaten die ich verwende (Merrill, KB, APS-C, 1", 2/3") und versucht, das technisch optimale Bild für mein Equipment zu finden.
Ich habe es nicht geschafft! Mein KB-Sensor (in der RX1) ist alt, der APS-C in der 6500 wohl noch state-of-the-art. Der Unterschied BEI MEINEN STANDARDSITUATIONEN ist marginal (und zB nur im Wolkenbild erkennbar). Die TVs sind das schwächste Glied der Kette und vermantschen alles ziemlich gleich, sie sind jedoch mein Standard human interface.

Conclusio:
Ich freue mich auch, wenn ich aus den Merrills einen Crop raushole, der KB-Qualität hat - aber das Croppen ist für mich der einzige, wirklich einzige Vorteil von so Pixelgiganten. (Und mich wundert es sehr, wie die Hersteller es schaffen, diese Mini-Pixel auf der immer gleichen KB-Fläche so toll voneinander zu entkoppen;-)

Zunächst kurz zu deinem hypothetischen Beispiel (Nr. 1) mit den 2 x 2 Pixeln, wovon die beiden linken schwarz sind und die beiden rechten weiß. Deine Schlussfolgerung, dass das Runterskalieren verschlechtert, ist falsch, denn:

Wenn das große Originalbild mit den zig Megapixeln auf gleich großem Fotopapier gedruckt wird wie das runterskalierte (sagen wir also z.B. mal einmal mit 42MP und einmal mit runterskalierten 18MP), dann:

a) sieht der Betrachter im 18MP-Bild an der ensprechenden Stelle (der 2 x 2 Pixel) "grau".

b) im Originalbild (42MP) sieht der Betrachter an der entsprechenden Stelle: AUCH "grau"..., denn die Punkte sind so klein, dass sie vom Auge nicht mehr getrennt werden können. Genau der Effekt, mit dem in der Malerei zur Zeit des Pointillismus experimentiert wurde.

Man wird wahrscheinlich Maßstäbe finden können, bei denen man sehr wohl die von dir beschriebene Verschlechterung erkennen kann, aber dann muss das "große" Bild schon sehr grob sein und das runterskalierte noch viel gröber, um noch einzelne Pixel mit den Augen wahrnehmen zu können. Und so ein Fall ist bestimmt nicht gegeben, wenn man von 42MP auf z.B. 18MP runterskaliert.

Jetzt die wichtigste Frage an dich: HAST du eine A7R II oder III?

Was ich weiter oben beschrieben habe, weiß ich erst, nachdem ich es GESEHEN habe...

Das Runterskalieren sollte natürlich auch hochqualitativ stattfinden (Photoshop etc. etc., nicht "brutal nachschärfen" und wer weiß was noch..). Die Kamera selbst (A7R II) macht es bei ihren 18MP-Jpegs (also von 42 runter auf 18) allerdings offenkundig schon super.

Vielleicht hast du bei deinem Runterskalieren Software oder Algorithmen benutzt, mit denen Bilder noch gleich ein bisschen "verhunzt" werden. Das gibt's ja nicht selten (z.B. beim Hochladen von Fotos in diverse Foren...)

Es gibt in der berühmten 100%-Ansicht selbst bei guten Kameras in den Details meistens einen Hauch von "Unechtheit", "Fehlerhaftigkeit", "Künstlichkeit" oder wie immer man es nennen will. Wenn man nun aus einem RAW-Konverter heraus beim Export herunterskaliert (oder erst später mit Photoshop etc.) - oder es ggf. die Kamera mit ihren Jpegs machen lässt -, dann ist dieser Hauch von Fehlerhaftigkeit in den Details plötzlich komplett weg, und die Details sehen ultraklar, echt und natürlich aus.

Das ist zumindest meine ganz konkrete Erfahrung mit den Kameras, die ich genannt habe. Was immer ich da weiter oben geschrieben hab, ist keine Theorie, sondern ganz praktische Erfahrung. Ich bin übrigens eindeutig ein Pixelpeeper, der fast schon mehr "Testfotos" macht als richtige Fotos... Und ich trage keine Brille (man kann ja nie wissen, was alles eine Rolle spielen kann).

 

 

 

bearbeitet von cosmovisione
Link zum Beitrag
Auf anderen Seiten teilen

3 hours ago, kleinw said:

1. Ich stelle mir ein Quadrat vor mit 2 x 2 Pixeln. Die linken beiden sind schwarz, die rechten beiden weiß. Wenn ich dieses Quadrat zu einem Pixel verrechne, kommt ein graues Pixel heraus. Die Kontur wird wesentlich unschärfer als beim Original --> Skalierung verschlechtert!

1 hour ago, cosmovisione said:

Zunächst kurz zu deinem hypothetischen Beispiel (Nr. 1) mit den 2 x 2 Pixeln, wovon die beiden linken schwarz sind und die beiden rechten weiß. Deine Schlussfolgerung, dass das Runterskalieren verschlechtert, ist falsch, denn: […]

Da @Atur ein bekennender Freund unterschiedlicher Darstellungen desselben Sachverhaltes ist, gebe ich auch meine Ansicht zum Beispiel mit dem Quadrat aus 2*2 Pixeln ab, welche von den bisherigen natürlich abweicht. ;)

Dieses Beispiel (wobei ich @kleinws Schlussfolgerung hinsichtlich einer Weichzeichnung harter Pixelgrenzen auf Pixelniveau durch Verkleinerung, zumindest mittels „unrunder“ Skalierungsfaktoren, prinzipiell zustimme) ist – in der Fotografie – ein lediglich theoretisches. Um ein solches Quadrat, als reales abfotografiertes Objekt mit harten schwarz-weiss Helligkeitsgrenzen, als ein Foto mit ebenfalls harten Grenzen, also rein schwarzen und weissen Pixeln, abzubilden, müsste dieses Objekt perfekt an der Pixelmatrix des Sensors ausgerichtet sein. Ist es das nicht, dann werden gar nicht erst ausschließlich schwarze und weisse Pixel aufgezeichnet, da all jene Sensorpixel an der schwarz-weissen Grenze des realen Objekts ohnehin sowohl schwarze als auch weisse Flächenanteile (in unterschiedlichem Verhältnis) abdecken – ergo, Grauwerte an der Grenzlinie aufzeichnen. Ein solches Objekt bei normalem Fotografierverhalten zufällig in der nötigen Perfektion an der Sensormatrix auszurichten, ist in der Praxis ein Ding der annähernden Unmöglichkeit, bei Objekten mit Projektion in nicht exakt rechteckiger (Grund-)Form(-en), ist dies aufgrund quadratischer Sensorpixel nichtmal theoretisch möglich. Wenn wir zusätzlich nicht mit einer Kamera mit monochromem oder Foveon-Sensor fotografieren, sondern mit einer üblichen Bayer-Matrix (ohne Multi-Shot Verfahren), dann wird das schier Unmögliche gleich noch ein zweites Mal definitiv verunmöglicht, da hieraus aufgrund der stattfindenen Interpolationen, ohnehin nie irgendwelche pixelperfekt harte Grenzen resultieren.

Wird also ein Foto (Nur Fotos, für Computergrafiken mit tatsächlich harten Pixelgrenzen gilt dies nicht!) hoher Auflösung auf ein Foto geringerer Auflösung runterskaliert, dann werden dadurch nicht harte Grenzen weicher, sondern weiche Grenzen härter. Unter anderem deshalb wirken runterskalierte Fotos auch schärfer als native Fotos derselben Pixelabmessungen … ;)

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

muahaha

hier werden hart geglaubte Grenzen weicher 😁, mein Hirn zerfließt.
Das ist definitiv der Punkt, wo es zu langweilen beginnt.
Stell doch mal einer zwei Fotos, auf denen man den Unterschied erkennen kann, statt 25 Zeilen Fachchinesisch zum Besten zu geben.

Link zum Beitrag
Auf anderen Seiten teilen

... ich bin aus gutem Grund nicht auf den Betrachtungsabstand eingegangen und teile deine Antwort wiederum nicht (generell) und zwar weil ich beim Entwickeln der Bilder vor einem Hi-Tec-Eizo im Normalabstand von ca. 50 cm sitze und beim TV einen Betrachtungsabstand von 4-5 Metern habe. Der Eizo deckt zu 100% die Adobe Farbmuschel ab, die TVs - vielleicht - zu 70% . Wenn ich die Dynamik des Fotos am Monitor korrigiere, zoome ich schon mal in die 1:1 Ansicht, das - auch wenn ich die Fotos in voller Größe zum TV brächte - mache ich beim TV nie.
Der Hinweis von pizzastein mit dem Bayer-Verfahren zeigt, dass meine Aussage nicht wirklich verstanden wurde und deine Frage, ob ich eine 7R habe - nein ich habe keine - hat auch mit meiner Kernaussage überhaupt nichts zu tun (auch wenn die Mark 4, dieses Wunderding, 16 Bilder shiftet und verrechnet - wobei ich glaube, dass das gemacht wird, um die enorme Fotodiodendichte überhaupt handeln zu können).
Was ich sage, kannst du mit Bleistift und kariertem Papier nachvollziehen oder praktisch mit dem weit verbreiteten Lightroom - mich würde sehr wundern, wenn nur meine runterskalierten Fotos wesentlich schlechter wären als das Originalbild (in allem: Farbe, Schärfe, Dynamik).

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb kleinw:

mich würde sehr wundern, wenn nur meine runterskalierten Fotos wesentlich schlechter wären als das Originalbild (in allem: Farbe, Schärfe, Dynamik).

na dann zeig uns die doch mal!

Link zum Beitrag
Auf anderen Seiten teilen

Seid Ihr sicher, dass die Bild Skalierung noch speziell etwas mit der neuen Sony zu tun hat, und in dieser Ausführlichkeit mit diesem Thread?

Wäre dieses, für den ein oder anderen sicherlich interessantes Thema, nicht doch einen eigenen Thread wert z.B. bei Bildbearbeitung?

 

Link zum Beitrag
Auf anderen Seiten teilen

... ja klar hat die Diskussion was mit der neuen Kamera zu tun!
Kannst du mir sagen, auf welchem Gerät du 61 MPixel (d.s. 9018 x 6763 px²) darstellen kannst? Auf alle Fälle skaliert bei voller Auflösung schon einmal die GraKa - die Frage ist, ob sie das gut macht und wenn nicht, wie man es selbst macht.
 

Link zum Beitrag
Auf anderen Seiten teilen

Es geht um den Nutzen so hoher Sensorauflösungen außerhalb von als Hobby betriebenem Pixelpeepen. Da die RIV nun gerade die Obergrenze des technisch machbaren unter 5000 € (wohlgemerkt inkl. mind. eines hochauflösenden Objektives) bietet, ist der Gedanke schon halbwegs passend, beantwortet er doch auch die Frage nach kleinen RAW-Auflösungen. Denn so sehr ich manche Funktionen bei Sony für nachrüstenswert halte, bin ich doch der Meinung, dass es für die mir am sinnvollsten erscheinende Nutzung einer R für artefaktfreie hochdetaillierte Fotos diese Funktion nicht braucht.

Davon abgesehen amüsiert mich die Theorie mit den Pixeln, geht sie doch davon aus, dass jedes im Bild vorhandene Pixel makellos wäre, also Beugung, Artefakte (zum Bsp. beim Schärfen) und dergleichen nicht existieren. Gesetzt den Fall, dies wäre bei manchem Bild näherungsweise so, ist dann Oversampling beim Herunterskalieren tatsächlich ein Verlust von Details.

Nebenher ist zu beachten, was Bildanzeigegeräte machen, wenn sie die hochdetaillierten Fotos voller Auflösung bekommen. Jeder, der mal Fotos von mehr als 10 MP auf Windows-Rechnern als Hintergrundbild eingestellt hat, dürfte das kennen, dass die feinen Details zu Artefakten in der Darstellung führen. Gute Fotobetrachtungssoftware hat das natürlich schon lange adressiert und gelöst, so dass man das Oversampling (Herunterskalieren auf Bildschirmauflösung) live beim Betrachten ausführt. Die Parameter eines Fotos werden dabei aber nicht beachtet, während Bildbearbeitung wie C1 wohl inzwischen auch Beugung berücksichtigen kann und damit die Bildränder anders als die Mitte behandelt, um gleichmäßig fein detaillierte Ergebnisse zu erzeugen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 21 Minuten schrieb outofsightdd:

...dass es für die mir am sinnvollsten erscheinende Nutzung einer R für artefaktfreie hochdetaillierte Fotos diese Funktion nicht braucht.

Theorie und Praxis... ja auch der Hobbyfotografen. Jetzt muss man abwarten was an Neuerungen an die anderen Kameraklassen durchgereicht wird, alleine schon beim Sucher bezweifele ich, dass der in einer A7 IV landen wird, AF?

Niemand wird sich eine R IV zulegen und nur im APS-C Modus oder mit reduzierter Auflösung fotografieren. So vielschichtig die die Anforderungen so vielschichtig die Wünsche an System/Kamera. Ein Beispiel, PSDs, hatte ich schon geschrieben.

Warum auch immer aber die letzten Beiträge von Dir klingen sehr abwertend? Weil du ausschließlich (42MP, 47 MP, ich weiß nicht was du nutzt) benötigst, gilt das nicht für alle.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb kleinw:

... ja klar hat die Diskussion was mit der neuen Kamera zu tun!
Kannst du mir sagen, auf welchem Gerät du 61 MPixel (d.s. 9018 x 6763 px²) darstellen kannst? Auf alle Fälle skaliert bei voller Auflösung schon einmal die GraKa - die Frage ist, ob sie das gut macht und wenn nicht, wie man es selbst macht.
 

Man kauft sich entsprechende Hardware, bei der Systemsoftware und Bildbetrachtungs-(Bearbeitungs-) Programm perfekt harmonisieren, am besten aus einer Hand, wie z.B. einen hoch   auflösenden iMac. Ansonsten ist man als Windowsanwender mit seinen vielen Programmen und Konvertern in der eigenen Verantwortung. Oder man skaliert gar nicht, weswegen nur die 100 % Ansicht  in so einem Fall für Vergleiche taugt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb Aaron:

Man kauft sich entsprechende Hardware, bei der Systemsoftware und Bildbetrachtungs-(Bearbeitungs-) Programm perfekt harmonisieren, am besten aus einer Hand, wie z.B. einen hoch   auflösenden iMac

War das jetzt Ironie? Als ehemaliger Aperture Nutzer finde ich das garnicht "lustig".. "Aus einer Hand" gibt es bei MacOS nämlich nicht mehr..

vor 7 Minuten schrieb Aaron:

Ansonsten ist man als Windowsanwender mit seinen vielen Programmen und Konvertern in der eigenen Verantwortung.

Inwiefern unterscheiden sich hier Mac und Windows? Ob ich die Programme und Konverter auf Windows oder MacOS installiere ist völlig wumpe..

Link zum Beitrag
Auf anderen Seiten teilen

Auch ein iMac mit 5120 x 2880 muss für eine Vollbildansicht bereits bei 24 MP skalieren. 100% bei der Nachbearbeitung aber unterm Strich zählt die Vollbildansicht.

Ich bin ja kein Mäckesfreund aber beim Thema Skalierung zeigen die schon wo der Hammer hängt :) Hat allerdings auch Nachteile wenn ich die Arbeits/- Anzeigegeschwindigkeit von C1 im Vergleich zu meiner Windowsbüchse mit einem alten 24" sehe.

bearbeitet von wuschler
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb wuschler:

Niemand wird sich eine R IV zulegen und nur im APS-C Modus oder mit reduzierter Auflösung fotografieren. So vielschichtig die die Anforderungen so vielschichtig die Wünsche an System/Kamera. Ein Beispiel, PSDs, hatte ich schon geschrieben.

da wär ich nicht so sicher.
Eine Kombi aus einer APSC und einer VF-Kamera mit "normaler" Auflösung ist genau das, was ich brauchen könnte.
Das kann die R IV beides sein, wenn man die RAWs auch "in klein" haben könnte.

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb flyingrooster:

Wird also ein Foto (Nur Fotos, für Computergrafiken mit tatsächlich harten Pixelgrenzen gilt dies nicht!) hoher Auflösung auf ein Foto geringerer Auflösung runterskaliert, dann werden dadurch nicht harte Grenzen weicher, sondern weiche Grenzen härter. Unter anderem deshalb wirken runterskalierte Fotos auch schärfer als native Fotos derselben Pixelabmessungen …

Klingt alles für mich sehr einleuchtend. Über eine Frage stolpere ich aber noch: Ja, manchmal habe ich auch schon an meinen verkleinerten Bildern eine größere Schärfe bemerkt. Aber oft auch das Gegenteil. Und schließlich gibt (gab?) es doch auch den Rat, ein Foto nach dem Verkleinern immer nochmal ein bisschen nachzuschärfen. Eigentlich widersprüchlich, oder wo ist mein Denkfehler?

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...