Jump to content

LR jetzt mit KI Entrauschung


Empfohlene Beiträge

  • 1 month later...

Ich finde es weiterhin beeindruckend was die neue Entrauschungsfunktion in LR CC aus diesem "Pixelmatsch" bei ISO 12.800 herauszaubert.

 

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Das zeigt vor allem, dass letztlich gar nicht soviel Pixelmatsch enthält, so dass es auf den Demosaicking Algorithmus ankommt. Die besseren sind leider von der Verarbeitung sehr zeitaufwändig, was auch mit ein Grund war, dass Adobe das erst jetzt implementiert hat. Mit älteren Rechnergenerationen wären die Verarbeitungszeiten mehr oder weniger unzumutbar gewesen.

Link zum Beitrag
Auf anderen Seiten teilen

  • 2 months later...
Am 21.4.2023 um 19:11 schrieb bilderfinder:

Ich brauche dringend einen neuen PC.

Alles was ich brauche, ist etwas Geduld... Konkret: Abends 15x 16Mpix RAWs gestartet (Lenovo T470)... und schwupps morgens schon fertig... Bis Weihnachten könnten dann zwei Urlaube entrauscht sein...

bearbeitet von kirschm
Link zum Beitrag
Auf anderen Seiten teilen

Ich habe einen einfachen PC aus dem Jahre 2020 mit WIN10 (Intel Dual Core 2X 2.70 Ghz HD Graphic 16GB RAM)... wohl mit integrierter Graphik... ohne GPU-Unterstützung lt. Adobe.. 1 RAW dauert über 1 Stunde... Kann ich da einfach so eine beliebige Graphikkarte reinstecken... ?

bearbeitet von kirschm
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb kirschm:

Kann ich da einfach so eine beliebige Graphikkarte reinstecken... ?

Vielleicht. Vielleicht aber auch nicht.
Wenn das so ein absoluter Billigkram ist, wird ew schon eine alte aber noch unterstützte GPU das Netzteil überfordern. Wenn das aber Stand hält, dann wird die CPU nicht schnell die Daten an die GPU geben und von da empfangen können.
Aber um das alles irgendwie möglichst vernünftig beantworten zu können, musste man alles, also wirklich alles über den Rechner wissen.  Dann könnte man vielleicht eine betagte GPU empfehlen wo Du ggf in X-Minuten Bild fertig hast. 

 

Link zum Beitrag
Auf anderen Seiten teilen

Hast du einen PC Laden deines Vertrauens?

Ich bin bisher immer mit nvidia gut gefahren, aber nur bei Laptops. 

Und unter 4GB RAM auf der Karte brauchst du nicht anzufangen. 

Und billigste wird auch nicht wirklich funktionieren. 

Da kommt es auch auf das Zusammenspiel an! 

bearbeitet von kdww
Ergänzung nach voriger Antwort
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb kirschm:

Da mein PC billiger war als eine Grafikkarte, würde ich nur einen Versuch bzgl. Grafikkarte starten. Wenn es nicht funktioniert, hätte ich halt Pesch gehabt... 

Die in CPUs integrierten GPUs funktionieren für normale Anforderungen wie Bildaufbau, Videowiedergabe, u. a. m so gut, dass die Herstellung einfacher dedizierter GPUs für billige Grafikkarten zum Erliegen gekommen ist. Deshalb ist der Einstiegspreis für Grafikkarten in der letzten Zeit durch die "dickeren" und damit teureren GPUs merklich gestiegen.

Vor zwei Jahren hat man bei NVIDIA wohl noch einen Vorrat an kleinen GPUs gefunden und dann gab's nochmal GT1030 Grafikkarten, eine davon für mich für ca. € 80. Meine normalen EBV-Programme nutzen die Karte nicht, aber bei einer Testinstallation von Deep Prime 3 war die Karte zu 100 % beim Arbeiten ausgelastet. Aber 20 s für meine 16 MPx großen RAW-Dateien war mir zu lang.

Man muss wohl bei der Grafikkarte richtig zulangen. Falls man die gewünschte Beschleunigung nicht erreicht, muss man ggf. das Motherboard durch was besseres austauschen, wofür z. Z  € 500 ausreichen sollten. Wenn du es schaffst, auf diesem WIN 10 neu zu installieren und MS das akzeptiert kannst du auf WIN 11 umsteigen. Ansonsten wird noch eine neue Windowslizenz fällig.

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe um diesen Thread und das Thema KI bisher einen Bogen gemacht. Mit meinem alten Notebook aus 2016 (Asus mit i7, 8GB Ram und eine alte Nvidia-Karte) war daran nicht ernsthaft zu denken.

Nach ca. 30 Jahren Windows und allen möglichen Vorbehalten gegenüber den Apple-Geräten habe ich dann nach eigener Recherche jüngst ein MacBook Pro M1 max 16'' mit 10 Kern CPU, 32 GPU-Kernen und 32 GB Ram erworben. Seit dem komme ich aus dem Staunen nicht mehr heraus. Ich weiß noch, dass ich als Windows-Nutzer das 'Geschwätz' über die tollen Apple-Teile ins Reich der Legenden verschoben habe, aber nun muss ich halt Schmunzeln. Über mich und meine Vorurteile und natürlich ist mir auch nicht entgangen, dass es hier ein gewissen Sentiment gegen die Apples gibt. 😉 

Ich schreibe trotz dieser Gefahrenlage gern mal eine Erfahrung zum Thema KI hier in den Thread. Falls gerade jemand am Überlegen ist, ob er sich ein neues Windows-Notebook oder eben einen Apple zulegt, würde ich auf jeden Fall auch meinen M1 (oder auch den etwas schnelleren, aber teureren M2) hier empfehlen. 

Was sind meine big Points, die für den M1 Pro Max sprechen:

  • ich nutze auf Windows privat im Prinzip nur LR classic, Faststone als Bildbetrachter, Magix für Video (zuletzt kaum noch...) und Chrome. LR geht nur noch langsam. Video geht eigentlich nur mit Proxys (gerenderte Zwischenlösungen) und auch dort zäh.
  • Auf dem Mac habe ich LR classic installiert (vorhandene Lizenz deckt 2 Geräte ab). Faststone wurde durch das freeware Xnview ersetzt (etwas schlechter zu bedienen, aber ok). Video: kostenloses Davinci Resolve. Chrome läuft auch wieder, so dass ich alles aus meiner Google-Welt weiter nutzen kann (mail, Kalender, Lesezeichen..). Software-seitig also kein großer Cut und auch keine Mehrkosten!
  • LR rennt wie eine Ziege, butterweich und leise! KI-Entrauschung dauert ca. 15 Sek je Bild, sieht top aus und das Beste: ich kann nach anstoßen der Verbesserung sofort zum nächsten Bild springen und dort weiter arbeiten. Das heißt: eigentlich dauert die Entrauschung auf meinem M1 keine Sekunde! Denn ich arbeite ja parallel weiter. Ich selektiere alle Bilder mit hohen ISO und gehe von Bild zu Bild und stoße die Entrauschung an. Wenn ich das bei 20-30 Bildern mache, muss ich nur beim letzten Bild effektiv rund 15 Sek warten, weil er die anderen im Hintergrund abarbeitet...
  • Video-Schnitt mit 4K-Stream geht sowas von flüssig in Davinci. Ein erstes Rendern eines 4K-Videos (27min) ohne Bearbeitung, also nur Video-Files mit Ton, auf eine 1080p-Zielauflösung dauerte ca. 5 min. Das war enorm schnell.
  • Last, but not least: das Teil ist die ganze Zeit mucksmäusschen-still. Als ob kein Lüfter vorhanden wäre.
  • Preis für meine Ausstattung bei Amazon war 2.400 EUR (war wohl ein ziemliches Schnäppchen. Aktuell um 2.800)

Ich brauche mir keine Rübe um Codecs, Nutzung der CPU und GPU machen (weil gemeinsamer 32 GB RAM) und alles funktioniert, ohne dass ich da viel friemeln und basteln muss. 

Ich kann daher nur empfehlen, auch die Apple-Notebooks in Betracht zu ziehen. Ich wollte ursprünglich ein Asus oder Samsung kaufen, aber in nahezu allen Videos, die ich dazu konsumierte (waren es 30, oder 40 Videos?), kam immer wieder raus, dass die Windows-Notebooks mal mehr oder mal weniger stark durchlüften müssen, wenn sie mit voller Power arbeiten müssen (erster Haken = Geräuschkulisse) und zweitens: bei Batterie-Betrieb gehen die Windows-Notebooks in der Leistung deutlich runter, während es dem Mac egal ist, ob er am Netz oder an der Batterie hängt. Sollte es hier Windows-Notebooks ohne Lüfterkrach geben, dann gern erwähnen. Für mich dann zwar zu spät, aber vielleicht für andere User interessant. 😉

Da ich keinen PC mehr betreibe und das Notebook auf der Couch, im Bett, im Flieger, der FeWo, im Zug und im Bus nutze, ist der Mac eine ganz hervorragende Lösung für meine Zwecke.

Beruflich bin ich weiterhin mit Windows unterwegs und kann mich dort überhaupt nicht beschweren. Dort mache ich viel mit Excel und Datenbanken und habe keine Sorgen. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 47 Minuten schrieb noreflex:

Ich kann daher nur empfehlen, auch die Apple-Notebooks in Betracht zu ziehen.

Ja kann man machen. Man soll aber immer Äpfel mit anderen Äpfeln vergleichen. Und das ist in Deinem Beitrag zumindest Teilweise nicht der Fall.

vor 48 Minuten schrieb noreflex:

Ich brauche mir keine Rübe um Codecs

Hier hatte Apple einen schlauen Schatzung gemacht oder man könnte auch sagen - bei Intel abgeguckt :D. Hat man nämlich eine Intel CPU mit Iris GPU + externe AMD oder nVidia GPU braucht man sich darüber auch kein Kopf machen und schnell ist das ganze auch.

Man soll immer die ganze Bandbreite betrachten und nicht so tun als ob man nur eine einzige Anwendung nutzt. Mal ist Apple besser oder bietet Vorteile, ein anderes mal eben Windows. Fakt ist - zaubern kann Apple auch nicht - hatte ich lang genug. Und auch mein Vergleich mit meinem vor 2-3 Monaten gekauften Gigabyte aero 16" BSF gegen einen M2 Max bei LR Classic bestätigte es. 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Stunden schrieb DSLRUser:

...

Man soll immer die ganze Bandbreite betrachten und nicht so tun als ob man nur eine einzige Anwendung nutzt. Mal ist Apple besser oder bietet Vorteile, ein anderes mal eben Windows. ...

 

Also, ich denke, das kann man durchaus tun! Mein Post bezieht sich auf die Nutzung von im wesentlichen zwei Anwendungen: LR für Foto und Davinci für Video. Keine Spiele. Und für diesen Case ist der Apple M1 Pro Max super geeignet.

Es mag andere Use Cases geben, z.B. Games, wo Windows deutlich besser aufgestellt ist, weil es wohl einen riesigen Schatz an Software in diesem Feld gibt, während es bei Apple da mau ist.

Warum soll ich mich in einem Beitrag zur Nutzung von KI für Fotobearbeitung zur ganzen Bandbreite von Software und Anwendungsfällen äußern, zu denen ich Null Erfahrung habe? Ich verstehe daher Deinen Einwand nicht und den Äpfel vs Äpfel-Vergleich verstehe ich auch nicht.

Es geht in diesem Thread um die KI von LR und soweit ich das quergelesen habe, gibt es seitens der Windows-User viele Nachfragen, welche Nvidia denn geeignet sei, um die KI-Entrauschung schnell und flüssig zu liefern. Und wie man in LR dann Nvidia einbindet und ob man das besser über die Library oder dem Developer startet usw. usf. 

Bei Apple ist es da recht einfach: es gibt keine zig Versionen von Nvidia oder AMD oder Radeon oder Intel. Es gibt im Prinzip nur einen Baukasten aus apple-eigenen CPU und GPU (M1-Familie oder M2-Familie) mit einigen Abstufungen in Prozessor-Kernen und RAM. Aber schon die Basis-Stufe der Macs kann sowohl LR als auch 4K-Videoschnitt. Die teureren Stufen können es dann eben noch performanter. Aber auch ein Einstiegs-M1 oder M2 kann es. Und sie bleiben silent und sie funktionieren auch ohne Strom so performant. Das sind schon nennenswerte Argumente, finde ich.

Wenn man das auch über die Einstiegs-Notebooks in der Windows-Welt sagen könnte, wäre der Thread ja recht kurz geblieben. Jemand hätte geschrieben, dass LR jetzt ne neue KI hat und alle hätten sich gefreut. Allerdings brauchen einige Windows-Notebooks und vielleicht auch ältere Macs (keine Ahnung) zum Teil Minuten, um eine KI-Entrauschung hin zu bekommen.

Wenn man die Frage so sieht, ist meine sehr spezifische Antwort (M1 Pro Max hinsichtlich LR und 4k-Video) doch sehr präzise zum Thema und erhebt nicht den Anspruch, dass Apple immer und überall besser als Windows wäre. 

Vorsorglich möchte ich noch ergänzen, dass ich weiterhin Windows nutze und auch viele gute Seiten in dieser Welt sehe. Nur gerade bei Notebooks für LR und 4K-Videoschnitt habe ich mich für meinen Use Case für Apple entschieden. Und würde das auch weiterempfehlen. 

 

 

bearbeitet von noreflex
RS
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb noreflex:

Ich brauche mir keine Rübe um Codecs, Nutzung der CPU und GPU machen (weil gemeinsamer 32 GB RAM) und alles funktioniert, ohne dass ich da viel friemeln und basteln muss. 

Es sei denn du möchtest künftig RAM oder SSD tauschen/erweitern, dann wären ein Lötkolben und eine Menge Geschick Grundvoraussetzungen dafür diese fix integrierten Komponenten zu ersetzen. Wo sich bei anderen Notebooks als Lösung für manche Anwendungen auch die GPU per Thunderbolt extern erweitern lässt, scheidet dies hier ebenfalls aus. Die einzige Upgrade-Möglichkeit besteht im kompletten Ersatz (= Neukauf) des Gerätes.

Es hat halt alles immer seine zwei Seiten und so verzeichnen auch die Macs einige Vorteile und einige Nachteile. Die Abneigung einiger gegen Macs ist jedenfalls genauso wenig unbegründet oder primär vorurteilbehaftet wie die Abneigung anderer gegen Windows-Rechner, sondern basiert (von Fanboys auf beiden Seiten mal ausgenommen) durchaus auf vernünftigen, nachvollziehbaren und nicht zuletzt subjektiv gewichteten Gründen.

Link zum Beitrag
Auf anderen Seiten teilen

Noch eine Frage zum Thema:

Meine früheren LR-Entwicklungen (da war ACR Vers. 7-9 drin) hatte ich damals nachträglich noch etwas dezent mit NIK aufgepeppt, hauptsächlich bzgl. Tonwerten, damit die Sache einfach etwas knackiger aussieht.

Als ich jetzt mal testweise diese alten RAWs mit alten XMPs im aktuellen LR KI-entrauscht habe, ist mir aufgefallen, dass das Endergebnis (nur nach LR-KI-Entrauschen und sonst nix) mindestens genauso knackig (auch ohne NIK) aussieht.

Liegt das an inzwischen anderen Adobe-Prozessen? Kann ja eigentlich nur...

Link zum Beitrag
Auf anderen Seiten teilen

Kann denn die KI nicht nur Pixelrauschen, sondern auch Körner fressen?

Bei diesem fast 50 Jahre alten Bild macht die Körnung sich schon bemerkbar.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Der Originalfile steht hier zum Download bereit: Rawfile

bearbeitet von RoDo
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb kirschm:

 

Als ich jetzt mal testweise diese alten RAWs mit alten XMPs im aktuellen LR KI-entrauscht habe, ist mir aufgefallen, dass das Endergebnis (nur nach LR-KI-Entrauschen und sonst nix) mindestens genauso knackig (auch ohne NIK) aussieht.

Liegt das an inzwischen anderen Adobe-Prozessen? Kann ja eigentlich nur...

LR übernimmt dabei die alten LR Einstellungen, und jetzt hast du schon mal eine knackigere Grundlage. 

Das merkt man schon. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb RoDo:

Kann denn die KI nicht nur Pixelrauschen, sondern auch Körner fressen?

Nicht wirklich, darf ich das Ergebnis einstellen?

Es sieht anders aus, es tauchen Streifen im Himmel auf. Aber da der Algorithmus auf Pixelebene ansetzt, kann das nicht wirklich was bringen.

Hier beissen sich eventuell Korn und Pixel.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...