Jump to content

acahaya

Premium Mitglied
  • Gesamte Inhalte

    3.636
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    3

acahaya hat zuletzt am 17. Oktober 2020 gewonnen

acahaya hat die beliebtesten Inhalte erstellt!

12 Benutzer folgen diesem Benutzer

Über acahaya

  • Geburtstag 15. Juli

Profile Information

  • 7 of 9
  • Interests
    Fotografieren ;)
  • Stadt / Ort
    München
  • Gender
    Female

Contact Methods

  • Website URL
    http://www.acahaya.com

Converted

  • Wohnort
    München
  • Interessen
    Fotografieren, Reisen
  • Einverständnis Bildbearbeitung
    Nein

Letzte Besucher des Profils

Der "Letzte Profil-Besucher"-Block ist deaktiviert und wird anderen Benutzern nicht angezeigt.

  1. Das wurde dann aber mit einem Fw Update verbessert und die E-M1 II hatte danach wieder das ganz kleine Fokusfeld. Damals gings um S-AF und dass das „kleine“ Fokusfeld oft zu groß war und daher jede Menge Fehlfokus entstand. Ein zweiter Kritikpunkt war damals, dass die Gesichtserkennung mit Fokus aufs eingestellte Auge und S-AF anders als bei der E-M1 I und E-M5 I nur noch funktioniert hat, wenn absolut keine Bewegung vorhanden war. Und bei C-AF war zu wenig Bewegung da um wirklich zu verfolgen, so dass Quasi Bewegung simuliert wurde und bei Serienbild auf ein scharfes Bild immer zig leicht unscharfe folgten. Das ist bis heute so, allerdings ist C-AF mit Gesichtserkennung jetzt etwas sensibler. S-AF mit Gesichtserkennung und Prio aufs Gesicht funktioniert mit der OM-1 in hellen Studios gut, in funzligen (in so einem war ich letztes Wochenende) fast gar nicht. Fürs Tracken von Gesichtern braucht es genug Licht und wenn man im Sucher (ohne OVF Simulation) Probleme hat, ein Auge zu erkennen, kann es die Kamera auch nicht. C-AF hilft dann auch nicht. Was geht ist Gesichtserkennung aus, ein etwas größeres Fokusfeld und je nach Bewegung S-AF oder C-AF. Mit neuester Firmware.
  2. Die Bidler sind auf alle Fälle sehr sehenswert. Ansonsten finde ich auf Madeira zum Wandern trockenes Wetter besser, weil es sonst teilweise wirklich extrem glitschig wird und es ja teilweise ganz gut tief runtergeht. Zum Fotografieren ist dramatisches Wetter natürlich besser. Wobei ich mal im Fanal war und direkt neben dem Auto innerhalb von 30 Sekunden bis auf die Haut nass war, wobei ich knapp 2 Meter weit sehen konnte. Das ist zum Fotografieren auch nix. Zum Autofahren auch nicht, wir sind ganz knapp vor einer Kuh auf der Straße zum Stehen gekommen, obwohl wir eh schon gaaaaaaanz langsam waren.
  3. Genau DAS ist das Problem. Und leider überträgt sich dieses mangelnde Selbstbewusstsein des Herstellers auf die Zielgruppe und wird quasi zur selbstgemachten Einschränkung. Letztes Wochenende war ich nach langer Zeit mal wieder auf einem Modelsharing in Österreich und wurde doch glatt gefragt ob ich Anfänger sei, weil doch jeder wüsste, dass man sowas mit mFt nicht fotografieren könne. Als ich mit Ft noch Wildlife fotografiert habe, waren meine Bilder nicht gefragt, weil Wildlife Fotografen wegen fehlendem Tracking AF bei Olympus trotz 90-250/2.8 und 300/2.8 NICHT die Zielgruppe war. Heute ist das anders. Damals hätte ich wohl Makro und Landschaften fotografieren sollen. Als ich mit Prople Fotografie und Composing angefangen habe, war es das selbe. Kein Interesse, weil diese Art von Bildern nichts für die Zielgruppe sei. Schon gar nicht die eher „pfui! erotischen“. Damals hätte ich Adventure und Street fotografieren sollen. Ich habs für mich daher seit Jahren aufgegeben, für Olympus / OMDS Werbung zu machen und tagge mittlerweile nicht mal mehr. Wozu auch. Ganz selten zeige ich mal was in den Oly Gruppen auf Fb aber da wird dann kritisiert, wenn die Models Make Up tragen …. Deswegen da dann auch nur noch Landschaft oder Wildlife. Sonst muss ich wieder diskutieren. Was mich aber wirklich wundert ist, dass Deine Bilder wirklich perfekt für die Zielgruppe jedes Herstellers wären und jeder Hersteller stolz sein könnte, Dich als Markenrepräsentant zu haben. Warum pennen die alle?
  4. Noch ein vorher - nachher, das ich mit mage.space gebastelt habe. Diesmal die für "meta" zensierte Version.
  5. Da man mit Midjourney ja keine eigenen Fotos verwenden kann, hab ich mal ein bisserl mit mage.space gespielt. Da geht für meine Art Bilder zu machen, sehr viel mehr. Anbei Original und der KI-Merge
  6. Ich hab mir mal meine Brennweiten angeschaut. Habe das 12-100 über das gesammte Spektrum verwendet. Wenn ich mehr „Breite“ wollte, hab ich Panos aus der Hand gemacht. Nur mit dem 8-25 wäre ich auf Madeira nicht glücklich gewesen. Gerade bei Zielen wie dem Fanal brauchts teilweise schon etwas mehr Brennweite 😉
  7. Ich war mit das letzte Mal mit 12-100, 8er Fish und 17/1.2 unterwegs. Mein Mann hatte das 12-200 dabei. Das 17/1.2 war für Aufnahmen einer Feier, zu der wir eingeladen waren. Das Fish für interessante Perspektiven. 95% der Bilder sind mit dem 12-100 entstanden. Mehr Brennweite hätte ich nur für Details in Funchal gebraucht, wobei ich mich zugegeben auch mehr auf Landschaft und Architektur konzentriert hatte. Ich wünsche Dir ganz viel Spaß und tolle Ausbeute. Madeira ist für wandernde Fotografen ein Traum!
  8. manchmal sehe ich es auf den ersten Blick, manchmal gar nicht. Und wenn man in PS eine Ebene in ein von den Exifs her passendes TIFF kopiert, als JPG speichert und die Exifs noch mal putzt ist das echt schwer nachzuweisen.
  9. Siehe Titel: Hier ist der Platz wo wir alle nach Herzenslust über KI und bilder diskutieren können. Bitte immer höflich und respektvoll. Meine Meinung: Reine Fotografie, Fotografie mit Photoshop u.ä. Nachbearbeitung, Mischformen von Fotos und von KI generierten Bildanteilen / Effekten sowie rein mit Ki generierte Bilder haben alle eine Daseinsberechtigung und machen mir alle Spaß. Was ich nicht gut finde ist mit Ki generierte Bilder in einem Fotowettbewerb als Foto einzureichen. Wenn es eine Ki Sparte ist, natürlich schon. Aber ein Foto ist was anderes und der „Bildschaffende“ sollte einfach dazu schreiben, wenn KI Anteile im Bild sind oder das ganze Bild generiert wurde. Dann kann man Prompts wie Kameraeinstellungen austauschen 😁
  10. So, und ab jetzt zeigen wir bitte alle wieder Bilder, weil das hier der Bilder-Sammelthread ist. Danke ❣️
  11. also bei mir geht V5 mit relax gar nicht und ist im fast Mode, den ich sonst meide, ungefähr 10 mal langsamer als V4 in relax. Ich glaube, ich warte noch ein paar Tage bis der erste Hype vorüber ist. Aber Augen funktionieren eindeutig sehr viel besser
  12. Das was wir heute als KI bezeichnen ist nichts anderes als die Kombination von Mustererkennung mit regelbasierten Entscheidungen. Ich habe vor langer Zeit meine Diplomarbeit zum Thema Regelbasierte Systeme in der Wettervorhersage geschrieben (damals noch mit Lisp und Prolog). Heute sind wir nicht zuletzt Dank enorm gesteigerter Rechenleistung ein ganzes Stück weiter. Was noch immer völlig fehlt, ist der intuitive Aspekt, der für wirkliche Kreativität sorgt. Letztere liegt derzeit noch bei dem Menschen, der die KI Engine "füttert", wie z.B. mit grenzgenialen Prompts bei Midjourney. Übrigens: Was ChatGPT, Midjourney und co ... machen ist zwar beeindruckend, richtig cool wird es aber mit Programmen wie AlphaFold (mittlerweile als Version 2), die zur Proteinstrukturvorhersage (einschließlich Visualisierung) genutzt werden. Und zwar als OpenSource Projekt. https://www.deepmind.com/research/highlighted-research/alphafold
×
×
  • Neu erstellen...