Jump to content

Neues Forum „Künstliche Intelligenz und Fotografie“


Empfohlene Beiträge

Am 3.3.2023 um 16:02 schrieb wasabi65:

Eigentlich nicht, weil eben Worte eine Bedeutung haben und für spezifische Dinge stehen. Das macht die Erkennung und einen Teil des Lernen einfacher und wurde auch schon vor AI relativ gut gemeistert. Pixel müssen erst irgendetwas zugeordnet werden, also erkannt werden. Mein Vermutung...

🤷‍♀️ 😉

Frage an ChatGPT: Was ist schwieriger zu entwickeln? KI für Text oder KI für Bilder?
 
 

Antwort von ChatGPT: Es ist schwierig zu sagen, welche Art von KI-Entwicklung schwieriger ist - KI für Text oder KI für Bilder -, da beide Arten von KI ihre eigenen Herausforderungen haben.

Für die Entwicklung von KI für Text müssen die Modelle in der Lage sein, menschliche Sprache zu verstehen und zu verarbeiten, was schwierig sein kann, da Sprache nuanciert und kontextabhängig ist. Außerdem muss die KI in der Lage sein, die Bedeutung hinter Sätzen und Textabschnitten zu verstehen, einschließlich Wortbedeutungen, Satzstruktur und sogar Ironie und Sarkasmus. Das erfordert oft den Einsatz von Natural Language Processing (NLP) und Deep Learning-Technologien.

Auf der anderen Seite erfordert die Entwicklung von KI für Bilder, dass das Modell in der Lage ist, komplexe visuelle Muster zu erkennen und zu interpretieren. Das bedeutet, dass das Modell lernen muss, bestimmte Objekte, Formen, Farben und Texturen zu erkennen und zu verstehen, wie sie in einer bestimmten Szene oder einem bestimmten Kontext zusammenpassen. Dies kann durch den Einsatz von Convolutional Neural Networks (CNN) und anderen Deep Learning-Technologien erreicht werden.

Insgesamt hängt die Schwierigkeit der Entwicklung von KI für Text oder Bilder von den spezifischen Anforderungen des jeweiligen Anwendungsfalls ab. Beide erfordern jedoch oft den Einsatz von komplexen Deep Learning-Technologien und viel Training und Datenvorbereitung, um optimale Ergebnisse zu erzielen.

bearbeitet von cyco
Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb cyco:

Es ist schwierig zu sagen, welche Art von KI-Entwicklung schwieriger ist […]

Für mich ist es schwierig zu sagen, ob das eine sehr kompetente und differenzierte Einschätzung von @cyco ist oder ein KI-generierter Text…

Was direkt auf die Probleme hindeutet, mit denen wir es als Moderatoren in Zukunft zu tun haben werden. Aktuell kann ich noch sehr gut und zuverlässig entscheiden, welche Beiträge von Nicht-Muttersprachlern oder komplett Fachfremden stammen – das wird deutlich schwieriger…

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb SKF Admin:

Für mich ist es schwierig zu sagen, ob das eine sehr kompetente und differenzierte Einschätzung von @cyco ist oder ein KI-generierter Text…

Was direkt auf die Probleme hindeutet, mit denen wir es als Moderatoren in Zukunft zu tun haben werden. Aktuell kann ich noch sehr gut und zuverlässig entscheiden, welche Beiträge von Nicht-Muttersprachlern oder komplett Fachfremden stammen – das wird deutlich schwieriger…

Andreas

Ja, damit kommen wir schon zum nächsten Problem, der Urheberproblematik. 😉 Aber in Tat, sollten wir uns angewöhnen. das deutlich zu kennzeichnen. Ich hole das gleich nach.

bearbeitet von cyco
Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb SKF Admin:

Danke – anscheinend ist mein Moderatoren Radar aktuell noch fein genug, um KI Texte zu identifizieren ;)

Gruß
Andreas

und so reagiert ChatGPT :

Als KI-Modell kann ich Ihnen versichern, dass meine Antworten alle von mir selbst generiert werden und nicht von menschlichen Moderatoren überprüft werden müssen. Allerdings kann es in manchen Fällen schwierig sein, zwischen menschlich geschriebenen Texten und von KI generierten Texten zu unterscheiden, besonders wenn die KI-Modelle immer weiter verbessert werden. Es ist jedoch beruhigend zu hören, dass Ihr Moderator-Radar so gut funktioniert!

😉

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Ich finde ja, dass die Antworten von ChatGPT noch sehr floskelhaft und nach Werbetexten oder Politikersprech klingen. Also sehr sachlich, nüchtern und korrekt ausformuliert. 

Ich weiß allerdings nicht, ob ich das im Blindtest so ohne weiteres erkennen würde. Es gibt ja auch reale Personen, die so reden. 😇

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Stunden schrieb cyco:

Urheberproblematik

Da KI/Bots/Maschinen keine Menschen sind, können sie keine Urheber sein. Das macht gewisse Situationen/Fragen einfach. Öffnet aber auch Wege für Missbrauch.

bearbeitet von wasabi65
Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb wasabi65:

Da KI/Bots/Maschinen keine Menschen sind, können sie keine Urheber sein. Das macht gewisse Situationen/Fragen einfach. Öffnet aber auch Wege für Missbrauch.

Tja, aber mit welchen Daten lernen sie und was replizieren sie? Ist das, was eine KI schreibt, erschafft, ein neues Werk oder ist es ein Ergebnis aus größtenteils urhebergeschützten Daten und Werken? Das wird ein weites und einträgliches Feld für Juristen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Minuten schrieb cyco:

Tja, aber mit welchen Daten lernen sie und was replizieren sie? Ist das, was eine KI schreibt, erschafft, ein neues Werk oder ist es ein Ergebnis aus größtenteils urhebergeschützten Daten und Werken? Das wird ein weites und einträgliches Feld für Juristen.

Urheber geschützte Information, die öffentlich zugänglich ist, darf gelesen und verwendet werden, wenn der Urheber dies nicht ausdrücklich verbietet. KI verfasst ja neue Texte nicht (noch nicht?) aus eigenem Anlass, sondern wird von einer Person stimuliert, einen Text zusammenzustellen. Damit ist doch unstrittig, dass diese Person dafür verantwortlich ist, wie sie mit dem KI generierten Text umgeht. Da KI allergings keine Quellen zitiert, woher die Textbausteine stammen und ob diese Quellen Urheber rechtlich geschützt sind, hat dennoch jeder der einen KI Text nutzt, selbst die Verantwortung dafür, wie er damit umgeht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb joachimeh:

 Da KI allergings keine Quellen zitiert, woher die Textbausteine stammen und ob diese Quellen Urheber rechtlich geschützt sind, hat dennoch jeder der einen KI Text nutzt, selbst die Verantwortung dafür, wie er damit umgeht.

Das wird aber niemand leisten können, weil ja nicht klar, welche Quellen die KI genutzt hat. Aber ich nehme mal mit: Lieber vorsichtig sein mit dem Posten von KT generierten Texten.

http://www.rechtzweinull.de/chatgpt-co-urheberrecht-bei-werken-der-kuenstlichen-intelligenz-ki-2/

bearbeitet von cyco
Link zum Beitrag
Auf anderen Seiten teilen

Am 3.3.2023 um 20:23 schrieb adrianrohnfelder:

Ich habe es hier versucht, das Thema einmal einfach zu erklären, also was ist KI und wie funktioniert sie:

https://rohnfelder.de/ki01/

https://rohnfelder.de/ki02/

Da beginnt es mit dem Satz: "Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich mit der Schaffung von Systemen beschäftigt, die menschenähnliche kognitive Fähigkeiten wie das Lernen, Problemlösung und Entscheidungsfindung aufweisen."
Und genau das Wort "menschenähnliche" ist das Hauptproblem. Einerseits ist es schon nicht menschenähnlich, dass diese KI viele Millionen mal mehr Informationen in kurzer Zeit verknüpfen und vergleichen kann, als irgend ein menschliches Gehirn und andererseits ist die fest mathematisch geregelte Verarbeitung überhaupt nicht menschenähnlich. Wenn auch nur ein Detail mal beim Lernen noch nicht vorgekommen ist, dann wird das rechnerisch ähnlichste verwendet. Zum Beispiel waren beim autonomen Fahren die grauen Betonplatten neben der Straße in Farbe und Struktur rechnerisch einer Fahrbahn ähnlicher, als einem Hindernis. Deshalb hat das Auto darauf zugesteuert und sogar noch beschleunigt (der Fall mit einem Google-Mitarbeiter war in der Presse und dürfte bekannt sein). Der große Unterschied zum Menschen ist, dass der Mensch nicht nach rechnerischen Ähnlichkeiten vergleicht, sondern in so einem Fall mit seinen sehr komplexen und maschinell nicht programmierbaren Denkvorgängen auch Hindernisse erkennt, die er nie zuvor gesehen hat. Das Gehirn arbeitet analog. Das heißt: jede Nervenzelle kann mehrere hundert unterscheidbare Zustände einnehmen. Was öfter nicht gebraucht wird, kann automatisch in einen Hintergrund gelegt werden, der nur mit Nachdenken aufgerufen wird. Das ist ein Zustand, den noch niemand in einer KI programmieren konnte. Das komplette Vergessen lange nicht gebrauchter Informationen kann man natürlich programmieren.

Deshalb ist kein einziges der heutigen KI-Programme intelligent. Lediglich die Programmierung ist sehr intelligent. Das selbst Lernen ist keine Intelligenzleistung sondern ein mit der Software programmierter Vorgang. Z.B. ist der Lernvorgang in Bezug auf die Rasenfläche bei einem Mähroboter sogar leicht nachvollziehbar. Das zu programmieren wäre für mich keine Herausforderung sondern nur eine Zeitfrage. Bei den Foto-KI-Programmen sind mit der Zeit tausende von Mustern, die bei Ähnlichkeit erkannt werden, so dass softwaremäßig bestimmte Bearbeitungsvorgänge automatisiert durchgeführt oder dem Bediener vorgeschlagen werden können. Beim Text (ChatGPT, DeepL-Write) sind es viele Millionen Zahlenwerte der Häufigkeit mit der bestimmte Worte in der Sprache aufeinanderfolgen aus denen berechnet wird, was mit gewisser Wahrscheinlichkeit folgt, um einen verständlichen Text zu generieren. Die Sachinhalte werden ebenfalls aus zig-Millionen Quellen zusammengeführt. Und dennoch führt immer wieder diese rein mathematische Berechnung zu Ergebnissen, die total daneben sind. Auf Fragen nach bestimmten Regelwerken zu einem gegebenen Thema hat es mir bisher nur grob falsche Antworten geliefert. Insgesamt liegt die direkt erkennbare Fehlerquote bei den von mir eingegebenen Fragen über 50%.

Kürzlich habe ich einen Text eingegeben und ChatGPT gebeten, den Text um 1/4 zu kürzen und dabei pointierter auszudrücken. Das Ergebnis war so, dass in jedem zweiten Satz der Sinn aus dem Kontext gerissen und verfälscht war. Das sind Fehler einer Art, die bei menschlichem Denken auch dann nicht vorkommen, wenn der Mensch den Inhalt nicht verstanden hat. Wenn der Mensch dabei Fehler macht, sehen die komplett anders aus. Zum Beispiel würde nicht aus 'xx und yy fliegen von A nach B' der Satz werden 'yy fährt nach A'. Und es würde nicht der und die verwechselt werden. 

Da nun aber die breite Masse in der Bevölkerung mit KI so etwas verbindet wie in den Filmen "I Robot" oder "AI" oder auch 'Terminator' finde ich es nicht korrekt, dass wir so eine Inflation des Gebrauchs des Begriffes künstliche Intelligenz haben. Das ist alles keine künstliche Intelligenz! Davon sind wir Lichtjahre entfernt. Das sind Tools, die uns viele Arbeiten erleichtern und beschleunigen werden. Die Angst, die davon verbreitet wird ist völlig grundlos. Als damals in den 1980er Jahren die PCs auf jedem Schreibtischarbeitsplatz eingeführt wurden, hat man auch befürchtet, Sekretärinnen würden massenweise arbeitslos. Nichts davon war der Fall, lediglich die Aufgaben und Arbeitsstrukturen haben sich gewaltig geändert. Natürlich hatten diejenigen keine Chance, die nicht bereit waren, die neue Bedienung zu lernen. Lebenslanges Lernen ist gefragt! Dann werden diese Tools einen bisher kaum vorstellbaren Entwicklungsschub bringen.  

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Stunden schrieb wasabi65:

Da KI/Bots/Maschinen keine Menschen sind, können sie keine Urheber sein. Das macht gewisse Situationen/Fragen einfach. Öffnet aber auch Wege für Missbrauch.

Ich zitiere mich selber, um zu ergänzen, was ich mit „können keine Urheber sein“ gemeint habe. Nämlich vom Patentrecht bzw der Patentrechtsprechung in letzter Zeit abgeleitet, dass Erfinder Menschen sein müssen. Also in Analogie, können nur Menschen Urheberrechte beanspruchen. Die anderen Aspekte der Berücksichtigung bestehender Urheberrechte bei den zugrundeliegenden Daten hingegen kann ich nicht beurteilen, kann/muss aber klar beim „Anlernen“ der KI kontrolliert werden. Also wenn Adobe ein KI-basiertes Bildverbesserungstool in LrC einbaut und verkauft (was Tatsache ist), dann sind sie dafür in der Schuld, dass diese Tool gegen keine Copyrights verstösst.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Stunden schrieb Widder49:

Das Gehirn arbeitet analog. Das heißt: jede Nervenzelle kann mehrere hundert unterscheidbare Zustände einnehmen. 

Eigentlich nicht. Bei der Reizweiterleitung gibt es nur zwei Zustände: ja und nein. Eine einzelne Nervenzelle kann soweit depolarisiert werden, dass sie ein elektrisches Aktionspotential auslöst oder eben nicht. Sie kann nicht stärker oder schwächer "feuern". Nur öfter oder seltener. Das lässt sich simpel programmieren. Dazu kommt noch die Vernetzung, also die Anzahl parallel geschalteter bzw. vor- oder nachgeschalteter Neurone, die ebenfalls feuern. Auch diese Vernetzung lässt sich leicht programmieren. Im Grunde wird die Arbeitsweise des menschlichen Gehirns durchaus nachgebildet, die Ausgestaltung des Netzwerks z.B. durch die Gewichtung der einzelnen Knoten überlässt man dem KI-Modell.

 

vor 18 Stunden schrieb Widder49:

Der große Unterschied zum Menschen ist, dass der Mensch nicht nach rechnerischen Ähnlichkeiten vergleicht, sondern in so einem Fall mit seinen sehr komplexen und maschinell nicht programmierbaren Denkvorgängen auch Hindernisse erkennt, die er nie zuvor gesehen hat.

Das passt schon eher. Das menschliche Gehirn arbeitet noch komplexer, als es die aktuellen neuronalen Netze trotz der enormen Rechenleistung abbilden können. Die Anzahl der Neurone und Synapsen im Gehirn ist um ein Vielfaches größer als in NN (kurzes googlen kommt auf Faktor 1000, wobei natürlich nicht jedes Neuron im Gehirn mit Denken und Problemlösen zu tun hat). Die Vernetzung ist ebenfalls komplexer als es aktuelle NN mit ihren Ebenen abbilden können. Das kann besser mit Ähnlichkeiten umgehen, berücksichtigt situative Gegebenheiten, dazu kommen bei der Entscheidung noch Einflüsse von außen: Läuft gerade Musik, habe ich Alkohol getrunken, in welcher Stimmungslage befinde ich mich, freudig, traurig, aufgeregt, bin ich müde oder ausgeruht. Die Emotionen sind bei uns für den Gedächtnisprozess enorm wichtig, sowohl für das Speichern als auch für den Abruf. Dazu kommt, dass das Gehirn plastisch ist und sich die Verknüpfungen ständig verändern. Letztlich ist es nur die Anzahl der Variablen, die berücksichtigt werden müssen und die Komplexität des Netzes, welches zur Verfügung steht. Und möglicherweise ist es nur eine Frage der Zeit, bis NN/KI entsprechend komplex urteilen und reagieren können.

Biologische Neurone können auch nicht Denken, haben kein Bewusstsein und keine Intelligenz. Sie können nicht intentional handeln. Erst die Masse macht es.

bearbeitet von JULOR
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb JULOR:

Dazu kommt noch die Vernetzung, also die Anzahl parallel geschalteter bzw. vor- oder nachgeschalteter Neurone, die ebenfalls feuern.

Wobei Neurone meine ich nur in eine Richtung feuern können. In den NN können auch Feedbacks wieder zurückgegeben werden. Im Gehirn hat es auch eine Art Feedback zwecks Fehlerüberprüfung, die funktioniert aber wohl anders - wobei ich es so gelesen habe, dass man da noch gar nicht genau weiß wie.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb JULOR:

Und möglicherweise ist es nur eine Frage der Zeit, bis NN/KI entsprechend komplex urteilen und reagieren können.

Ob sie jemals selber wirklich denken und urteilen können? Es wird noch lange bei reinem rechnen bleiben. Wobei man nicht ausschließen kann, dass auch das: "Biologische Neurone können auch nicht Denken, haben kein Bewusstsein und keine Intelligenz. Sie können nicht intentional handeln. Erst die Masse macht es." zu einem wirklichen Denkprozess bei Maschinen führt. Spannend und scary gleichzeitig.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb adrianrohnfelder:

Im Gehirn hat es auch eine Art Feedback zwecks Fehlerüberprüfung, die funktioniert aber wohl anders

Sogar sehr ähnlich zu künstlichen neuronalen Netzen. Ein Neuron kann nur in eine Richtung feuern, das stimmt. Aber bereits vom nächsten Zielneuron gibt es in der Regel schon Rückmeldungen zum Ausgangsneuron. Ich musste etwas suchen, um nicht den Aspekt der Fotografie zu verlieren. Aber hier ist ein schönes Beispiel der lateralen Hemmung in der Sehbahn, die auch biologisch/histologisch gesichert ist. Dieses Prinzip erhöht das Kontrastsehen, d.h. das Erkennen von Kanten und Übergängen wird erleichtert. Das ist wichtig für die Figur-Grund-Wahrnehmung, also den um den Säbelzahntiger im Dickicht zu erkennen, bzw. allgemein Objekte vor einem Hintergrund. Also genau das, was die KI-Filter in LR und Luminar machen.  Manche gehen davon aus, das das ebenfalls für das Lesen essentiell ist, um schneller die Buchstaben und Wörter zu erfassen - obwohl da der Kontrast ja meistens schon hoch ist. Dafür sind es Symbole, die sehr klein sind und viele Ähnlichkeiten aufweisen, daher ist eine schnelle Erkennung durchaus sinnvoll. Ebenso kann auf diese Weise das Nutzsignal von Rauschen getrennt werden.

An dem Modell sieht man auch sofort die Ähnlichkeit zu künstlichen NN. Eingangsmatrix, vernetzte Interneurone und Ausgangsmatrix.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Von Zsynth, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=1645056

Der Artikel dazu ist auch ganz interessant, vielleicht: https://de.wikipedia.org/wiki/Laterale_Hemmung

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb adrianrohnfelder:

Ob sie jemals selber wirklich denken und urteilen können? Es wird noch lange bei reinem rechnen bleiben.

Das sehe ich genauso. Das ist auch eher eine philosophische Frage. Aber wie du es so schön benennst, etwas "scary". 👀

bearbeitet von JULOR
Link zum Beitrag
Auf anderen Seiten teilen

vor 28 Minuten schrieb JULOR:

Das ist wichtig für die Figur-Grund-Wahrnehmung, also den um den Säbelzahntiger im Dickicht zu erkennen, bzw. allgemein Objekte vor einem Hintergrund.

Danke für Deine Mühe und den interessanten Text. Interessant ist bei dieser Grund-Wahrnehmung ja auch, dass ein Objekt im Gehirn nicht auf einmal, sondern in Schichten erkannt wird, von ganz grob 1. Schicht "da ist etwas" bis zur letzten Schicht feinsten Auflösung. Und genau durch solche Schichten laufen ja auch die Mustererkennungen einer KI.

Spannend finde ich auch, dass sich die Erkennung von Gesichtern in einem anderen Bereich abspielt als die restliche Erkennung von Gegenständen. Ist die Frage, ob eine KI das im gleichen Verfahren kann bzw. auch unterschiedlich trainiert werden muss? Gilt dann auch für eine Motiverkennung in der Kamera oder Software. Wobei es ja eigentlich noch komplexer ist, unser Hirn ist ja i.w. auf gleiche oder ähnliche Kulturen trainiert. Daher fällt es uns Europäern ja auch so schwer, Asiaten oder Afrikaner auseinanderzuhalten. Was sagt uns das über die Gesichtserkennung im Gehirn bzw. auch für die Gesichtserkennung einer KI? Aber das führt hier langsam etwas weit befürchte ich 🙈

Link zum Beitrag
Auf anderen Seiten teilen

Am 9.3.2023 um 13:23 schrieb JULOR:

Eigentlich nicht. Bei der Reizweiterleitung gibt es nur zwei Zustände: ja und nein. Eine einzelne Nervenzelle kann soweit depolarisiert werden, dass sie ein elektrisches Aktionspotential auslöst oder eben nicht. Sie kann nicht stärker oder schwächer "feuern". Nur öfter oder seltener. Das lässt sich simpel programmieren. 

 

Zwei Zustände in der Reizweiterleitung, das ist richtig. Aber die einzelne Nervenzelle kann über 100 bis über 200 differenzierbare (je nach Sinnes- bzw. Nervenart) zustände einnehmen. Natürlich feuert sie nicht stärkere oder schwächere Signale, aber sie feuert eben je nach analogem Reizzustand schnell, langsam oder gar nicht. Wie viele Bits werden denn benötigt für die simpel programmierte Routine, die das nachahmen kann? Erst einmal brauchen wir im Mittel 128 bit für jede einzelne Nervenzelle, um die möglichen Zustände nachzubilden, dann brauchen wir schon einige kb für den Prozessor und Arbeitsspeicher, wo diese Routine abgelegt wird und läuft. Deshalb wird man mindestens das tausendfache an Speicher in bit benötigen, als der Anzahl der Nervenzellen entspricht, um die Leistung nachzubilden.

Jetzt kommt hinzu, dass es einen riesigen Unterschied gibt, der in einem Punkt die KI jetzt schon sehr viel leistungsfähiger macht, als das Gehirn: die feste Speicherung irrsinniger Mengen von Informationen, auf die schnell zugegriffen werden kann. Das aber benötigt sehr viel Speicherplatz, den man in meine vorherige Berechnung nicht einbeziehen kann. Der Mensch hat kein Bild im Gehirn gespeichert. Er ruft bei Begegnungen oder Erinnerungen Einzelinformationen aus der Erinnerung zusammen und bildet sich damit ein virtuelles Bild im denk-aktiven Teil des Gehirns. Es kann mehr oder weniger genau sein. Da hat KI einen großen Vorteil, weil sie beim Vergleich exakt gespeicherte Bilder hervorholt und in einem Detailgrad die Stukturen vergleicht, wie wir das nicht können. Deshalb ist sie schon im Vorteil bei der Analyse von Röntgenbildern oder Ganzkörper-Scans für die Hautkrebsvorsorge.

Der große Nachteil ist dann aber das total fehlende Denken bei der Informationsverarbeitung. Aufgrund der Erstellung der Ergebnisse durch rein rechnerische Wahrscheinlichkeitsberechnungen kann es grobe Fehler geben, wie sie z.B. bei ChatGPT noch an der Tagesordnung sind. Der Kontext eines Textes wird ganz regelmäßig nicht erfasst, wenn der Bezug weiter zurückliegt, als im letzten Halbsatz. Es gibt ständige total simple Verwechslungen von der oder die, von herein oder heraus, von kommen und gehen etc. Bei mehreren Personen im Text wird der Bezug in der Hälfte der Fälle verwurschtelt. Da ist die rein statistische Logik des Zusammenhangs eben weit entfernt vom Erfassen von Texten durch Denken.  

Ich bin überzeugt, dass es diese Fehler bei Bild-KI nicht gibt. Ein Bezug in vergleichbarer Art ist mir zumindest nicht vorstellbar. Da sehe ich eher die Gefahr, dass gelernte Strukturen wiederverwendet werden und damit auch mal Bildabschnitte oder bei Musik-KI Tonfolgen, die es woanders bereits gab. Dann kommen wir auf das Urheberrechtsproblem. Bei Texten spielt das erst eine Rolle, wenn ein ganzer Absatz identisch wiedergegeben wird. Bei Einzelsätzen, wenn im Text steht "der Mann geht zum Bahnhof", dann bin ich sicher, dass es diesen Satz häufig auch in anderen Texten gibt. Aber wegen eines solchen Einzelsatzes kann es kein Urheberrechtsproblem geben, weil das Sätze des allgemeinen Alltags sind. 

Link zum Beitrag
Auf anderen Seiten teilen

Am 11.3.2023 um 20:05 schrieb Widder49:

aber sie feuert eben je nach analogem Reizzustand schnell, langsam oder gar nicht.

Genau das hatte ich ja geschrieben. 

 

Am 11.3.2023 um 20:05 schrieb Widder49:

Erst einmal brauchen wir im Mittel 128 bit für jede einzelne Nervenzelle, um die möglichen Zustände nachzubilden

Ich bin kein IT-Experte, aber um rund 200 Zustände abzubilden, benötige ich 8 bit (256 Zustände).

Ansonsten hast du natürlich recht. In vielen Punkten funktioniert eine KI eben anders als unser Gehirn. Das "Denken" funktioniert noch nicht, subjektives Erleben und Emotionen gibt es nicht. Das macht sie in vielen Fällen, wie den von dir genannten, genauer. Auf der anderen Seite fehlt noch der "Verstand".

Link zum Beitrag
Auf anderen Seiten teilen

Das was wir heute als KI bezeichnen ist nichts anderes als die Kombination von Mustererkennung mit regelbasierten Entscheidungen.

Ich habe vor langer Zeit meine Diplomarbeit zum Thema Regelbasierte Systeme in der Wettervorhersage geschrieben (damals noch mit Lisp und Prolog). Heute sind wir nicht zuletzt Dank enorm gesteigerter Rechenleistung ein ganzes Stück weiter. Was noch immer völlig fehlt, ist der intuitive Aspekt, der für wirkliche Kreativität sorgt. Letztere liegt derzeit noch bei dem Menschen, der die KI Engine "füttert", wie z.B. mit grenzgenialen Prompts bei Midjourney.


Übrigens: Was ChatGPT, Midjourney und co ... machen ist zwar beeindruckend, richtig cool wird es aber mit Programmen wie AlphaFold (mittlerweile als Version 2), die zur Proteinstrukturvorhersage (einschließlich Visualisierung) genutzt werden. Und zwar als OpenSource Projekt.
https://www.deepmind.com/research/highlighted-research/alphafold

bearbeitet von acahaya
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...