Inhalte aufrufen

Profilbild

Romane schreibt künftig der Computer?

Romane KI Künstliche Intelligenz Schreiben Schreibwerkzeug Textgenerator

  • Zum Antworten bitte anmelden
72 Antworten zu diesem Thema

#41
hpr

hpr
  • 7.214 Beiträge
  • Dabei seit 14.03.06

Ich bin ja seit Jahrzehnten in der IT und immer wieder wurde das für die nahe Zukunft prophezeit. Seit vielen Jahrzehnten gibt es Übersetzungssoftware, sie wird immer besser, du kannst verstehen, was gemeint war im fremdsprachigen Text, wenn auch nicht immer. Aber lesbare Bücher kann man damit noch lange nicht erstellen.
Rezensionen, wie Andreas meinte, das dürfte möglich sein. Liegt auch daran, dass die meisten Rezensionsschreiber sich nicht viel Mühe geben und mit Formeln (superspannend, konnte es nicht weglegen) arbeiten. Wenn man mit solchen Rezensionen eine KI füttert, sollte die eine Durchschnittsrezension von Amazon erzeugen können.
Wie gesagt, seit ich Informatik studiert habe - und das ist jetzt 50 Jahre her - wird das als baldige Zukunft vorhergesagt. KI zu programmieren ist nicht so einfach. Was am besten geht, ist alles, was mit festen Datenzusammenhängen arbeitet. Also medizinische Daten, auch Kommentare zu Wirtschaftsdaten (entweder gehts rauf oder runter), Fußballspiele etc Aber selbst da braucht man nochmal einen Menschen, der einen Blick auf das Ergebnis wirft.
Irgendwann wird es kommen. Aber vermutlich wird es nochmal 50 Jahre dauern.
Bei Romanen kommt es eben nicht nur auf die Daten an (Mord in Badewanne, Computervirus vernichtet Texte, Sex mit Notarzt), sondern auch auf das Wie, wie erzählt wird. Und das ist der Schwachpunkt jeder KI. Als Hilfsmittel kann die KI aber wirken und einen Text analysieren, da wird sie auch immer besser.



#42
Christa

Christa
  • 10.060 Beiträge
  • Dabei seit 18.11.05

Irgendwann wird es kommen. Aber vermutlich wird es nochmal 50 Jahre dauern.
Bei Romanen kommt es eben nicht nur auf die Daten an (Mord in Badewanne, Computervirus vernichtet Texte, Sex mit Notarzt), sondern auch auf das Wie, wie erzählt wird. Und das ist der Schwachpunkt jeder KI. Als Hilfsmittel kann die KI aber wirken und einen Text analysieren, da wird sie auch immer besser.

 

Ich könnte mir vorstellen, dass die KI in fünf, zehn oder fünfzig Jahren Ideen produzieren kann, aus denen sie dann mit den Datensätzen interessante Geschichten entwickelt. Der Mensch, der Autor, hat ja auch gesammelte Datensätze im Kopf, bestehend aus Erlebtem, Gesehenem, Gelernten, Gehörtem usw. Das Wie ist dann das, was KI-Geschichten immer von Menschen- und Autorengeschichten unterscheiden wird. Denn die KI ist ja immer die Gleiche und kein Individuum. Das heißt, die Geschichten werden von sich zwar erweiternden Datensätzen gespeist, aber man wird nie sagen können: "Das hat jetzt der Autor KI Klausen oder KI Langhans oder ... geschrieben."


Bearbeitet von Christa, 02.08.2020 - 13:06,

Schwarzwaldkrimis Tod am schwarzen Fluss. Taschenbuch und E-Book:https://t1p.de/2mhn


Martinsmorde:- https://www.thalia.d...pe=suchhistorie Mörderische Förde ab 5.10. 20 https://www.thalia.d...D149527193.html Blog:http://schreibteufel...a.blogspot.com/


#43
Manfred

Manfred
  • 256 Beiträge
  • Dabei seit 20.03.14

“If this is coffee, please bring me some tea; but if this is tea, please bring me some coffee.”

 

Abraham Lincoln war nicht nur Muttersprachler des Englischen, er hatten auch einen feinen Sinn für Humor, an dem Siri, Alexa und alle ernsthaften „KIs“ auf lange Sicht scheitern werden. Genau. Mindestens an diesen Dingen: an der Intuition von Muttersprachlern und am Humor. Übrigens auch am Lügen

 

Meine Forschungsgruppe arbeitet seit einigen Jahren an der Entwicklung eines autonomen kognitiven Systems (gerne auch „Künstliche Intelligenz“). Wir – und auch alle Mitstreiter auf der globalen Szene – können längst nicht das gesamte (intuitive) Wissen eines Muttersprachlers abbilden, geschweige denn Humor oder Lügen, zwei mentale Fähigkeiten, die die Spezies Mensch auszeichnen.

 

Diese mentalen Fähigkeiten sind übrigens nicht bei der automatischen Abfassung von Wetter- oder Sportberichten gefragt. Und ganz sicher würden sie in solchen Berichten von der Leserschaft auch nicht geschätzt werden. In automatischen Berichten werden Eintragungen in Datenbanken in immer-gleiche sprachliche Formeln gegossen, ohne dass die Software irgendeine Ahnung davon hätte, was ein Ball oder Bayern München ist oder davon, dass plötzlicher, heftiger Regen Menschenleben kosten kann oder Stromausfall verursachen und Programme zum automatischen Abfassen von Berichten abstürzen lassen kann.

 

Die arme KI, auch die beste, könnte nicht anders als mit propositionaler Logik an Lincolns Kommentar zum Heißgetränk herangehen. Umgangssprachlich etwa so: Ich bin die Service-KI. Er ist der Präsident der Vereinigten Staaten von Amerika. Ich hatte den Auftrag, ihm Kaffee zu bringen. Der Getränkeautomat produzierte Kaffee. Also habe ich ihm Kaffee gebracht. Der Präsident ändert nun seinen Auftrag, falls ich ihn korrekt ausgeführt habe und es wahr ist, dass das servierte Getränk das gewünschte Getränk ist. Ich prüfe die Voraussetzungen: 1. Ich habe am Automaten Kaffee gewählt. 2. Meine olfaktorischen Sensoren nehmen Kaffee wahr. Schlussfolgerung: Das Getränk, das ich serviert habe, ist Kaffee. Da diese Bedingungen erfüllt sind, wünscht der Präsident nun Tee, fügt aber hypothetisch hinzu, dass ich Kaffee bringen soll, wenn die Bedingungen der ersten Proposition falsch sind. ... Wenn ich Kaffee und Tee serviere, sind beide seiner Bedingungen erfüllt.

 

Die Servier-KI kapiert’s nicht. Lincoln will nicht Kaffee und Tee, sondern einen Kaffee, der seinen Namen verdient hat. Was ist der Trick? Lincolns indirekter Sprachakt. Wenn ich in Frage stelle, ob eine offenbar erkennbare Substanz wirklich diese Substanz ist, mache ich im Englischen eine Aussage zu ihrer Qualität. (Im Münsterland kriegt man dann eine gescheuert.) Dazu brauche ich aber neben der Grammatik, dem Lexikon und Tausend anderen Sachen noch zwei weitere wichtige Zutaten: erstens muss ich dieses kulturelle Script kennen (und darf es nur bei den Angelsachsen oder weit gereisten Menschen anderer Nationen anwenden) und zweitens muss ich mich gedanklich in den anderen hinein versetzen können. Nur wenn ich erkennen kann, dass der Kaffee- und Teetrinker die servierten Heißgetränke sehr wohl an Farbe, Geruch und Geschmack erkennen kann, darf ich schlussfolgern, dass er nur vorgibt, die Getränke nicht zu erkennen. Und erst dann kann ich seinem gelogenen Nichterkennen eine Bedeutung zuordnen, nämlich „der Kaffee schmeckt miserabel“.

 

Die Moral von der Geschicht? Wetterbericht ja. Zum Roman, da reicht es nicht.

 

Wir haben übrigens die angeblichen Schreib-KIs in allen möglichen Schattierungen hier im Forum durchgekaut. (Zurückblättern lohnt sich. :) ) In der Zwischenzeit hat es in der Sache keinen Durchbruch gegeben. Aber nochmal: ein Schreibroboter müsste in seinen kognitiven Fähigkeiten mindestens über die eines Menschen verfügen, und zwar in allen Bereichen. Derartiges ist in der Sensationspresse zwar schon öfters behauptet worden, existiert aber nicht. Und alle Systeme, die das angeblich können, sehen bei einem echten Vergleich recht müde aus. Zu hoffen, dass der Wetterbericht-Generator irgendwann anfängt, Romane zu schreiben, ist so als würde man hoffen, dass aus seinem Hund ein Elefant wird, wenn er nur gaaanz viel frisst. Dazu fehlt dem Hund Vieles, nicht nur der Rüssel und die dicke Haut.

 

Also spitzt die Bleistifte und schreibt weiter: ohne euch geht’s nicht. Und wann sich das ändert, ist nicht in Sicht.


Bearbeitet von Manfred, 07.08.2020 - 14:26,


#44
DirkH

DirkH
  • 1.017 Beiträge
  • Dabei seit 29.04.15

Großartig, Manfred. Ich gestehe, dass ich in diesen KI Diskussionen, deren Beiträge bestenfalls aus Ahnungsbekunden bestehen, einen Beitrag wie diesen vermisst habe.


Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?


#45
Christa

Christa
  • 10.060 Beiträge
  • Dabei seit 18.11.05

So dachte ich auch. Endlich ein Beitrag vom Fachmann. Von Manfred und anderen habe ich bisher schon viel gelernt, zum Beispiel

in diesem Thread vor drei Jahren:

https://montsegur.de...randioser-mist/

 

War nicht leicht zu finden, da er sich unter dem Stichwort "Harry Potter" versteckte. So wie den gab es auch noch andere gute Diskussionen.


Schwarzwaldkrimis Tod am schwarzen Fluss. Taschenbuch und E-Book:https://t1p.de/2mhn


Martinsmorde:- https://www.thalia.d...pe=suchhistorie Mörderische Förde ab 5.10. 20 https://www.thalia.d...D149527193.html Blog:http://schreibteufel...a.blogspot.com/


#46
FlorianV

FlorianV
  • 161 Beiträge
  • Dabei seit 20.01.20
Ich will euch ja nicht weiterhin beunruhigen, aber die neue AI GPT-3 schreibt mittlerweile Harry-Potter-Treatments im Stile von Raymond Chandler. Und Gedichte über Elon Musk ...

https://arr.am/2020/...lmost-anything/

#47
Ramona

Ramona
  • 4.032 Beiträge
  • Dabei seit 17.03.11

Ich will euch ja nicht weiterhin beunruhigen, aber die neue AI GPT-3 schreibt mittlerweile Harry-Potter-Treatments im Stile von Raymond Chandler. Und Gedichte über Elon Musk ...

https://arr.am/2020/...lmost-anything/

 

Genau um diese KI ging es doch im Spiegel-Artikel der Thread-Eröffnung, Florian.

Inspiration exists, but it has to find us working! (Pablo Picasso)


#48
Dietmar

Dietmar
  • 1.090 Beiträge
  • Dabei seit 21.08.05

Ich will euch ja nicht weiterhin beunruhigen, aber die neue AI GPT-3 schreibt mittlerweile Harry-Potter-Treatments im Stile von Raymond Chandler. Und Gedichte über Elon Musk ...

https://arr.am/2020/...lmost-anything/

Das Problem ist nicht das Schreiben an sich, das Problem ist der Inhalt. Wenn das Programm 1 Million Bücher "gelesen" hat, kennt es die Informationen daraus und kann damit unendlich viele neue Geschichten schreiben; mehr aber auch nicht. Es kann nicht über den Tellerrand seiner Informationen blicken; es kann nur die bekannten neu verknüpfen. Wenn das Programm nicht weiß, wie die Elternkonstellation bei zwei Halbschwestern ist, die gleichzeitig Cousinen sind und einen Altersunterschied von vier Monaten haben, kann es darüber auch nie etwas schreiben. Woher soll das Programm wissen, dass sie den gleichen Vater und Mütter haben, die Schwestern sind? Zusätzlich zu den Büchern, müsste das Programm eine Datenbasis besitzen, die sämtliches andere Wissen, was in keinen der Bücher steht, beinhaltet. Woher soll das Programm schlussfolgern, dass man für Geheimdienste interessant wird, wenn man sich mit Primzahlen beschäftigt?



#49
FlorianV

FlorianV
  • 161 Beiträge
  • Dabei seit 20.01.20
"Woher soll das Programm schlussfolgern, dass man für Geheimdienste interessant wird, wenn man sich mit Primzahlen beschäftigt?"

Weil es diese Information irgendwo im Internet finden wird. Das ist reine brut force.

#50
KerstinH

KerstinH
  • 1.263 Beiträge
  • Dabei seit 08.04.19
Vielleicht gibt's ja irgendwann als Kaufanreiz eine Art "Echtheits"vermerk bei Büchern, truly brainmade oder so. ;-)

#51
Dietmar

Dietmar
  • 1.090 Beiträge
  • Dabei seit 21.08.05

"Woher soll das Programm schlussfolgern, dass man für Geheimdienste interessant wird, wenn man sich mit Primzahlen beschäftigt?"

Weil es diese Information irgendwo im Internet finden wird. Das ist reine brut force.

Richtig, und damit beschreibst du genau die Grenze von KI. Die Informationen für KI müssen vorher irgendwo persistent vorliegen; ob dass nun eine Million Bücher oder das Internet sind, ist völlig egal. Das ist ja gerade das, was einen guten Autor ausmacht, etwas zu schreiben, dass auf Informationen beruht, die vor dem Schreiben des Buches nicht persistent waren. Der menschliche Autor kann eben "Informationen aus dem Nichts" holen.



#52
Manfred

Manfred
  • 256 Beiträge
  • Dabei seit 20.03.14

Die neue Variante der Geschichte vom Autoren aus Blech, alias „künstlicher Intelligenz“ in Form von GPT-3, dem Bruder von R2-D2, macht offenbar die Runde in den Medien.  Jetzt auch auf heise online:

 

https://www.heise.de...ab-global-de-DE

 


Titel:                           „Sprach-KI GPT-3: Schockierend guter Sprachgenerator“

Untertitel:                  „Eine neue KI von OpenAI kann erstaunlich menschenähnlich schreiben. Sie tut dies aber immer noch auf hirnlose Weise.“

 

Der Schritt vom Titel zum Untertitel markiert allerdings einen deutlichen Wechsel in der Tonart, zumindest eine bemerkenswerte Einschränkung.

 

Das verbindet heise online  mit den anderen Medien, die über diesen allerneusten „Durchbruch“ berichten. Drastische Einschränkungen einer vollmundigen Schlagzeile oder große Schlagzeile verbunden mit einer Frage, die die Schlagzeile in Frage stellt. Wie im Literaturcafe, das in diesem Faden zitiert wurde:


Titel:                           „Liebesromane schreibt künftig der Computer“

Frage am Schluss:    „Werden eines Tages Romane von Maschinen geschrieben?“

 

Die technische Version des Projekts ist hier nachzulesen:

 

https://arxiv.org/pdf/2005.14165.pdf

 

Tom Simonite, Wissenschaftsredakteur bei WIRED, macht in wenigen Sätzen klar, wo die Grenzen von GPT-3 sind:

 

GPT-3 often spews contradictions or nonsense, because its statistical word-stringing is not guided by any intent or a coherent understanding of reality. “It doesn't have any internal model of the world, or any world, and so it can’t do reasoning that would require such a model,” says Melanie Mitchell, a professor at the Santa Fe Institute and author of Artificial Intelligence: A Guide for Thinking Humans. In her experiments, GPT-3 struggles with questions that involve reasoning by analogy, but generates fun horoscopes.

 

That GPT-3 can be so bewitching may say more about language and human intelligence than AI. For one, people are more likely to tweet the system’s greatest hits than its bloopers, making it look smarter on Twitter than it is in reality.

 

Also: die Massen an Daten und Statistik hinter GPT-3 haben nichts mit einem Verständnis der Realität zu tun. Daher produziert es oft inkohärenten Unsinn, der aber wie bekannte und bezaubernde Worte klingt. Dieser KLang entsteht aber erst im menschlichen Hirn, also im Auge des Betrachters - oder der Betrachterin.

 

Man kann den Textgenerator selbst hier ausprobieren:

 

https://play.aidungeon.io

 

Hier ein Beispiel aus den Federn von GPT-3 („DUNGEON“) und mir („ME“):

------------------------------------------------------------------------------------------------------------------------------------

The Dragon model is now available to premium users! Try out the most powerful AI we've ever used.
 
Generating story...
Tip: Want more story to generate? Just press enter without typing in an action.
 
ME: Tom looked Jim firmly in his eyes. "You are a smart man, Jim. I am the son of my son. What will happen to me if he dies?"
DRAGON: Jim hesitated for a moment. Then he replied: "I shall die too." "What! You will die?" Tom exclaimed.
ME "Why would you die in that event?"
DRAGON "Because it is not right. My son has done nothing wrong and yet he is dying because of you!" Jim was silent for a time.
ME "Hold on, Jim. I was talking about my son, not yours."
DRAGON "If my son dies because of me, then I will die too."
ME "Why would you die for that?"
DRAGON "It is the debt of blood. My family's honor demands it."
ME "Jim, you keep missing the point" Tom explained. "What happens if my son dies, I asked."
DRAGON Jim stopped. "I will be free." Tom exhaled deeply, exasperated.
ME "Jim, explain that, please. How can my son's death set you free?" Tom asked.

 

The AI doesn't know what to say. Alter, undo, or try again.

 

 

 



#53
KerstinH

KerstinH
  • 1.263 Beiträge
  • Dabei seit 08.04.19

"I am the son of my son."  :s20

"You keep missing the point."  ;D

 

Ich habe es jetzt auch mal probiert. Eigentlich wollte ich einen Krimi schreiben. Heraus kam eine sehr kurze Geschichte ...

 

Programm: You are Fiona, a detective living in Chicago. You have a pistol and a police badge. You enter the forest where you believe the criminal you're searching for fled to. Suddenly, you hear an owl and get scared. For some reason you believe that it is a bad sign if you hear an owl. 

Ich: That I think is a very good sign, I said to myself.

Progamm: You state to yourself that the fact that you heard an owl means that you should go in the direction where the sound came from. You are correct, you encounter the criminal you were searching for. 

Ich: "You look a bit pale. Are you alright?" 

Programm: The criminal turns his head and stares at you, then he replies, "I've been better." 

Ich: "Better than me?" I asked stunned. 

Programm: The criminal does not answer. You are beginning to feel something is wrong here. You cannot understand why you feel like this.

Ich: Something is wrong here I thought. The owl itself looks criminal. 

Programm: The criminal attacks you. You manage to shoot him but he keeps on attacking. You are killed by the criminal's knife. 

Ich: "Oh I am killed. What now? Is this the end of everything?" 

Programm: May your soul rest in peace.

Ich: Yes, but what about the book? 

Programm: The book is taken.


Bearbeitet von KerstinH, 18.08.2020 - 08:33,


#54
DirkH

DirkH
  • 1.017 Beiträge
  • Dabei seit 29.04.15

Da stellt sich die Frage, woher es kommt, dass der Mensch gerne glauben möchte, er werde bald von Maschinen abgeschafft.

Das könnte ein Thema für einen Roman sein. Den schreibt dann zwar ein Mensch, aber im Duktus der Künstlichen Intelligenz. Ich sehe schon die zweistelligen Verkaufszahlen! 


Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?


#55
Manfred

Manfred
  • 256 Beiträge
  • Dabei seit 20.03.14

Gute Frage, Dirk. Und spannendes Buchkonzept. :)

Aber sicher würde die KI-Autorin sich nicht auf das Schreiben beschränken, oder? Wenn sie schon so schlau ist?

 

Vielleicht liegt hier ein Teil der Antwort:

 

Lies spread faster than the truth

There is worldwide concern over false news and the possibility that it can influence political, economic, and social well-being. To understand how false news spreads, Vosoughi et al. used a data set of rumor cascades on Twitter from 2006 to 2017. About 126,000 rumors were spread by ∼3 million people. False news reached more people than the truth; the top 1% of false news cascades diffused to between 1000 and 100,000 people, whereas the truth rarely diffused to more than 1000 people. Falsehood also diffused faster than the truth. The degree of novelty and the emotional reactions of recipients may be responsible for the differences observed.

 

Science, this issue p. 1146

Science  09 Mar 2018:
Vol. 359, Issue 6380, pp. 1146-1151
DOI: 10.1126/science.aap9559

 

Also eine sehr menschliche Erklärung: "The degree of novelty and the emotional reactions of recipients may be responsible for the differences observed."



#56
FlorianH

FlorianH
  • 318 Beiträge
  • Dabei seit 17.08.18
Manfred, heisst das, Du schliesst aus, dass es Artificial General Intelligence geben kann?

#57
AndreasE

AndreasE
  • 2.406 Beiträge
  • Dabei seit 01.04.07

 Ich sehe schon die zweistelligen Verkaufszahlen! 

 

Optimist !  ;D



#58
AndreasE

AndreasE
  • 2.406 Beiträge
  • Dabei seit 01.04.07

Lies spread faster than the truth

 

Das liegt daran, dass Lügen meistens viel interessanter sind als die Wahrheit.

 

Ich meine … das ist ja letztendlich auch unser aller Geschäftsmodell hier, nicht wahr? Lying for fun and profit …  ;)  :-*  :s01 



#59
Manfred

Manfred
  • 256 Beiträge
  • Dabei seit 20.03.14

Manfred, heisst das, Du schliesst aus, dass es Artificial General Intelligence geben kann?

 

Nein. Das sind ja zwei Extreme: entweder maßlose Übertreibung der Fähigkeiten von aktuellen KIs oder kompletter Ausschluss einer „starken KI“ (= „Artificial General Intelligence“), also der Möglichkeit von Bewusstsein in Maschinen.

 

In meinen Posts ging es mir darum, deutlich zu machen, dass die Strecke, die noch bis zu dem Punkt zurück gelegt werden muss, der in den Schlagzeilen markiert wird, noch seeeehr weit ist. Schlagzeilen wie diese:

 

„Eine neue KI kann erstaunlich menschenähnlich schreiben.“

„Liebesromane schreibt künftig der Computer“

 

Da gibt es noch sehr viele Probleme, die vorher gelöst werden müssen.

 

Derartige Schlagzeilen trifft AutorInnen offenbar ins Herz. KI und menschenähnlich. Liebesroman und Computer. Das geht tief rein. Und zielt auch gleich auf eine Kernfrage in der Entwicklung von „künstlicher Intelligenz“: wie menschenähnlich ist das Programm? Wird es von Menschen für einen Menschen gehalten? Das ist der Turing-test, so benannt nach dem Logiker und Mathematiker Alan Turing. Der Test (aus den 1950er Jahren) war lange für viele Informatiker DER Maßstab dafür, dass ein KI-Programm „es geschafft“ hat. Turing glaubte, dass der Test um das Jahr 2000 geknackt würde. Geschafft hat es aber bisher noch kein Programm, wenn auch in den letzten Jahren entsprechende Falschmeldungen kursierten.

 

Schon in den 1960er Jahren machte sich Joseph Weizenbaum daran, den Turing-test zu knacken. Sein Programm „Eliza“ imitierte einen Psychoanalytiker und begeisterte nicht nur seine Sekretärin, sondern später auch tausende von stolzen Besitzern von Heimcomputern, die schon damals das Gefühl bekamen, mit einem Psychiater zu kommunizieren. Dieses Gefühl entstand aber nur dadurch, dass die Benutzer bereit waren, auf die sehr engen Regeln einer (schriftlichen) Kommunikation mit dem scheinbaren Psychiater einzugehen. Man kann das Programm aber sehr leicht aufs Kreuz legen, weil es nichts versteht und sich z.B. nicht darauf beziehen kann, was im Gespräch vorher „gesagt“ wurde.

 

Diese Art von Schwierigkeiten haben alle Programme, die künstliche Intelligenz darstellen sollen. Sich auf das vorher Gesagte beziehen zu können, scheint auf den ersten Blick so einfach, ist es aber überhaupt nicht. Das wird zum Beispiel bei Demenzpatienten deutlich. Sie verlieren sich häufig in ihren eigenen Geschichten oder versäumen, wesentliche Teile der Geschichte zu erwähnen oder erzählen Bruchstücke mehrfach.

 

Erzähler von Geschichten – künstliche oder menschliche – müssen über die Fähigkeit verfügen, Kohärenz herstellen zu können. Das heißt, sie müssen die Aktionen richtig mit den Handelnden und „Behandelten“ verknüpfen können, die Aktionen in der richtigen und logischen Reihenfolge berichten können und dabei die verschiedenen Rollen (handelnde oder behandelte Person) und deren Beziehungen zu einander unterscheiden und all das im Erzählfluss für die ganze Sequenz von Handlungen, die eine Geschichte ausmacht, präsent haben können.

 

Notwendig ist für Erzähler auch die Fähigkeit, die Erwartungen und das Vorwissen der Zuhörer abschätzen zu können. Zum Beispiel dass ein Hörer weiß, was Tee und Kaffee ist und wie es jeweils aussieht, schmeckt und riecht. Und bei welcher Gelegenheit (zur Friedenspfeife?) und unter welchen Umständen (nackt, im Bad ... ) man diese Getränke üblicherweise zu sich nimmt und welche Bedeutung das Kaffee- und Teetrinken in der Gesellschaft anderer Menschen hat. Und wen man dazu einladen kann und wen nicht.

 

Der Erzähler muss auch logisch schlussfolgern können und zum Beispiel wissen, dass ein Mensch nicht der Sohn seines Sohnes sein kann. Es sei denn, wir sind in einer speziellen Version von „back to the future“.

 

Einige dieser Fähigkeiten wurden in einer Studie für GPT-3 überprüft, wie im erwähnten Forschungsbericht nachzulesen ist. Dabei wurde die Leistung von GPT-3 mit der anderer Programme und der von Menschen verglichen, und es zeigte sich, dass GPT-3 längst nicht die Leistung von Menschen erreicht. Vor allem hat das Programm Probleme mit logischen Schlussfolgerungen und auch mit Wissen über die Welt, obwohl es ja Zugang zu Milliarden von Aussagen im Internet hat. Es versteht sie aber nicht und kann fliegende Schweine nicht von wahren Aussagen unterscheiden.

 

Also Turing-test nicht bestanden. Dabei ist der Turing-test der 1950er Jahre noch die milde Variante, die aber später von vielen Forschern beanstandet wurde. So zeigte der Philosoph und Linguist John Searle, dass der Turing-test nur Funktionalität überprüft, nicht aber Bewusstsein und „Intentionalität“, also wesentliche Bestandteile des menschlichen Geistes. Erweiterte Turing-tests schließen auch diese Aspekte ein und gelten als angemessenerer Maßstab für „denkende Maschinen“.

 

Daher erwähnte ich in meinem früheren Post in diesem Faden das Lügen und den Humor. „Intentionalität“ beinhaltet in den Kognitionswissenschaften die Fähigkeit des Geistes, auf Dinge und Sachverhalte zu verweisen, die in der Realität nicht existieren. Wenn ich lüge, mache ich eine unwahre Aussage. Ich kann auch Aussagen machen, die in der Realität nicht möglich sind, z.B. dass Wasser bergauf fließt. Zugleich kann ich wissen, dass das nicht möglich ist. Beim Lügen muss ich außerdem wissen, ob die Zuhörer wissen, was möglich und wahr ist und ob sie dies überprüfen können. Ich muss also eine Vorstellung von ihrer Vorstellung von der Welt und der anderer Menschen haben.

 

Dies ist nur eine unvollständige und oberflächliche Beschreibung einiger mentaler Fähigkeiten, die zu dem gehören, was wir Bewusstsein nennen.

 

All dies fehlt der Software namens GPT-3 – wie man beim Dragon Model deutlich sehen kann: schlechte Kohärenz, schlechte logische Schlussfolgerungen.

 

Und daher ist es noch ein langer Weg, bis Kollege Roboter Romane schreiben kann.

 

Noch ein Nachsatz zum Thema Bewusstsein. Meines Wissens gibt es in der Forschung keinen Konsens über ein umfassendes Verständnis von Bewusstsein. Es gibt aber ein Verständnis davon, wie welche minimalen kognitiven Voraussetzungen sich in lebenden Organismen entwickeln müssen, damit Stufen von Bewusstsein entstehen können, und zwar im Vergleich zwischen Spezies und in der mentalen Entwicklung von Kindern. Ob Bewusstsein an körperliche Erfahrungen gebunden ist, ist dabei strittig. Wenn körperliche Erfahrungen dazu nötig sind, ist der Weg zur einer Artificial General Intelligence noch ein Stück weiter.



#60
Christa

Christa
  • 10.060 Beiträge
  • Dabei seit 18.11.05

Erzähler von Geschichten – künstliche oder menschliche – müssen über die Fähigkeit verfügen, Kohärenz herstellen zu können. Das heißt, sie müssen die Aktionen richtig mit den Handelnden und „Behandelten“ verknüpfen können, die Aktionen in der richtigen und logischen Reihenfolge berichten können und dabei die verschiedenen Rollen (handelnde oder behandelte Person) und deren Beziehungen zu einander unterscheiden und all das im Erzählfluss für die ganze Sequenz von Handlungen, die eine Geschichte ausmacht, präsent haben können.

 

Notwendig ist für Erzähler auch die Fähigkeit, die Erwartungen und das Vorwissen der Zuhörer abschätzen zu können. Zum Beispiel dass ein Hörer weiß, was Tee und Kaffee ist und wie es jeweils aussieht, schmeckt und riecht. Und bei welcher Gelegenheit (zur Friedenspfeife?) und unter welchen Umständen (nackt, im Bad ... ) man diese Getränke üblicherweise zu sich nimmt und welche Bedeutung das Kaffee- und Teetrinken in der Gesellschaft anderer Menschen hat. Und wen man dazu einladen kann und wen nicht.

 

Der Erzähler muss auch logisch schlussfolgern können und zum Beispiel wissen, dass ein Mensch nicht der Sohn seines Sohnes sein kann. Es sei denn, wir sind in einer speziellen Version von „back to the future“.

 

 

Daher erwähnte ich in meinem früheren Post in diesem Faden das Lügen und den Humor. „Intentionalität“ beinhaltet in den Kognitionswissenschaften die Fähigkeit des Geistes, auf Dinge und Sachverhalte zu verweisen, die in der Realität nicht existieren. Wenn ich lüge, mache ich eine unwahre Aussage. Ich kann auch Aussagen machen, die in der Realität nicht möglich sind, z.B. dass Wasser bergauf fließt. Zugleich kann ich wissen, dass das nicht möglich ist. Beim Lügen muss ich außerdem wissen, ob die Zuhörer wissen, was möglich und wahr ist und ob sie dies überprüfen können. Ich muss also eine Vorstellung von ihrer Vorstellung von der Welt und der anderer Menschen haben.

 

Danke mal wieder für diese tollen Gedanken, Manfred. Von den Turing-Experimenten hatten wir ja damals auch gesprochen.

Ich habe jetzt nur mal rausgenommen, über welche Fähigkeiten Erzähler verfügen müssen und das übers Lügen.

Ich würde der KI sogar zutrauen rauszufinden, bei welchen Gelegenheiten man Tee oder Kaffee trinkt und wen man dazu einlädt. Sie kann aber keine Bilder in den Köpfen der Menschen erzeugen oder den Geschmack von Kaffee oder Coq au Vin beschreiben. Die Verwandschaftsbeziehungen kann sie auch nicht richtig einordnen. Ich habe mir gerade überlegt, wie der KI-Schriftsteller wohl mit einem Lektor/ einer Lektorin kommunizieren würde. Die Lektorin würde zum Beispiel schreiben: Woher weiß der Kommissar, dass der Täter zu einem bestimmten Zeitpunkt an einem Ort war? Was würde die  KI da antworten? Oder "beschreiben Sie doch mal, wie es am Meer aussieht, den Geruch des Salzes, die Schreie der Möwen." Oder wie ein Hotdog schmeckt. Vielleicht: Am Meer gibt es Möwen , und der Geruch ist salzig. "Ein Hotdog ist ein Brötchen mit Remoulade, Ketchup und Zwiebeln." ?

 

Zu den Lügen und zum Humor: An dem Punkt waren wir auch schon mal. Die KI kann keine Vorstellung von der Welt haben. Niemals.

Sondern nur Wissen darüber. Humor kann sie wahrscheinlich unfreiwillig haben, also dass man über ihre drolligen Worte lachen kann.

Und wenn Bewusstsein an Körperlichkeit gebunden sein sollte, ist die Sache ja eh klar wie Kloßbrühe. Blut wird ganz gewiss nie durch ihre Adern fließen.


Schwarzwaldkrimis Tod am schwarzen Fluss. Taschenbuch und E-Book:https://t1p.de/2mhn


Martinsmorde:- https://www.thalia.d...pe=suchhistorie Mörderische Förde ab 5.10. 20 https://www.thalia.d...D149527193.html Blog:http://schreibteufel...a.blogspot.com/




Themen mit den gleichen Schlagworten: Romane, KI, Künstliche Intelligenz, Schreiben, Schreibwerkzeug, Textgenerator