Zum Inhalt springen
Ramona

Romane schreibt künftig der Computer?

Empfohlene Beiträge

"Woher soll das Programm schlussfolgern, dass man für Geheimdienste interessant wird, wenn man sich mit Primzahlen beschäftigt?"

 

Weil es diese Information irgendwo im Internet finden wird. Das ist reine brut force.

Richtig, und damit beschreibst du genau die Grenze von KI. Die Informationen für KI müssen vorher irgendwo persistent vorliegen; ob dass nun eine Million Bücher oder das Internet sind, ist völlig egal. Das ist ja gerade das, was einen guten Autor ausmacht, etwas zu schreiben, dass auf Informationen beruht, die vor dem Schreiben des Buches nicht persistent waren. Der menschliche Autor kann eben "Informationen aus dem Nichts" holen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die neue Variante der Geschichte vom Autoren aus Blech, alias „künstlicher Intelligenz“ in Form von GPT-3, dem Bruder von R2-D2, macht offenbar die Runde in den Medien.  Jetzt auch auf heise online:

 

https://www.heise.de/hintergrund/GPT-3-Schockierend-guter-Sprachgenerator-4867089.html?utm_source=pocket-newtab-global-de-DE

 


Titel:                           „Sprach-KI GPT-3: Schockierend guter Sprachgenerator“

Untertitel:                  „Eine neue KI von OpenAI kann erstaunlich menschenähnlich schreiben. Sie tut dies aber immer noch auf hirnlose Weise.“

 

Der Schritt vom Titel zum Untertitel markiert allerdings einen deutlichen Wechsel in der Tonart, zumindest eine bemerkenswerte Einschränkung.

 

Das verbindet heise online  mit den anderen Medien, die über diesen allerneusten „Durchbruch“ berichten. Drastische Einschränkungen einer vollmundigen Schlagzeile oder große Schlagzeile verbunden mit einer Frage, die die Schlagzeile in Frage stellt. Wie im Literaturcafe, das in diesem Faden zitiert wurde:


Titel:                           „Liebesromane schreibt künftig der Computer“

Frage am Schluss:    „Werden eines Tages Romane von Maschinen geschrieben?“

 

Die technische Version des Projekts ist hier nachzulesen:

 

https://arxiv.org/pdf/2005.14165.pdf

 

Tom Simonite, Wissenschaftsredakteur bei WIRED, macht in wenigen Sätzen klar, wo die Grenzen von GPT-3 sind:

 

GPT-3 often spews contradictions or nonsense, because its statistical word-stringing is not guided by any intent or a coherent understanding of reality. “It doesn't have any internal model of the world, or any world, and so it can’t do reasoning that would require such a model,” says Melanie Mitchell, a professor at the Santa Fe Institute and author of Artificial Intelligence: A Guide for Thinking Humans. In her experiments, GPT-3 struggles with questions that involve reasoning by analogy, but generates fun horoscopes.

 

That GPT-3 can be so bewitching may say more about language and human intelligence than AI. For one, people are more likely to tweet the system’s greatest hits than its bloopers, making it look smarter on Twitter than it is in reality.

 

Also: die Massen an Daten und Statistik hinter GPT-3 haben nichts mit einem Verständnis der Realität zu tun. Daher produziert es oft inkohärenten Unsinn, der aber wie bekannte und bezaubernde Worte klingt. Dieser KLang entsteht aber erst im menschlichen Hirn, also im Auge des Betrachters - oder der Betrachterin.

 

Man kann den Textgenerator selbst hier ausprobieren:

 

https://play.aidungeon.io

 

Hier ein Beispiel aus den Federn von GPT-3 („DUNGEON“) und mir („ME“):

------------------------------------------------------------------------------------------------------------------------------------

The Dragon model is now available to premium users! Try out the most powerful AI we've ever used.
 
Generating story...
Tip: Want more story to generate? Just press enter without typing in an action.
 
ME: Tom looked Jim firmly in his eyes. "You are a smart man, Jim. I am the son of my son. What will happen to me if he dies?"
DRAGON: Jim hesitated for a moment. Then he replied: "I shall die too." "What! You will die?" Tom exclaimed.
ME "Why would you die in that event?"
DRAGON "Because it is not right. My son has done nothing wrong and yet he is dying because of you!" Jim was silent for a time.
ME "Hold on, Jim. I was talking about my son, not yours."
DRAGON "If my son dies because of me, then I will die too."
ME "Why would you die for that?"
DRAGON "It is the debt of blood. My family's honor demands it."
ME "Jim, you keep missing the point" Tom explained. "What happens if my son dies, I asked."
DRAGON Jim stopped. "I will be free." Tom exhaled deeply, exasperated.
ME "Jim, explain that, please. How can my son's death set you free?" Tom asked.

 

The AI doesn't know what to say. Alter, undo, or try again.

 

 

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

"I am the son of my son."  :s20

"You keep missing the point."  ;D

 

Ich habe es jetzt auch mal probiert. Eigentlich wollte ich einen Krimi schreiben. Heraus kam eine sehr kurze Geschichte ...

 

Programm: You are Fiona, a detective living in Chicago. You have a pistol and a police badge. You enter the forest where you believe the criminal you're searching for fled to. Suddenly, you hear an owl and get scared. For some reason you believe that it is a bad sign if you hear an owl. 

Ich: That I think is a very good sign, I said to myself.

Progamm: You state to yourself that the fact that you heard an owl means that you should go in the direction where the sound came from. You are correct, you encounter the criminal you were searching for. 

Ich: "You look a bit pale. Are you alright?" 

Programm: The criminal turns his head and stares at you, then he replies, "I've been better." 

Ich: "Better than me?" I asked stunned. 

Programm: The criminal does not answer. You are beginning to feel something is wrong here. You cannot understand why you feel like this.

Ich: Something is wrong here I thought. The owl itself looks criminal. 

Programm: The criminal attacks you. You manage to shoot him but he keeps on attacking. You are killed by the criminal's knife. 

Ich: "Oh I am killed. What now? Is this the end of everything?" 

Programm: May your soul rest in peace.

Ich: Yes, but what about the book? 

Programm: The book is taken.

Bearbeitet von KerstinH
Link zu diesem Kommentar
Auf anderen Seiten teilen

Da stellt sich die Frage, woher es kommt, dass der Mensch gerne glauben möchte, er werde bald von Maschinen abgeschafft.

Das könnte ein Thema für einen Roman sein. Den schreibt dann zwar ein Mensch, aber im Duktus der Künstlichen Intelligenz. Ich sehe schon die zweistelligen Verkaufszahlen! 

Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gute Frage, Dirk. Und spannendes Buchkonzept. :)

Aber sicher würde die KI-Autorin sich nicht auf das Schreiben beschränken, oder? Wenn sie schon so schlau ist?

 

Vielleicht liegt hier ein Teil der Antwort:

 

Lies spread faster than the truth

There is worldwide concern over false news and the possibility that it can influence political, economic, and social well-being. To understand how false news spreads, Vosoughi et al. used a data set of rumor cascades on Twitter from 2006 to 2017. About 126,000 rumors were spread by ∼3 million people. False news reached more people than the truth; the top 1% of false news cascades diffused to between 1000 and 100,000 people, whereas the truth rarely diffused to more than 1000 people. Falsehood also diffused faster than the truth. The degree of novelty and the emotional reactions of recipients may be responsible for the differences observed.

 

Science, this issue p. 1146

Science  09 Mar 2018:
Vol. 359, Issue 6380, pp. 1146-1151
DOI: 10.1126/science.aap9559

 

Also eine sehr menschliche Erklärung: "The degree of novelty and the emotional reactions of recipients may be responsible for the differences observed."

Link zu diesem Kommentar
Auf anderen Seiten teilen

Lies spread faster than the truth

 

Das liegt daran, dass Lügen meistens viel interessanter sind als die Wahrheit.

 

Ich meine … das ist ja letztendlich auch unser aller Geschäftsmodell hier, nicht wahr? Lying for fun and profit …  ;)  :-*  :s01 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Manfred, heisst das, Du schliesst aus, dass es Artificial General Intelligence geben kann?

 

Nein. Das sind ja zwei Extreme: entweder maßlose Übertreibung der Fähigkeiten von aktuellen KIs oder kompletter Ausschluss einer „starken KI“ (= „Artificial General Intelligence“), also der Möglichkeit von Bewusstsein in Maschinen.

 

In meinen Posts ging es mir darum, deutlich zu machen, dass die Strecke, die noch bis zu dem Punkt zurück gelegt werden muss, der in den Schlagzeilen markiert wird, noch seeeehr weit ist. Schlagzeilen wie diese:

 

„Eine neue KI kann erstaunlich menschenähnlich schreiben.“

„Liebesromane schreibt künftig der Computer“

 

Da gibt es noch sehr viele Probleme, die vorher gelöst werden müssen.

 

Derartige Schlagzeilen trifft AutorInnen offenbar ins Herz. KI und menschenähnlich. Liebesroman und Computer. Das geht tief rein. Und zielt auch gleich auf eine Kernfrage in der Entwicklung von „künstlicher Intelligenz“: wie menschenähnlich ist das Programm? Wird es von Menschen für einen Menschen gehalten? Das ist der Turing-test, so benannt nach dem Logiker und Mathematiker Alan Turing. Der Test (aus den 1950er Jahren) war lange für viele Informatiker DER Maßstab dafür, dass ein KI-Programm „es geschafft“ hat. Turing glaubte, dass der Test um das Jahr 2000 geknackt würde. Geschafft hat es aber bisher noch kein Programm, wenn auch in den letzten Jahren entsprechende Falschmeldungen kursierten.

 

Schon in den 1960er Jahren machte sich Joseph Weizenbaum daran, den Turing-test zu knacken. Sein Programm „Eliza“ imitierte einen Psychoanalytiker und begeisterte nicht nur seine Sekretärin, sondern später auch tausende von stolzen Besitzern von Heimcomputern, die schon damals das Gefühl bekamen, mit einem Psychiater zu kommunizieren. Dieses Gefühl entstand aber nur dadurch, dass die Benutzer bereit waren, auf die sehr engen Regeln einer (schriftlichen) Kommunikation mit dem scheinbaren Psychiater einzugehen. Man kann das Programm aber sehr leicht aufs Kreuz legen, weil es nichts versteht und sich z.B. nicht darauf beziehen kann, was im Gespräch vorher „gesagt“ wurde.

 

Diese Art von Schwierigkeiten haben alle Programme, die künstliche Intelligenz darstellen sollen. Sich auf das vorher Gesagte beziehen zu können, scheint auf den ersten Blick so einfach, ist es aber überhaupt nicht. Das wird zum Beispiel bei Demenzpatienten deutlich. Sie verlieren sich häufig in ihren eigenen Geschichten oder versäumen, wesentliche Teile der Geschichte zu erwähnen oder erzählen Bruchstücke mehrfach.

 

Erzähler von Geschichten – künstliche oder menschliche – müssen über die Fähigkeit verfügen, Kohärenz herstellen zu können. Das heißt, sie müssen die Aktionen richtig mit den Handelnden und „Behandelten“ verknüpfen können, die Aktionen in der richtigen und logischen Reihenfolge berichten können und dabei die verschiedenen Rollen (handelnde oder behandelte Person) und deren Beziehungen zu einander unterscheiden und all das im Erzählfluss für die ganze Sequenz von Handlungen, die eine Geschichte ausmacht, präsent haben können.

 

Notwendig ist für Erzähler auch die Fähigkeit, die Erwartungen und das Vorwissen der Zuhörer abschätzen zu können. Zum Beispiel dass ein Hörer weiß, was Tee und Kaffee ist und wie es jeweils aussieht, schmeckt und riecht. Und bei welcher Gelegenheit (zur Friedenspfeife?) und unter welchen Umständen (nackt, im Bad ... ) man diese Getränke üblicherweise zu sich nimmt und welche Bedeutung das Kaffee- und Teetrinken in der Gesellschaft anderer Menschen hat. Und wen man dazu einladen kann und wen nicht.

 

Der Erzähler muss auch logisch schlussfolgern können und zum Beispiel wissen, dass ein Mensch nicht der Sohn seines Sohnes sein kann. Es sei denn, wir sind in einer speziellen Version von „back to the future“.

 

Einige dieser Fähigkeiten wurden in einer Studie für GPT-3 überprüft, wie im erwähnten Forschungsbericht nachzulesen ist. Dabei wurde die Leistung von GPT-3 mit der anderer Programme und der von Menschen verglichen, und es zeigte sich, dass GPT-3 längst nicht die Leistung von Menschen erreicht. Vor allem hat das Programm Probleme mit logischen Schlussfolgerungen und auch mit Wissen über die Welt, obwohl es ja Zugang zu Milliarden von Aussagen im Internet hat. Es versteht sie aber nicht und kann fliegende Schweine nicht von wahren Aussagen unterscheiden.

 

Also Turing-test nicht bestanden. Dabei ist der Turing-test der 1950er Jahre noch die milde Variante, die aber später von vielen Forschern beanstandet wurde. So zeigte der Philosoph und Linguist John Searle, dass der Turing-test nur Funktionalität überprüft, nicht aber Bewusstsein und „Intentionalität“, also wesentliche Bestandteile des menschlichen Geistes. Erweiterte Turing-tests schließen auch diese Aspekte ein und gelten als angemessenerer Maßstab für „denkende Maschinen“.

 

Daher erwähnte ich in meinem früheren Post in diesem Faden das Lügen und den Humor. „Intentionalität“ beinhaltet in den Kognitionswissenschaften die Fähigkeit des Geistes, auf Dinge und Sachverhalte zu verweisen, die in der Realität nicht existieren. Wenn ich lüge, mache ich eine unwahre Aussage. Ich kann auch Aussagen machen, die in der Realität nicht möglich sind, z.B. dass Wasser bergauf fließt. Zugleich kann ich wissen, dass das nicht möglich ist. Beim Lügen muss ich außerdem wissen, ob die Zuhörer wissen, was möglich und wahr ist und ob sie dies überprüfen können. Ich muss also eine Vorstellung von ihrer Vorstellung von der Welt und der anderer Menschen haben.

 

Dies ist nur eine unvollständige und oberflächliche Beschreibung einiger mentaler Fähigkeiten, die zu dem gehören, was wir Bewusstsein nennen.

 

All dies fehlt der Software namens GPT-3 – wie man beim Dragon Model deutlich sehen kann: schlechte Kohärenz, schlechte logische Schlussfolgerungen.

 

Und daher ist es noch ein langer Weg, bis Kollege Roboter Romane schreiben kann.

 

Noch ein Nachsatz zum Thema Bewusstsein. Meines Wissens gibt es in der Forschung keinen Konsens über ein umfassendes Verständnis von Bewusstsein. Es gibt aber ein Verständnis davon, wie welche minimalen kognitiven Voraussetzungen sich in lebenden Organismen entwickeln müssen, damit Stufen von Bewusstsein entstehen können, und zwar im Vergleich zwischen Spezies und in der mentalen Entwicklung von Kindern. Ob Bewusstsein an körperliche Erfahrungen gebunden ist, ist dabei strittig. Wenn körperliche Erfahrungen dazu nötig sind, ist der Weg zur einer Artificial General Intelligence noch ein Stück weiter.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erzähler von Geschichten – künstliche oder menschliche – müssen über die Fähigkeit verfügen, Kohärenz herstellen zu können. Das heißt, sie müssen die Aktionen richtig mit den Handelnden und „Behandelten“ verknüpfen können, die Aktionen in der richtigen und logischen Reihenfolge berichten können und dabei die verschiedenen Rollen (handelnde oder behandelte Person) und deren Beziehungen zu einander unterscheiden und all das im Erzählfluss für die ganze Sequenz von Handlungen, die eine Geschichte ausmacht, präsent haben können.

 

Notwendig ist für Erzähler auch die Fähigkeit, die Erwartungen und das Vorwissen der Zuhörer abschätzen zu können. Zum Beispiel dass ein Hörer weiß, was Tee und Kaffee ist und wie es jeweils aussieht, schmeckt und riecht. Und bei welcher Gelegenheit (zur Friedenspfeife?) und unter welchen Umständen (nackt, im Bad ... ) man diese Getränke üblicherweise zu sich nimmt und welche Bedeutung das Kaffee- und Teetrinken in der Gesellschaft anderer Menschen hat. Und wen man dazu einladen kann und wen nicht.

 

Der Erzähler muss auch logisch schlussfolgern können und zum Beispiel wissen, dass ein Mensch nicht der Sohn seines Sohnes sein kann. Es sei denn, wir sind in einer speziellen Version von „back to the future“.

 

 

Daher erwähnte ich in meinem früheren Post in diesem Faden das Lügen und den Humor. „Intentionalität“ beinhaltet in den Kognitionswissenschaften die Fähigkeit des Geistes, auf Dinge und Sachverhalte zu verweisen, die in der Realität nicht existieren. Wenn ich lüge, mache ich eine unwahre Aussage. Ich kann auch Aussagen machen, die in der Realität nicht möglich sind, z.B. dass Wasser bergauf fließt. Zugleich kann ich wissen, dass das nicht möglich ist. Beim Lügen muss ich außerdem wissen, ob die Zuhörer wissen, was möglich und wahr ist und ob sie dies überprüfen können. Ich muss also eine Vorstellung von ihrer Vorstellung von der Welt und der anderer Menschen haben.

 

Danke mal wieder für diese tollen Gedanken, Manfred. Von den Turing-Experimenten hatten wir ja damals auch gesprochen.

Ich habe jetzt nur mal rausgenommen, über welche Fähigkeiten Erzähler verfügen müssen und das übers Lügen.

Ich würde der KI sogar zutrauen rauszufinden, bei welchen Gelegenheiten man Tee oder Kaffee trinkt und wen man dazu einlädt. Sie kann aber keine Bilder in den Köpfen der Menschen erzeugen oder den Geschmack von Kaffee oder Coq au Vin beschreiben. Die Verwandschaftsbeziehungen kann sie auch nicht richtig einordnen. Ich habe mir gerade überlegt, wie der KI-Schriftsteller wohl mit einem Lektor/ einer Lektorin kommunizieren würde. Die Lektorin würde zum Beispiel schreiben: Woher weiß der Kommissar, dass der Täter zu einem bestimmten Zeitpunkt an einem Ort war? Was würde die  KI da antworten? Oder "beschreiben Sie doch mal, wie es am Meer aussieht, den Geruch des Salzes, die Schreie der Möwen." Oder wie ein Hotdog schmeckt. Vielleicht: Am Meer gibt es Möwen , und der Geruch ist salzig. "Ein Hotdog ist ein Brötchen mit Remoulade, Ketchup und Zwiebeln." ?

 

Zu den Lügen und zum Humor: An dem Punkt waren wir auch schon mal. Die KI kann keine Vorstellung von der Welt haben. Niemals.

Sondern nur Wissen darüber. Humor kann sie wahrscheinlich unfreiwillig haben, also dass man über ihre drolligen Worte lachen kann.

Und wenn Bewusstsein an Körperlichkeit gebunden sein sollte, ist die Sache ja eh klar wie Kloßbrühe. Blut wird ganz gewiss nie durch ihre Adern fließen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da stellt sich die Frage, woher es kommt, dass der Mensch gerne glauben möchte, er werde bald von Maschinen abgeschafft.

 

Danke für den Gedanken und Danke auch an Manfred für die ausführlichen Erklärungen rund um die Fähigkeiten des momentanen Entwicklungsstands. 

     :s20

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Manfred hat absolut recht mit dem, was er schreibt. Computer sind nicht weiter, was die KI angeht, als sie es noch vor 30 Jahren waren. Gibt es Programme, die Dinge so aussehen lassen, als wären Computer intelligent? Keine Frage. Das ist dann eber eher dank der Programmierung der Fall, die alle möglichen Fälle abdeckt.

 

Ich bin trotzdem der Meinung, dass man relativ bald einen relativ lesbaren Roman eines Computers haben kann. Am ehesten würde sich dafür das Liebesgenre anbieten, womit ich hier die Liebes-Autoren keinesfalls angreifen will. Das Genre ist aber in gewisser Weise so "festgefahren", dass man da am ehesten mit Bausteinen arbeiten kann. Computer werden diese nehmen können und eine Geschichte zusammenzimmern können, die uns allen wie "irgendwie schon mal gelesen / gesehen / gehört" vorkommen wird, weil sie eben aus den Bausteinen, die schon mal erdacht wurden, zusammengesetzt ist. Ein Computer wird in der Lage sein eine weibliche Protagonistin auszuwählen, ihr ein paar Merkmale zu geben, die Geschichte z.B. in Cornwall, der Provence oder der Toskana spielen zu lassen, das Liebespaar sich finden und später auseinandergehen zu lassen, eine Szene einzufügen, die auf "Ich renne ihm / ihr zum Flughafen nach" hinausläuft, und am Ende die Liebenden in ein glückliches Happy End zu führen. Da habe ich keinen Zweifel.

Aber ... wie Manfred schon sagte, da wird halt nichts "Besonderes" drin stecken. Nichts selbst erlebtes. Kein eigener Gedanke. Kein "unique selling point", abgesehen davon, dass die Geschichte von einem Computer stammt. Wir werden 500 Versionen von "You've Got Mail" kriegen, nur einmal ist sie oder er nicht Buch- sondern Blumenhändler. "The Notebook" in Geschlechtertauschvariante. Und so weiter ...

 

Als Humor-Autor bin allerdings suuuper entspannt. Denn wenn Computer eines nicht tun, dann ist es Humor zu verstehen. Wenn ein Computer es tatsächlich irgendwann hinbekommt, ein eigenes Buch mit eigenen Witzen und subtilem Humor hinzubekommen, dann haben wir wahrscheinlich wirklich eine große Hürde zur KI genommen. Denn während man viele Entscheidungen in Geschichten auf logische Konsequenzen zurückführen kann, ist das bei Humor nicht immer gegeben. Ein Totengräber, der philosophische Witze macht, oder ein Arzt, der Furzwitze witzig findet, schließen sich für uns Menschen nicht aus. Ein Computer käme aber weder auf die Idee dieser Kombination noch könnte er etwas Neues daraus erschaffen, weil er nicht den Sinn eines Witzes begreifen kann. Er könnte nicht begreifen, wo der Zusammenhang zwischen dem Beruf und der Art der Witze besteht. Oder dem Bildungsgrad und dem Witz.

 

Aber ein sehr spannendes Thema.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie gesagt, Sebastian, bau eine einzige Redewendung in den Liebesroman ein (anderen eine Grube graben), und die KI zerschießt dir auch den - oder macht einen Psychothriller draus, wo sich am Ende alle liebhaben. :-)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie gesagt, Sebastian, bau eine einzige Redewendung in den Liebesroman ein (anderen eine Grube graben), und die KI zerschießt dir auch den - oder macht einen Psychothriller draus, wo sich am Ende alle liebhaben. :-)

 

Ich hatte in diese Maske mal die Worte "Arzt" und "Nacht" eingegeben. Da kam eine wirre Geschichte raus, die eine nächtliche Zerstörungsorgie auf einer Krankenhausstation war.

 

Aber ich habe noch etwas anderes gefunden. Letztes Jahr soll ein Roboter das erste Gedicht einer KI geschrieben haben. Es wurde zu einem Gedicht-Wettbewerb eingereicht, und die Brentano-Gesellschaft hat es in ihr Jahrbuch aufgenommen, ohne zu wissen, von wem es kam.

"Das Böse bestet sich auf der Wiese,

die Götter rennen."

http://https://www.tunnel23.com/cases/ein-gedicht-aus-der-feder-einer-ki/

 

Das soll ein Beweis für die Kreativität einer KI sein.

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

Manfred hat absolut recht mit dem, was er schreibt. Computer sind nicht weiter, was die KI angeht, als sie es noch vor 30 Jahren waren.

 

Ohje. Tut mir leid, wenn ich das so rüber gebracht habe. Das ist so nicht korrekt. In der KI-Forschung ist in den letzten Jahrzehnten sehr viel geschehen. Man bekommt einen ungefähren Eindruck davon, wenn man mal Eliza (1966) mit dem Dragon model (2020) vergleicht:

 

Eliza:                          https://www.masswerk.at/elizabot/

 

Dragon model:          https://play.aidungeon.io

 

Mir geht es um die Strecke, die zurück gelegt werden muss, bis man erwarten kann, dass eine „Maschine“ selbstständig sinnvolle und innovative Romane schreiben kann. Ich habe argumentiert, dass es dazu nötig ist, dass diese Maschine über eine Kognition wie ein Mensch verfügt.

 

Alan Turing hat diese Strecke erheblich unterschätzt. Er glaubte in den 1950ern, dass es um 2000 soweit ist. Jetzt, also 20 Jahre nach der geschätzten Ziellinie, ist immer noch nicht abzuschätzen, ob das Ziel erreicht werden kann und wann es soweit ist.

 

Die Presse untertreibt die Distanz zum Ziel noch weitaus mehr, indem immer wieder erklärt wird, dass das Ziel erreicht ist. Allerdings basieren diese Untertreibungen nicht auf Sachkenntnis, sondern wohl eher auf einem verkaufsorientierten Kalkül.

 

Das Resultat für die Öffentlichkeit ist ein Verwirrspiel.

 

Daher halte ich es für hilfreich in diesem Fall – ähnlich wie bei fake news – etwas hinter die Kulissen zu schauen. Und das bedeutet für die roman-schreibende Blechkiste, dass man sich klar macht, welche kognitiven Prozesse zwingend für das Verfassen eines Romans notwendig sind. Und das ist offenbar erheblich viel mehr als man auf den ersten Blick vermutet.

 

Man muss den Forschern aus den 1950ern allerdings zugute halten, dass damals auch noch erheblich viel weniger über die menschliche Kognition bekannt war – ebenso wie über die Kognition anderer Tiere

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Das meinte ich eigentlich damit. Sicherlich hat sich was in der Computertechnik getan und man hat vielleicht Computerprogramme entwickelt, die besser "Intelligenz" vorgaukeln können, aber das hat ja so gut wie nichts mit einer tatsächlich eigenständig denkenden Maschine zu tun.

 

Ich bin da übrigens ganz bei dir, was die Kognition angeht. Die muss vielleicht nicht wie ein Mensch funktionieren, aber es zumindest simulieren können. (Wird eine Maschine jemals einen Windhauch spüren? Nein, aber sie kann wahrscheinlich die Windgeschwindigkeit messen. Da fehlt aber das Empfinden.)

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Und wenn Bewusstsein an Körperlichkeit gebunden sein sollte, ist die Sache ja eh klar wie Kloßbrühe. Blut wird ganz gewiss nie durch ihre Adern fließen.

 

 

Hm, das mag jetzt unappetitlich sein. Aber das mit dem Blut ist tatsächlich in der Mache. Wenn auch ganz am Anfang.

 

Vor 20 Jahren hat William Ditto einen Biocomputer aus lebenden Neuronen erzeugt, der die Funktionen eines Taschenrechners ausführen konnte. Ein wesentlicher Unterschied zu üblichen Computern aus Silikon und anderen Komponenten besteht darin, dass Neuronen nicht mit 0-1-Verbindungen arbeiten, sondern mit tausenden von Kanälen und sich selbst organisieren können.

 

Einige Forscher (z.B. W. Tecumseh Fitch) glauben auch, dass Neuronen – und lebende Zellen generell – Nano-Intentionalität besitzen, aus der sich in komplexen Organismen Intentionalität und damit Bewusstsein erzeugen läßt. Das in Kombination mit Bio-robotik ergibt eine ... erstaunliche Vision.

 

Mindestens sehr weit entfernt. Ob jemals erreichbar, ist allerdings unklar.

 

 

Trimmer, Bary (12 November 2008). "New Challenges in Biorobotics: Incorporating Soft Tissue into Control Systems". Applied Bionics and Biomechanics. 5 (3): 119–126. doi:10.1155/2008/505213.

 

Ljspeert, Auke (October 10, 2014). "Biorobotics: Using robots to emulate and investigate agile locomotion". Science. 346 (6206): 196–203. Bibcode:2014Sci...346..196I. doi:10.1126/science.1254486. PMID 25301621

Bearbeitet von Manfred
Link zu diesem Kommentar
Auf anderen Seiten teilen

 

 

Und wenn Bewusstsein an Körperlichkeit gebunden sein sollte, ist die Sache ja eh klar wie Kloßbrühe. Blut wird ganz gewiss nie durch ihre Adern fließen.

 

 

Hm, das mag jetzt unappetitlich sein. Aber das mit dem Blut ist tatsächlich in der Mache. Wenn auch ganz am Anfang.

 

Vor 20 Jahren hat William Ditto einen Biocomputer aus lebenden Neuronen erzeugt, der die Funktionen eines Taschenrechners ausführen konnte. Ein wesentlicher Unterschied zu üblichen Computern aus Silikon und anderen Komponenten besteht darin, dass Neuronen nicht mit 0-1-Verbindungen arbeiten, sondern mit tausenden von Kanälen und sich selbst organisieren können.

 

Einige Forscher (z.B. W. Tecumseh Fitch) glauben auch, dass Neuronen – und lebende Zellen generell – Nano-Intentionalität besitzen, aus der sich in komplexen Organismen Intentionalität und damit Bewusstsein erzeugen läßt. Das in Kombination mit Bio-robotik ergibt eine ... erstaunliche Vision.

 

Mindestens sehr weit entfernt. Ob jemals erreichbar, ist allerdings unklar.

 

 

Trimmer, Bary (12 November 2008). "New Challenges in Biorobotics: Incorporating Soft Tissue into Control Systems". Applied Bionics and Biomechanics. 5 (3): 119–126. doi:10.1155/2008/505213.

 

Ljspeert, Auke (October 10, 2014). "Biorobotics: Using robots to emulate and investigate agile locomotion". Science. 346 (6206): 196–203. Bibcode:2014Sci...346..196I. doi:10.1126/science.1254486. PMID 25301621

 

 

Hätte ich jetzt nicht für möglich gehalten. Zwischendurch hatte ich schon die Vision eines Frankenstein-Monsters, das so hässlich und unappetitlich ist und zum Mörder wird. Warum will der Mensch ein Ebenbild erschaffen? Oder wie Dirk fragte: Woher kommt es, dass der Mensch gern glauben möchte, er werde bald von Maschinen abgeschafft?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ein sehr interessantes Interview mit einem ehemaligen Kollegen meines Mannes über die zukünftige Rolle von Künstlicher Intelligenz in der Musik, und wie sich Musiker schon heute der fortschreitenden technologischen Entwicklung anpassen. In Teilen ist diese Darlegung sicher auch auf den Buchmarkt übertragbar.

 

"Stephan Baumann ist KI-Experte am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und leidenschaftlicher Musiker. Mit dem Goethe-Institut spricht er über die zukünftige Rolle von KI in der Musik und darüber, wie sich Musiker bereits heute den technischen Entwicklungen anpassen ..."

https://www.goethe.de/prj/k40/de/mus/bau.html?fbclid=IwAR1cIqiVP07sgpIfTYYRhU3BjcuPXuOBOTyA_CqeoXuZOZH_udEmHomEjHE

Inspiration exists, but it has to find us working! (Pablo Picasso)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Habe mir gerade euren sehr interessanten Thread durchgelesen - und möchte noch ein paar Dinge anfügen:

 

Der amerikanische Kognitionswissenschaftler Douglas Hofstadter hat in den 80ern in seinem Buch "Gödel, Escher, Bache" mE bewiesen, dass es künstliche, menschenähnliche Intelligenz nicht geben kann. Etwa so: Menschliche Intelligenz ist zwar prinzipiell erklärbar. Außerirdische, die intelligenter sind als Menschen, könnten dies eventuell, Menschen selbst sind dafür aber nicht intelligent genug. 

 

Um Kunst zu erschaffen, muss man Gefühle haben. KI-Programme fühlen nichts.

Siehe dazu auch unsere Diskussion "Tiefgang - was ist das eigentlich?"

 

Von Picasso stammt der Satz: Das Geheimnis der Kunst liegt darin, dass man nicht sucht, sondern findet.

Wenn ein Computerprogramm einen Autor inspiriert, wird es dadurch nicht zum Schöpfer eines Werks.

 

Hier ein Verfahren, um mit Hilfe von Würfeln zu komponieren - aus dem 18. Jahrhundert

https://de.wikipedia.org/wiki/Musikalisches_W%C3%BCrfelspiel

Es gibt keine Regeln, nur sachkundige Entscheidungen. Und sachkundige Entscheidungen könnt ihr nur treffen, wenn ihr euch sachkundig macht.

Elizabeth George

Link zu diesem Kommentar
Auf anderen Seiten teilen

Habe mir gerade euren sehr interessanten Thread durchgelesen - und möchte noch ein paar Dinge anfügen:

 

Der amerikanische Kognitionswissenschaftler Douglas Hofstadter hat in den 80ern in seinem Buch "Gödel, Escher, Bache" mE bewiesen, dass es künstliche, menschenähnliche Intelligenz nicht geben kann. Etwa so: Menschliche Intelligenz ist zwar prinzipiell erklärbar. Außerirdische, die intelligenter sind als Menschen, könnten dies eventuell, Menschen selbst sind dafür aber nicht intelligent genug. 

 

Um Kunst zu erschaffen, muss man Gefühle haben. KI-Programme fühlen nichts.

Siehe dazu auch unsere Diskussion "Tiefgang - was ist das eigentlich?"

 

Von Picasso stammt der Satz: Das Geheimnis der Kunst liegt darin, dass man nicht sucht, sondern findet.

Wenn ein Computerprogramm einen Autor inspiriert, wird es dadurch nicht zum Schöpfer eines Werks.

 

Hier ein Verfahren, um mit Hilfe von Würfeln zu komponieren - aus dem 18. Jahrhundert

https://de.wikipedia.org/wiki/Musikalisches_W%C3%BCrfelspiel

 

Was das Würfel-Komponieren betrifft, gefällt mir dieses Spiel von Mozart:

Anleitung so viel Walzer oder Schleifer mit zwei Würfeln zu componiren so viel man will ohne musikalisch zu seyn noch etwas von der Composition zu verstehen.

 

Das sagt eigentlich alles, zumal aus der Feder eines genialen Komponisten. Um den fehlenden menschlichen Atem oder das Gefühl noch mal aufs Schreiben von Romanen zu übertragen: Ich könnte mir ja dann ein Buch nach meinem Geschmack zusammenstellen lassen. Gebe also meine Lieblingselemente ein. Der Roman würde sich in nichts von dem unterscheiden, was ich bis dahin gelesen

habe. Nur als Beispiel. Ich möchte ein Buch über den Dreißigjährigen Krieg lesen. Heraus käme mit Sicherheit ein Verschnitt von Grimmelshausen, Daniel Kehlmann, Golo Mann und anderen.

 

Beim Schachspielen ist das was anderes. Da könnte ein Schachcomputer mit Sicherheit ein Genie wie Kasparow schlagen. Weil es da um rein kognitive, quasi mathematische Vorgänge geht.

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

Bitte melde Dich an, um einen Kommentar abzugeben

Du kannst nach der Anmeldung einen Kommentar hinterlassen



Jetzt anmelden


×
×
  • Neu erstellen...