Zum Inhalt springen
Jan vdB

Harry Potter ex machina - herrlich grandioser Mist!

Empfohlene Beiträge

Also, die meisten Klappentexte und Ankündigungen in Vorschauen werden meinem Gefühl nach längst von einer KI (die nicht besonders I ist, sondern hauptsächlich mit einer Menge Floskeln gefüttert wurde) geschrieben …  :-X

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Sagt mal, hatten wir diese Diskussion nicht vor einiger Zeit schon einmal?

 

 

Ja, die Frage, ob und wann Computerprogramme schreiben können wurde hier im Forum an verschiedenen Stellen ausführlich besprochen.

 

In diesem Faden ging es ja zunächst nur um Harry ex machina und die Frage, ob dahinter ein (belletristisch) schreibender Computer steckt. Mein Punkt war, dass hier nur Versatzstücke von Texten neu arrangiert werden, rein nach oberflächlichen Gesichtspunkten. Den Leuten dahinter (Botnik) geht es offenbar um die Wirkung solcher „Texte“ auf den menschlichen Leser: strange new things. Und das macht viel Spaß. Wie die rasenden Züge im Stummfilm, die die Menschen vor einem Jahrhundert genüsslich in Schrecken versetzten.

 

Dann kam (wieder mal) die Frage auf, ob „Maschinen“ je Romane schreiben können. Von der ersten zur zweiten Frage ist natürlich ein Riesenschritt. Diese Frage ist etwa so groß wie die Frage, ob Menschen je Alpha Centauri erreichen werden. Warum denn nicht? Sie müssen ja nicht mit dem Ochsenkarren dort hin. Uns wird schon noch was einfallen. Vom Ochsenkarren zum Orion Space Craft und von dort noch gut 4 Lichtjahre.  In der Scifi-Literatur ist das alles längst abgemacht. Aber eben nicht in der Praxis. Da gibt’s noch richtig viel zu tun.

 

Und so ist es auch in der Computerlinguistik. In den 1960ern war es abgemacht, dass wir in (damals) 20 Jahren „Übersetzungsmaschinen“ haben werden (etwas größer als der Babelfish, aber in der Art). Wir haben den Termin bisher um etwa 40 Jahre verpasst. Google und viele andere haben zwar mit viel Aufwand ein nützliches Instrument  für die maschinelle VORBEREITUNG von Übersetzungen gebaut. Das ist aber immer noch ein Dummkopf, der nicht versteht, was er tut.

 

Wenn man die Messlatte tief anlegt, dann kann mein Auto schon sprechen und mich verstehen. Ich sage „Navigation“. Es (er, sie?) antwortet „Welcher Zielort, bitte?“ So was verkauft sich gut – wenn es funktioniert. Von da zum Roman sind aber mehr als 4,3 Lichtjahre.

 

In der Computerlinguistik ist die Frage, ob „Maschinen“ je Romane schreiben können nicht hoch oben auf der Prioritätenliste. Da stehen ganz andere Fragen. Wir (mich eingeschlossen) beschäftigen uns damit, wie man Dialogsysteme möglichst eng thematisch eingrenzen kann, wie  die Syntax mit der Semantik verbunden ist und wie man das in einem Programm abbildet, wie man Lügen, Humor, Zynismus usw. erkennt und abbildet.....

 

Ein autonomes mentales System muss über ein Bewusstsein von sich selbst verfügen, also viel, viel mehr als Lexikon, Syntax, Semantik, Pragmatik und Co. Nun ist aber den Philosophen, Neurowissenschaftlern, Psychologen und ihren Artgenossen nicht klar, was exakt Bewusstsein von sich selbst ist und wie genau es funktioniert. Das macht es verdammt schwer, es zu modellieren. Ob mit neuralen Netzwerken oder sonstwie.

 

Es ist nicht auszuschließen, dass diese Entwicklungsarbeit IRGENDWANN zu einer „schreibenden Maschine“ führt (schmeckt  etwas nach Fritz Langs „Metropolis“). Eine künstliche Intelligenz mit Bewusstsein wird aber viel mehr können als Texte zu verfassen. Warum sollte sie Lust haben, Romane schreiben? Die Gefahr, dass sie Autoren überflüssig macht, ist viel geringer als viele andere überflüssig zu machen.

 

Ist aber auch ein schön gruseliges Thema, die moderne Version des Leib-Seele-Problems oder der Geist in der Flasche. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Danke Manfred. Sehr interessanter Kommentar von einem Experten. Ich denke, wer sich mit Computern auskennt, wird das ganz ähnlich sehen. Ein selbstfahrendes Auto ist ein Computer, der gemäß seiner Programmierung auf Signale von Sensoren reagiert. Weit entfernt von einer selbst denkenden Maschine. Insofern ist auch Dan Browns neuester Roman "Origin", in dem so eine Computer vorkommt, völliger Unsinn.

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es geht ja schon bei der Definition von Intelligenz los. Ist eine Maschine intelligent, wenn sie die besten Pokerspieler der Welt besiegt?

 

KI wird in der Medizin bereits angewandt und ist bald nicht mehr wegzudenken und und und ...

 

Die Entwicklung ist rasend schnell. Ich denke, wir sollten einfach die Augen offen halten. Stichwort: Deep Learning

 

Edit: Man muss natürlich zwischen KI Und künstlicher Kreativität unterscheiden. Wer intelligent ist muss nicht kreativ sein.

 

LG

Martin

Bearbeitet von MartinC

_________________________________________________

www.martinconrath.de

Jede Art des Schreibens ist erlaubt - nur nicht die langweilige (Voltaire)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Mit anderen Worten, diese "strange new things" sind Lichtjahre von Schreibrobotern entfernt.

 

Diese Texte klingen für uns seltsam, weil sie einerseits bekannte Wörter und Kombinationen von Wörtern und dazu noch meist korrekte Grammatik enthalten, also wie echtes Englisch/ Deutsch usw. verkleidet sind, andererseits aber keinen Sinn machen. Ganz so neu ist die Sache aber nicht. Wer sich durch einen Syntaxkurs gequält hat, wir sicher folgenden Satz gehört haben: 

 

colorless green ideas sleep furiously.

 

Der Satz ist in diesem Jahr 60 geworden und stammt von dem viel gehassten und verehrten Linguisten Noam Chomsky, der damit verdeutlichen wollte, dass Semantik und Syntax zwei verschiedene Dinge sind. Unabhängig davon, wie man zu Chomskys Werk steht, sieht man hier deutlich, dass die lustigen Leute von Botnik sich vor allem mit der FORM (Syntax) von Sprache beschäftigen, nicht mit dem Inhalt (Semantik), und das ist einiges schwieriger. Schlimmer noch: wir wissen heute, dass man ohne inhaltliches Verständnis auch die Form einer Sprache nicht hundertprozentig richtig produzieren kann. Und inhaltliches Verständnis heisst weit mehr als alle Wörter eines Textes zu kennen, alle Satzaussagen zu verstehen, alle Sätze auf einander beziehen zu können, alle diese Aussagen auf sein Wissen über die Welt beziehen zu können. Man muss auch wissen, wie Menschen und menschliche Gesellschaften funktionieren und z.T. funktioniert haben und wie Sprache situativ, regional, sozial und medial unterschiedlich funktioniert. Das ist starker Tobak für die KI-Forschung. Dabei sind auch die besten Parser grammatisch den Muttersprachlern unterlegen. Es ist also noch eine weite Strecke bis zur schreibenden KI, geschweige denn einer literarisch schreibenden.

 

Aber die Sache mit dem Go-Programm war ja noch bizarrer. Als andere Großmeister die Züge des Computers im Nachhinein analysierten, haben sie nicht verstanden, wie er das angestellt hat. Die Züge waren für sie nach »menschlichem« Ermessen unlogisch.
Und es wird noch besser (gruseliger):
Ein Jahr später hat die Firma, die das Programm entwickelt hatte, eine Nachfolgeversion gegen ihren »alten« Computerchampion« antreten lassen. Allerdings gab es hier einen entscheidenden Unterschied. Während das Vorgängermodell noch auf herkömmliche Weise auf eine Datenbank mit unzähligen Go-Partien zurückgreifen konnte, fütterte man das neue Modell lediglich mit ein paar wenigen Grundalgorythmen zu den Spielzügen, die jedoch in der Lage waren, sich selbstständig weiterzuentwickeln. Man ließ die beiden Computer eine Weile miteinander spielen und am Anfang, fegte der Vorgänger seinen Nachfolger natürlich vom Brett. Doch irgendwann hatte das zweite Modell sich so stark weiterentwickelt, dass es seinen Vorgänger locker schlagen konnte. Und hier sind wir beim entscheidenden Punkt angelangt: Zum ersten Mal in der Geschichte der Softwareentwicklung sind die Programme wirklich lernfähig und sie lernen unfassbar viel schneller als wir Menschen. Zu echter Kreativität ist es da kein allzu großer Schritt mehr. 
 
Ach ja, und wer glaubt, die Robotik würde dieser Entwicklung noch hinterherhinken, sollte öfter mal bei Boston Dynamics vorbeischauen:
 
Hier bei Golem.de
 
In diesem Sinne wünsche ich ein besinnliches Weihnachtsfest ;-)
Bearbeitet von ThomasW
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ein autonomes mentales System muss über ein Bewusstsein von sich selbst verfügen, also viel, viel mehr als Lexikon, Syntax, Semantik, Pragmatik und Co. Nun ist aber den Philosophen, Neurowissenschaftlern, Psychologen und ihren Artgenossen nicht klar, was exakt Bewusstsein von sich selbst ist und wie genau es funktioniert. Das macht es verdammt schwer, es zu modellieren. Ob mit neuralen Netzwerken oder sonstwie.

 

Es ist nicht auszuschließen, dass diese Entwicklungsarbeit IRGENDWANN zu einer „schreibenden Maschine“ führt (schmeckt  etwas nach Fritz Langs „Metropolis“). Eine künstliche Intelligenz mit Bewusstsein wird aber viel mehr können als Texte zu verfassen.

 

Es geht aber doch nicht darum, "ein autonomes mentales System" zu erschaffen. Es geht nur darum, ein Programm eine Geschichte schreiben zu lassen. Dafür braucht es kein Bewusstsein, und es muss niemand wissen, was "Bewusstsein" überhaupt sein soll.

 

Wer ein Auto fährt, braucht keine Ahnung zu haben von Kolben, Getriebe, Thermodynamik, Reaktionskinetik und Molekülorbitalen. Es genügt, die richtigen Handgriffe und Fußbewegungen zur richtigen Zeit auszuführen. So etwas ist nicht einfach, auf ein maschinelles System zu übertragen, aber mit der Zeit wird es immer besser funktionieren.

 

Und einen Roman zu schreiben? Ich denke, das lässt sich in absehbarer Zeit ebenfalls mit Programmen realisieren. Vielleicht in 10, in 20 oder in 50 Jahren. Und ich kann mir sehr gut vorstellen, dass wenig später viele Leser nicht mehr beurteilen können, ob ein Text von einem Menschen oder einem Computer verfasst wurde (siehe Eliza als Plauderprogramm).

 

Was Bewusstsein ist, werden wir dann vermutlich noch immer nicht sagen können.

Olaf Fritsche 

www.seitenrascheln.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Olaf: Und einen Roman zu schreiben? Ich denke, das lässt sich in absehbarer Zeit ebenfalls mit Programmen realisieren. Vielleicht in 10, in 20 oder in 50 Jahren. Und ich kann mir sehr gut vorstellen, dass wenig später viele Leser nicht mehr beurteilen können, ob ein Text von einem Menschen oder einem Computer verfasst wurde (siehe Eliza als Plauderprogramm).

 

Was Bewusstsein ist, werden wir dann vermutlich noch immer nicht sagen können.

 

Dazu habe ich auch noch einen Artikel gefunden: http://www.zeit.de/kultur/2017-10/kuenstliche-intelligenz-literatur-drehbuecher-geschichten-Algorithmen

 

Demnach hatte es letztes Jahr in Japan eine von Algorithmen geschriebene SiFi-Kurzgeschichte zur Nominierung eines Preises geschafft - ohne dass die Juroren wussten, dass die Geschichte nicht von einem Menschen geschrieben wurde. Die psychologische Ausarbeitung der Figuren sei weniger gelungen gewesen, aber man lobte die Stringenz der Geschichte. Wie Ramona weiter oben anmerkte, könnten in Zukunft also auch weniger begabte Autoren ins Schreibgeschäft einsteigen.

 

Die Links von Martin habe ich mir zum großen Teil durchgelesen: Von den Operationen mit dem Rücken zum Patienten, ohne zittrige Hände bis hin zu Militärmaschinen, die ihren Angriff plötzlich gegen die eigene Mannschaft richten - da sind jede Menge hochspannender Geschichten, aber auch reale Gefahren drin, die mich an die Visionen eines Stanislav Lem erinnern. Nämlich, dass der Computer sich verselbständigt (selber lernt und sich mit anderen Systemen austauscht), so allmählich die Herrschaft übernimmt und sich irgendwann gegen seinen ursprünglichen Erzeuger wendet.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Vor kurzem hat ein Zukunftsforscher der Bedeutung nach gesagt: Heute wären wir stolz eine KI mit einem IQ von 200 zu erschaffen. Was aber machen wir, wenn eine KI irgendwann einen IQ von 6000 hat und mit allem und jedem vernetzt ist? Ich blicke durchaus nicht pessimistisch in die Zukunft, man sollte aber auch nicht zu blauäugig hineinstolpern.

 

Und @Olaf:

Meiner Meinung nach kann man bei einer Maschine von einem Bewusstsein sprechen, sobald sie anfängt, über sich selbst zu reflektieren.

 

@Christa

Hinzu kommen noch ethische und rechtliche Aspekte. Wer zum Beispiel ist verantwortlich, wenn eine Maschine, z.B. in einem Kriegseinsatz ohne Befehl Menschen tötet? Kann eine Maschine zwischen "gut und böse" unterscheiden? Das sind übrigens Themen, die bereits in der Uno diskutiert werden, weil die Rüstungsindustrie auf diesem Feld riesige "Fortschritte" macht und zwar mit einer Geschindigkeit, der unsere Rechtsnormen allmählich nicht mehr hinterherkommen.

 

Aber das weicht langsam vom Thema ab.

Bearbeitet von ThomasW
Link zu diesem Kommentar
Auf anderen Seiten teilen

Fürs Autofahren ist keine nennenswerte Intelligenz erforderlich. Strukturen und Regeln sind überschaubar, und im Notfall hält man einfach an. Intelligenz bedeutet, in bislang unbekannten Situationen vernünftig zu (re)agieren. Also auch dann ein gutes Ergebnis zu liefern, wenn man den Weg dorthin vorher noch nicht kennt. Das kann man auf verschiedene Arten erreichen; bislang hat man vor allem einfach ausprobiert. Jeder Informatikanfänger könnte ein Schachprogramm schreiben, das fast immer gewinnt, weil man dafür "einfach" aus allen denkbaren Zügen diejenigen auswählen muss, die konsequent zum Matt führen, wenn man sie bis zum Ende durchrechnet. Das Problem dabei ist lediglich die Rechenleistung, weil es um sehr, sehr viele Möglichkeiten geht (kombinatorische Explosion), deshalb funktioniert das auch nicht - oder ging bislang nicht in befriedigender Weise. Deshalb hat man "Intelligenz" eingesetzt, indem man versucht hat, zielführende Muster und gewinnträchtige Situationen zu erkennen. Oder, vor allem, die Strategie des Gegners zu analysieren. Beim Schach ist aber beispielsweise nicht erlaubt, irgendeinen Gegenstand aus der Hosentasche zu ziehen und einfach auf dem Schachbrett zweckentsprechend einzusetzen (z.B. einen Chinaböller). Es gibt zwar sehr viele Möglichkeiten, aber keine unbekannten. So ähnlich ist es beim Autofahren. Wenn es plötzlich Elefanten regnet, sind auch menschliche Verkehrsteilnehmer am Ende.

Allerdings bieten moderne Sensorik, ausgefeilte Algorithmen und, vor allem, viel Rechenleistung Möglichkeiten, die ein menschlicher Autofahrer nicht hat. Man kann schneller, optimaler, abgestimmter agieren. Autonomes Fahren ist deshalb in überschaubaren Situationen alternativlos. Es sei denn, die Sensorik hält einen weißen Lastwagenanhänger für den Horizont. Oder ein auf eine Lieferwagenrückwand gemaltes Stopschild für echt. Alles schon passiert. Aber viel seltener als zum Beispiel Trunkenheitsfahrten, auch prozentual betrachtet.

 

Wenn man viele Billiarden Affen viele - wirklich viele - Billiarden Jahre lang auf Tastaturen eintippen lässt, wird dabei irgendwann zufällig völlig zweifelsfrei auch die gesamte Weltliteratur entstehen, ohne dass die Affen wissen, was sie da tun. Das ist nicht von mir und auch nicht von Douglas Adams, sondern auch der hatte es im "Anhalter" zitiert*. Wenn man den Affen bestimmte Regeln mitgibt, wenn man Kontrollsysteme einführt und noch ein bisschen mehr macht, werden die Ergebnisse schneller eintreten. Die Technik gäbe das her. Möglich, dass dann keine Shakespeare-Werke mehr entstünden, weil man sie möglicherweise über die Regelwerke verhindert hätte (zufällig würden sie ganz sicher irgendwann entstehen), dafür aber käme möglicherweise unterhaltende Gebrauchsliteratur schneller heraus.

 

Aber diese Intelligenz, von der hier die Rede ist, ist nicht wirklich kreativ. Das Programm, um das es hier geht, hat, simpel gesagt, Sätze nach Regeln fortgesetzt, ohne zu wissen, was es da tat. Und das ist auch das Entscheidende. Ohne nachvollziehbare Informationen über den Kontext kann es echte Kreativität nicht geben, und kreative Intelligenz kann man schon allein deshalb bislang nicht abbilden, weil man noch nicht weiß, wie sie funktioniert. Den erweiterten Turing-Test hat bisher auch noch kein Computerprogramm bestanden.

 

Solche Nachrichten gibt es immer wieder. Ich habe in den frühen Achtzigern ein Programm geschrieben, das Musik komponiert hat. Das war ziemlich einfach, und es hat tatsächlich funktioniert. Allerdings hat sich die Musik unerträglich angehört (obwohl einige Harmonieregeln tatsächlich eingearbeitet waren).

 

Herzlich,

Tom

 

*Edit: Man bezeichnet das Gedankenexperiment als "Infinite-Monkey-Theorem". Es ist tatsächlich beweisbar, das auf diese Weise (alle) sinnvolle(n) Texte entstehen müssten, aber die Wahrscheinlichkeit für jeden einzelnen dieser Texte ist so gering, dass wir sie kaum noch verstehen können.

Bearbeitet von Tom Liehr
Link zu diesem Kommentar
Auf anderen Seiten teilen

*Edit: Man bezeichnet das Gedankenexperiment als "Infinite-Monkey-Theorem". Es ist tatsächlich beweisbar, das auf diese Weise (alle) sinnvolle(n) Texte entstehen müssten, aber die Wahrscheinlichkeit für jeden einzelnen dieser Texte ist so gering, dass wir sie kaum noch verstehen können.

 

Vor allem gäbe es jeden Text in Milliarden Varianten, nämlich mit jedem nur möglichen Schreibfehler und allen Kombinationen aller möglichen Schreibfehler …  :s01

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hier ist ein Artikel vom Februar 2017 zum Stand der Entwicklung bei den maschinellen Autoren: http://www.spektrum.de/kolumne/schreiben-roboter-bald-romane/1437710

 

Es gibt sogar schon einen Schreibwettbewerb für Maschinen: http://bregman.dartmouth.edu/turingtests/node/1

 

Hey, wie wäre es, wenn wir den Spieß mal umdrehen und under cover unsere eigenen Texte dort einreichen? ;D::)

Olaf Fritsche 

www.seitenrascheln.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Noch wird paraphrasiert, bauen Programme, die keine Ahnung davon haben (und haben können), was sie da tun, Versatzstücke zusammen, befolgen von Programmierern festgelegte Regeln, Strukturen und Entwurfsentscheidungen. Das ist von echter Intelligenz und Kreativität ziemlich weit entfernt, auch wenn es einem intelligent vorkommt.

 

Und ich finde, dass das das eigentlich Erschütternde daran ist. Katzen und weibliche Protagonisten, dazu Menschen, die ein künstliches Gespräch nicht erkennen, obwohl das Gegenüber keine Ahnung davon hat, was es da gerade schwatzt. Anders gesagt: Die Schwelle ist einfach sehr niedrig, weil wir uns so leicht täuschen lassen, weil wir so vorhersehbar agieren, weil wir weit weniger "intelligent" sind, als wir von uns glauben. Weil wir leicht an der Nase herumzuführen sind.

 

Anders gesagt: Wenn von Computern "geschriebene" Texte Menschen tatsächlich erreichen, dann ist das vor dem Hintergrund der aktuellen technischen Möglichkeiten aus meiner Sicht vor allem ein vernichtendes Urteil über unsere Zunft. :(

 

Herzlich,

Tom

Link zu diesem Kommentar
Auf anderen Seiten teilen

Anders gesagt: Wenn von Computern "geschriebene" Texte Menschen tatsächlich erreichen, dann ist das vor dem Hintergrund der aktuellen technischen Möglichkeiten aus meiner Sicht vor allem ein vernichtendes Urteil über unsere Zunft. :(

 

Eigentlich gehen mir nur Phrasen im Kopf herum, denn was könnten wir mit der Erkenntnis anfangen, dass die Roboter am Ende alle arbeitslos machen werden außer die Informatiker, die sie füttern? Dass Autoren überflüssig werden würden, Verlage, Übersetzer, Designer usw. Dass vor allem niemand mehr für sie zahlen müsste. Solange Menschen Schreibroboter und Bestsellerautomaten füttern, haben sie auch noch den Daumen drauf. Schlimm wäre allerdings die Vorstellung, dass ein Roboter andere Roboter versorgt.

 

Wie gesagt, klingt alles, was mir durch den Kopf geht, so pathetisch wie die Gedichte und Romanversatzstücke, die bei diesen Versuchen herausgekommen sind. Ich frage mich nur ernsthaft, was diese Forscher erreichen wollen. Beweisen, dass ein Roboter ein besserer Mensch, ein besserer Autor werden kann, der die Leser zwischendurch auch noch fragt, ob es ihnen gut geht und was er sonst noch für sie tun kann? 8-)

 

Edit: Vielleicht ist das alles aber nur heiße Luft, und am Ende halten sich Mensch und Roboter gegenseitig das Händchen. Heiße Luft wie bei der Eisenbahn, in die damals keiner steigen wollte, weil sie des Teufels war.

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich frage mich nur ernsthaft, was diese Forscher erreichen wollen. Beweisen, dass ein Roboter ein besserer Mensch, ein besserer Autor werden kann, der die Leser zwischendurch auch noch fragt, ob es ihnen gut geht und was er sonst noch für sie tun kann? 8-)

 

Ich denke, da gibt es unterschiedliche Motive:

  • Da ist einmal die Grundlagenforschung. Die möchte gerne herausfinden, wie Systeme (also egal, ob Menschen oder Maschinen) lernen und sich Fähigkeiten aneignen. Die Wissenschaftler nutzen Schach, Go, Autofahren und eben auch das Schreiben von Geschichten als Übungsaufgaben.
  • Dann ist da die angewandte Forschung. Deren Ziel ist es, die Erkenntnisse aus der Grundlagenforschung in ein nützliches oder kommerziell verwertbares Produkt umzuwandeln. Solche Wissenschaftler glauben beispielsweise, dass autonom fahrende Autos die Straßen sicherer machen werden. Der Grundgedanke ist dabei, dass die Technik dem Menschen dienen soll.
  • Natürlich gibt es noch die kapitalistische Variante. Sobald sich neue Erkenntnisse irgendwie zu Geld machen lassen, wird das gemacht. Sch…egal, welche Folgen das haben könnte. "Sonst macht es ja eh ein anderer", ist das beliebte Argument gegen jeden Einwand. Das ist dann eigentlich keine wirkliche Forschung mehr, aber natürlich sind Forscher daran beteiligt.

Für uns Autoren könnte es mit den "Schreibmaschinen" in der Zukunft so aussehen wie bei vielen Handwerksberufen: Industriell gefertigte Massenware ist für den Geschmack der meisten Menschen qualitativ ausreichend und billig. Kauf ich! (Schuster, Möbeltischler und auch schon manche Journalisten leiden darunter seit unterschiedlich vielen Jahren.)

 

Übrigens legen Programmierer bei solchen Programmen nicht mehr die Regeln fest, nach denen das Programm arbeitet. Meistens sind dies lernfähige Programme (die nennen sich neuronale Netze, weil sie nach einem einfachen Modell des Gehirns arbeiten), die sich sozusagen selbst programmieren. Das Programm

  1. analysiert Vorlagen (etwa existente Texte),
  2. findet selbständig vermeintliche oder wahre Regeln (vermeintlich: "Bayern schießt in der Nachspielzeit immer ein Tor", echt: "Die Mannschaft mit mehr Toren gewinnt das Spiel"),
  3. entwirft eigene Arbeiten (schreibt also selbst Texte)
  4. Diese werden in der Lernphase von Menschen bewertet ("Harry Potter frisst seinen Besen", fliegt raus, obwohl bei Harry Potter oft gegessen wird und es Besen gibt; "Ron haut Harry den Besen über den Kopf" darf jedoch bleiben),
  5. anhand der positiv bewerteten Arbeitsproben erkennt das Programm, welche seiner (für den Menschen unbekannten) Regeln gut sind und welche es besser vergisst.
  6. Schließlich sollte ein Programm theoretisch die Aufgabe wunderbar erfüllen können. Niemand hat ihm gesagt, wie es das machen soll, und wir haben keine Ahnung, was im "Kopf" der Maschine vor sich geht.

 

Wann es soweit sein wird, dass Programme den ziemlich langen und komplexen Plot eines Romans entwerfen und ausführen können und dazu glaubwürdige Charaktere entwickeln, kann niemand sagen. Aber ich fürchte, wir sind nicht mehr so weit davon entfernt.

Olaf Fritsche 

www.seitenrascheln.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ein Computer benötigt ein Programm. Dieses wird von einem Programmierer erstellt. Und es enthält Regeln, wie das Programm auf Daten zu reagieren hat. Diese Daten kommen von außen über Eingabe oder Sensoren. Ein selbstlernendes Programm tut im Grunde nichts anderes, als externe Daten geordnet abzuspeichern. Neue und schon vorhanden Daten können miteinander kombiniert und analysiert werden und entsprechend den vorprogrammierten Algorithmen zu Maßnahmen führen. Das Programm kann also "lernen" und so zu neuen Ergebnissen kommen. Und das funktioniert gut, wenn es um ein ganz bestimmtes Ziel geht, wie Schach oder Go spielen oder ein Fahrzeug lenken. Dabei kann das Programm keine Moral oder Ethik haben, die nicht vom Programmierer vorgesehen ist. Es kann auch keine Beurteilung abgeben, außer ob etwas aufgrund seiner Datenanalyse zielführend ist. Wobei das Ziel natürlich auch vom Menschen vorgegeben ist. Kreativität ist das alles nicht. Die ist allein dem Programmierer vorbehalten. Natürlich kann der Programmierer auch einen Zufallsgenerator einbauen. Auch das ist nicht Kreativität, höchsten ganz lustig zur Unterhaltung.

 

Natürlich habe ich das hier vereinfacht dargestellt. Moderne Systeme sind hochkomplex und bestehen aus tausenden von Funktionen, viele auch von anderen Systemen übernommen. Damit lässt sich schneller entwickeln. Aber im Prinzip werden Bits ein und ausgeschaltet, Daten werden gespeichert und gelesen und vorprogrammierte Algorithmen treffen Entscheidungen. Aber auch nur, wenn der oder die Programmierer an diese Frage gedacht haben.

Bearbeitet von Ulf Schiewe

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Natürlich gibt es noch die kapitalistische Variante. Sobald sich neue Erkenntnisse irgendwie zu Geld machen lassen, wird das gemacht. Sch…egal, welche Folgen das haben könnte. "Sonst macht es ja eh ein anderer", ist das beliebte Argument gegen jeden Einwand. Das ist dann eigentlich keine wirkliche Forschung mehr, aber natürlich sind Forscher daran beteiligt.

Für uns Autoren könnte es mit den "Schreibmaschinen" in der Zukunft so aussehen wie bei vielen Handwerksberufen: Industriell gefertigte Massenware ist für den Geschmack der meisten Menschen qualitativ ausreichend und billig. Kauf ich! (Schuster, Möbeltischler und auch schon manche Journalisten leiden darunter seit unterschiedlich vielen Jahren.)

 

 

Wann es soweit sein wird, dass Programme den ziemlich langen und komplexen Plot eines Romans entwerfen und ausführen können und dazu glaubwürdige Charaktere entwickeln, kann niemand sagen. Aber ich fürchte, wir sind nicht mehr so weit davon entfernt.

 

 

​Danke für eure ausführlichen Antworten, Olaf und Ulf. Bis ihr geklärt habt, wie es wirklich funktioniert, zu o.g. Aussage.

Genauso habe ich es mir nämlich vorgestellt. Die Massenware haben wir ja heute schon, und wahrscheinlich werden die Liebhaber dieser Elaborate gar nicht merken, wenn sie demnächst von Bots geschrieben werden.  8-)

 

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

@Ulf: Ich fürchte, da hat Olaf recht. Das strikte, binäre Entweder-Oder, das ist zwar immer noch die Basis vieler Anwendungen, aber man ist technisch schon ein paar große Schritte weiter. Es gibt viele Ansätze, die über bloßes Ausprobieren hinausgehen. Bei nicht allem wissen die Entwickler, warum das funktioniert, was dann zu funktionieren scheint.

 

Herzlich,

Tom

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

  1. analysiert Vorlagen (etwa existente Texte),
  2. findet selbständig vermeintliche oder wahre Regeln (vermeintlich: "Bayern schießt in der Nachspielzeit immer ein Tor", echt: "Die Mannschaft mit mehr Toren gewinnt das Spiel"),
  3. entwirft eigene Arbeiten (schreibt also selbst Texte)

 

 

 

Bis hierhin okay. Aber ab diesem Punkt betreten wir Wunschdenken. Da könnte der Computer Millionen Texte rausspucken, die alle ziemlich unsinnig sind. Wer will das alles bewerten und dem Computer wieder einfüttern. Und der soll daraus erkennen, was eine Geschichte an Botschaft für die Menschheit erzählen soll. Dazu müsste man das ganze Menschsein einfüttern, den Erfahrungsschatz eines Menschen, die Geschichte unserer Kultur und man müsste selbst dann jede Menge Zielparameter vorgeben. Das ist eine Illusion. Wie Manfred schon sagte, es bräuchte das Bewusstsein des eigenen Ichs und den hat ein Computer nicht.

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Ulf: Ich fürchte, da hat Olaf recht. Das strikte, binäre Entweder-Oder, das ist zwar immer noch die Basis vieler Anwendungen, aber man ist technisch schon ein paar große Schritte weiter. Es gibt viele Ansätze, die über bloßes Ausprobieren hinausgehen. Bei nicht allem wissen die Entwickler, warum das funktioniert, was dann zu funktionieren scheint.

 

Herzlich,

Tom

 

Das ist mir schon klar. Ich habe das vereinfacht dargestellt. Data Mining zum Beispiel erkennt Muster aus Daten und kann daraus Regeln ableiten. Das ist aber noch immer keine Kreativität. Es ist statistische Datenanalyse.

Bearbeitet von Ulf Schiewe

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bitte melde Dich an, um einen Kommentar abzugeben

Du kannst nach der Anmeldung einen Kommentar hinterlassen



Jetzt anmelden


×
×
  • Neu erstellen...