Inhalte aufrufen

Profilbild

Harry Potter ex machina - herrlich grandioser Mist!


  • Zum Antworten bitte anmelden
145 Antworten zu diesem Thema

#41
MartinC

MartinC
  • 811 Beiträge
  • Dabei seit 10.06.13

Der Artikel bringt es auf den Punkt: Noch nicht, aber ...

 

LG

Martin


_______________________________________________________

www.martinconrath.de

Jede Art des Schreibens ist erlaubt - nur nicht die langweilige (Voltaire)


#42
Tom Liehr

Tom Liehr
  • 803 Beiträge
  • Dabei seit 20.03.14

Noch wird paraphrasiert, bauen Programme, die keine Ahnung davon haben (und haben können), was sie da tun, Versatzstücke zusammen, befolgen von Programmierern festgelegte Regeln, Strukturen und Entwurfsentscheidungen. Das ist von echter Intelligenz und Kreativität ziemlich weit entfernt, auch wenn es einem intelligent vorkommt.

 

Und ich finde, dass das das eigentlich Erschütternde daran ist. Katzen und weibliche Protagonisten, dazu Menschen, die ein künstliches Gespräch nicht erkennen, obwohl das Gegenüber keine Ahnung davon hat, was es da gerade schwatzt. Anders gesagt: Die Schwelle ist einfach sehr niedrig, weil wir uns so leicht täuschen lassen, weil wir so vorhersehbar agieren, weil wir weit weniger "intelligent" sind, als wir von uns glauben. Weil wir leicht an der Nase herumzuführen sind.

 

Anders gesagt: Wenn von Computern "geschriebene" Texte Menschen tatsächlich erreichen, dann ist das vor dem Hintergrund der aktuellen technischen Möglichkeiten aus meiner Sicht vor allem ein vernichtendes Urteil über unsere Zunft. :(

 

Herzlich,

Tom


Website · Facebook · Oktober 2016: "Landeier" (Rowohlt)


#43
Christa

Christa
  • 7.067 Beiträge
  • Dabei seit 18.11.05

Anders gesagt: Wenn von Computern "geschriebene" Texte Menschen tatsächlich erreichen, dann ist das vor dem Hintergrund der aktuellen technischen Möglichkeiten aus meiner Sicht vor allem ein vernichtendes Urteil über unsere Zunft. :(

 

Eigentlich gehen mir nur Phrasen im Kopf herum, denn was könnten wir mit der Erkenntnis anfangen, dass die Roboter am Ende alle arbeitslos machen werden außer die Informatiker, die sie füttern? Dass Autoren überflüssig werden würden, Verlage, Übersetzer, Designer usw. Dass vor allem niemand mehr für sie zahlen müsste. Solange Menschen Schreibroboter und Bestsellerautomaten füttern, haben sie auch noch den Daumen drauf. Schlimm wäre allerdings die Vorstellung, dass ein Roboter andere Roboter versorgt.

 

Wie gesagt, klingt alles, was mir durch den Kopf geht, so pathetisch wie die Gedichte und Romanversatzstücke, die bei diesen Versuchen herausgekommen sind. Ich frage mich nur ernsthaft, was diese Forscher erreichen wollen. Beweisen, dass ein Roboter ein besserer Mensch, ein besserer Autor werden kann, der die Leser zwischendurch auch noch fragt, ob es ihnen gut geht und was er sonst noch für sie tun kann? 8-)

 

Edit: Vielleicht ist das alles aber nur heiße Luft, und am Ende halten sich Mensch und Roboter gegenseitig das Händchen. Heiße Luft wie bei der Eisenbahn, in die damals keiner steigen wollte, weil sie des Teufels war.


Bearbeitet von Christa, 20.12.2017 - 12:54,

Schwarzwaldkrimi Martinsmorde. E-Book u.a.https://amzn.to/2yGV1Pc

Ab 7. September 2018 in allen (Online-)Buchhandlungen zu bestellen!

http://schreibteufel...a.blogspot.com/


#44
Olaf

Olaf
  • 384 Beiträge
  • Dabei seit 19.07.16

Ich frage mich nur ernsthaft, was diese Forscher erreichen wollen. Beweisen, dass ein Roboter ein besserer Mensch, ein besserer Autor werden kann, der die Leser zwischendurch auch noch fragt, ob es ihnen gut geht und was er sonst noch für sie tun kann? 8-)

 

Ich denke, da gibt es unterschiedliche Motive:

  • Da ist einmal die Grundlagenforschung. Die möchte gerne herausfinden, wie Systeme (also egal, ob Menschen oder Maschinen) lernen und sich Fähigkeiten aneignen. Die Wissenschaftler nutzen Schach, Go, Autofahren und eben auch das Schreiben von Geschichten als Übungsaufgaben.
  • Dann ist da die angewandte Forschung. Deren Ziel ist es, die Erkenntnisse aus der Grundlagenforschung in ein nützliches oder kommerziell verwertbares Produkt umzuwandeln. Solche Wissenschaftler glauben beispielsweise, dass autonom fahrende Autos die Straßen sicherer machen werden. Der Grundgedanke ist dabei, dass die Technik dem Menschen dienen soll.
  • Natürlich gibt es noch die kapitalistische Variante. Sobald sich neue Erkenntnisse irgendwie zu Geld machen lassen, wird das gemacht. Sch…egal, welche Folgen das haben könnte. "Sonst macht es ja eh ein anderer", ist das beliebte Argument gegen jeden Einwand. Das ist dann eigentlich keine wirkliche Forschung mehr, aber natürlich sind Forscher daran beteiligt.

Für uns Autoren könnte es mit den "Schreibmaschinen" in der Zukunft so aussehen wie bei vielen Handwerksberufen: Industriell gefertigte Massenware ist für den Geschmack der meisten Menschen qualitativ ausreichend und billig. Kauf ich! (Schuster, Möbeltischler und auch schon manche Journalisten leiden darunter seit unterschiedlich vielen Jahren.)

 

Übrigens legen Programmierer bei solchen Programmen nicht mehr die Regeln fest, nach denen das Programm arbeitet. Meistens sind dies lernfähige Programme (die nennen sich neuronale Netze, weil sie nach einem einfachen Modell des Gehirns arbeiten), die sich sozusagen selbst programmieren. Das Programm

  1. analysiert Vorlagen (etwa existente Texte),
  2. findet selbständig vermeintliche oder wahre Regeln (vermeintlich: "Bayern schießt in der Nachspielzeit immer ein Tor", echt: "Die Mannschaft mit mehr Toren gewinnt das Spiel"),
  3. entwirft eigene Arbeiten (schreibt also selbst Texte)
  4. Diese werden in der Lernphase von Menschen bewertet ("Harry Potter frisst seinen Besen", fliegt raus, obwohl bei Harry Potter oft gegessen wird und es Besen gibt; "Ron haut Harry den Besen über den Kopf" darf jedoch bleiben),
  5. anhand der positiv bewerteten Arbeitsproben erkennt das Programm, welche seiner (für den Menschen unbekannten) Regeln gut sind und welche es besser vergisst.
  6. Schließlich sollte ein Programm theoretisch die Aufgabe wunderbar erfüllen können. Niemand hat ihm gesagt, wie es das machen soll, und wir haben keine Ahnung, was im "Kopf" der Maschine vor sich geht.

 

Wann es soweit sein wird, dass Programme den ziemlich langen und komplexen Plot eines Romans entwerfen und ausführen können und dazu glaubwürdige Charaktere entwickeln, kann niemand sagen. Aber ich fürchte, wir sind nicht mehr so weit davon entfernt.


Olaf Fritsche 

www.seitenrascheln.de


#45
Ulf Schiewe

Ulf Schiewe
  • 5.836 Beiträge
  • Dabei seit 12.03.08

Ein Computer benötigt ein Programm. Dieses wird von einem Programmierer erstellt. Und es enthält Regeln, wie das Programm auf Daten zu reagieren hat. Diese Daten kommen von außen über Eingabe oder Sensoren. Ein selbstlernendes Programm tut im Grunde nichts anderes, als externe Daten geordnet abzuspeichern. Neue und schon vorhanden Daten können miteinander kombiniert und analysiert werden und entsprechend den vorprogrammierten Algorithmen zu Maßnahmen führen. Das Programm kann also "lernen" und so zu neuen Ergebnissen kommen. Und das funktioniert gut, wenn es um ein ganz bestimmtes Ziel geht, wie Schach oder Go spielen oder ein Fahrzeug lenken. Dabei kann das Programm keine Moral oder Ethik haben, die nicht vom Programmierer vorgesehen ist. Es kann auch keine Beurteilung abgeben, außer ob etwas aufgrund seiner Datenanalyse zielführend ist. Wobei das Ziel natürlich auch vom Menschen vorgegeben ist. Kreativität ist das alles nicht. Die ist allein dem Programmierer vorbehalten. Natürlich kann der Programmierer auch einen Zufallsgenerator einbauen. Auch das ist nicht Kreativität, höchsten ganz lustig zur Unterhaltung.

 

Natürlich habe ich das hier vereinfacht dargestellt. Moderne Systeme sind hochkomplex und bestehen aus tausenden von Funktionen, viele auch von anderen Systemen übernommen. Damit lässt sich schneller entwickeln. Aber im Prinzip werden Bits ein und ausgeschaltet, Daten werden gespeichert und gelesen und vorprogrammierte Algorithmen treffen Entscheidungen. Aber auch nur, wenn der oder die Programmierer an diese Frage gedacht haben.


Bearbeitet von Ulf Schiewe, 20.12.2017 - 13:44,

Die Montalban-Reihe, Die Normannenserie, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, www.ulfschiewe.de


#46
Olaf

Olaf
  • 384 Beiträge
  • Dabei seit 19.07.16

Nee, so funktioniert das nicht.


Olaf Fritsche 

www.seitenrascheln.de


#47
Christa

Christa
  • 7.067 Beiträge
  • Dabei seit 18.11.05

Natürlich gibt es noch die kapitalistische Variante. Sobald sich neue Erkenntnisse irgendwie zu Geld machen lassen, wird das gemacht. Sch…egal, welche Folgen das haben könnte. "Sonst macht es ja eh ein anderer", ist das beliebte Argument gegen jeden Einwand. Das ist dann eigentlich keine wirkliche Forschung mehr, aber natürlich sind Forscher daran beteiligt.

Für uns Autoren könnte es mit den "Schreibmaschinen" in der Zukunft so aussehen wie bei vielen Handwerksberufen: Industriell gefertigte Massenware ist für den Geschmack der meisten Menschen qualitativ ausreichend und billig. Kauf ich! (Schuster, Möbeltischler und auch schon manche Journalisten leiden darunter seit unterschiedlich vielen Jahren.)

 

 

Wann es soweit sein wird, dass Programme den ziemlich langen und komplexen Plot eines Romans entwerfen und ausführen können und dazu glaubwürdige Charaktere entwickeln, kann niemand sagen. Aber ich fürchte, wir sind nicht mehr so weit davon entfernt.

 

 

​Danke für eure ausführlichen Antworten, Olaf und Ulf. Bis ihr geklärt habt, wie es wirklich funktioniert, zu o.g. Aussage.

Genauso habe ich es mir nämlich vorgestellt. Die Massenware haben wir ja heute schon, und wahrscheinlich werden die Liebhaber dieser Elaborate gar nicht merken, wenn sie demnächst von Bots geschrieben werden.  8-)

 


Bearbeitet von Christa, 20.12.2017 - 13:56,

Schwarzwaldkrimi Martinsmorde. E-Book u.a.https://amzn.to/2yGV1Pc

Ab 7. September 2018 in allen (Online-)Buchhandlungen zu bestellen!

http://schreibteufel...a.blogspot.com/


#48
Tom Liehr

Tom Liehr
  • 803 Beiträge
  • Dabei seit 20.03.14

@Ulf: Ich fürchte, da hat Olaf recht. Das strikte, binäre Entweder-Oder, das ist zwar immer noch die Basis vieler Anwendungen, aber man ist technisch schon ein paar große Schritte weiter. Es gibt viele Ansätze, die über bloßes Ausprobieren hinausgehen. Bei nicht allem wissen die Entwickler, warum das funktioniert, was dann zu funktionieren scheint.

 

Herzlich,

Tom


Website · Facebook · Oktober 2016: "Landeier" (Rowohlt)


#49
Ulf Schiewe

Ulf Schiewe
  • 5.836 Beiträge
  • Dabei seit 12.03.08

 

  1. analysiert Vorlagen (etwa existente Texte),
  2. findet selbständig vermeintliche oder wahre Regeln (vermeintlich: "Bayern schießt in der Nachspielzeit immer ein Tor", echt: "Die Mannschaft mit mehr Toren gewinnt das Spiel"),
  3. entwirft eigene Arbeiten (schreibt also selbst Texte)

 

 

 

Bis hierhin okay. Aber ab diesem Punkt betreten wir Wunschdenken. Da könnte der Computer Millionen Texte rausspucken, die alle ziemlich unsinnig sind. Wer will das alles bewerten und dem Computer wieder einfüttern. Und der soll daraus erkennen, was eine Geschichte an Botschaft für die Menschheit erzählen soll. Dazu müsste man das ganze Menschsein einfüttern, den Erfahrungsschatz eines Menschen, die Geschichte unserer Kultur und man müsste selbst dann jede Menge Zielparameter vorgeben. Das ist eine Illusion. Wie Manfred schon sagte, es bräuchte das Bewusstsein des eigenen Ichs und den hat ein Computer nicht.


Die Montalban-Reihe, Die Normannenserie, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, www.ulfschiewe.de


#50
Ulf Schiewe

Ulf Schiewe
  • 5.836 Beiträge
  • Dabei seit 12.03.08

@Ulf: Ich fürchte, da hat Olaf recht. Das strikte, binäre Entweder-Oder, das ist zwar immer noch die Basis vieler Anwendungen, aber man ist technisch schon ein paar große Schritte weiter. Es gibt viele Ansätze, die über bloßes Ausprobieren hinausgehen. Bei nicht allem wissen die Entwickler, warum das funktioniert, was dann zu funktionieren scheint.

 

Herzlich,

Tom

 

Das ist mir schon klar. Ich habe das vereinfacht dargestellt. Data Mining zum Beispiel erkennt Muster aus Daten und kann daraus Regeln ableiten. Das ist aber noch immer keine Kreativität. Es ist statistische Datenanalyse.


Bearbeitet von Ulf Schiewe, 20.12.2017 - 14:10,

Die Montalban-Reihe, Die Normannenserie, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, www.ulfschiewe.de


#51
Christa

Christa
  • 7.067 Beiträge
  • Dabei seit 18.11.05

Bis hierhin okay. Aber ab diesem Punkt betreten wir Wunschdenken. Da könnte der Computer Millionen Texte rausspucken, die alle ziemlich unsinnig sind. Wer will das alles bewerten und dem Computer wieder einfüttern. Und der soll daraus erkennen, was eine Geschichte an Botschaft für die Menschheit erzählen soll. Dazu müsste man das ganze Menschsein einfüttern, den Erfahrungsschatz eines Menschen, die Geschichte unserer Kultur und man müsste selbst dann jede Menge Zielparameter vorgeben. Das ist eine Illusion. Wie Manfred schon sagte, es bräuchte das Bewusstsein des eigenen Ichs und den hat ein Computer nicht.

 

Schwebt mir auch schon die ganze Zeit im Kopf rum, Ulf. Ich hoffe auch noch um die Lösung der Frage, ob ein Computer in dem Sinne kreativ sein kann, wie wir es verstehen, nicht nur, weil er selber lernt. Allerdings brauchen wir für die Massenelaborate keine Botschaften an die Menschheit und keine Geschichte unserer Kultur. ;)  Das mit dem Ich: Der Computer kann zwar schreiben: Ich, der Computer, schreibe eine Geschichte und kann damit in Japan für einen Preis nominiert werden, aber er kann das nicht fühlen, denn da ist ja nur Metall und Kunststoff in seinem Kopf. Und jetzt warte ich nur noch darauf, dass Computer auch lernen können zu fühlen ... :-X


Bearbeitet von Christa, 20.12.2017 - 14:39,

Schwarzwaldkrimi Martinsmorde. E-Book u.a.https://amzn.to/2yGV1Pc

Ab 7. September 2018 in allen (Online-)Buchhandlungen zu bestellen!

http://schreibteufel...a.blogspot.com/


#52
Ramona

Ramona
  • 2.937 Beiträge
  • Dabei seit 17.03.11

Das mit dem Ich: Der Computer kann zwar schreiben: Ich, der Computer, schreibe eine Geschichte und kann damit in Japan für einen Preis nominiert werden, aber er kann das nicht fühlen, denn da ist ja nur Metall und Kunststoff in seinem Kopf. Und jetzt warte ich nur noch darauf, dass Computer auch lernen können zu fühlen ... :-X

 

 

Und dabei geht es ja nicht alleine ums Fühlen. Ebenso wenig wie es nicht alleine ums Denken oder Datenanalysieren geht. Vielmehr ginge es um so etwas wie das künstliche Erschaffen von Selbst-Bewusstsein.


Inspiration exists, but it has to find us working! (Pablo Picasso)


#53
Tom Liehr

Tom Liehr
  • 803 Beiträge
  • Dabei seit 20.03.14

Man sollte nicht vergessen, dass wir längst nicht wissen, wie Kreativität funktioniert, was Ideen letztlich wirklich sind und wo Phantasie entspringt. Wir bezeichnen Menschen als kreativ, die schöpferisch tätig sind, aber wir haben keinen objektiven Maßstab für die Qualität der Kreativität, obwohl wir so tun, als gäbe es einen. Ob Selbstbewusstsein nötig ist, um etwas wie Kreativität an den Tag legen oder wenigstens sehr gut simulieren zu können, ist eine weitere ungeklärte Frage.

 

Wir alle handeln (sehr wahrscheinlich) auch (und zwar ausschließlich) nach Regeln, etwa nach Regeln der Kognition und der Deduktion, und möglicherweise hat Kreativität auch etwas mit Regeln und Systemen zu tun. Das ist auch, glaube ich, nicht das Kernproblem. Das Kernproblem besteht darin, komplexe, zusammenhängende Systeme herzustellen, die einen unterhaltsamen Sinn ergeben. Oder ihn wenigstens sehr gut vortäuschen. Beim Turing-Test geht es darum, dass das menschliche Gegenüber nicht merkt, mit einem Programm zu kommunizieren. Es geht nicht um die Qualität der Kommunikation. ;)

 

Herzlich,

Tom


Website · Facebook · Oktober 2016: "Landeier" (Rowohlt)


#54
AndreasE

AndreasE
  • 2.018 Beiträge
  • Dabei seit 01.04.07

Wie nah oder fern das Romane schreibende Programm auch sein mag, ich bin überzeugt, dass es eine Menge anderer Dinge gibt, über die wir uns als Autoren mehr Sorgen machen müssen.



#55
Ramona

Ramona
  • 2.937 Beiträge
  • Dabei seit 17.03.11

Wie nah oder fern das Romane schreibende Programm auch sein mag, ich bin überzeugt, dass es eine Menge anderer Dinge gibt, über die wir uns als Autoren mehr Sorgen machen müssen.

 

Oh ja.


Inspiration exists, but it has to find us working! (Pablo Picasso)


#56
Manfred

Manfred
  • 239 Beiträge
  • Dabei seit 20.03.14

Das Thema hat ja ganz schon Fahrt aufgenommen.

 

Darf ich mal festhalten:

 

-       Die Schreibsoftware von Botnik ( http://botnik.org ) ist ein Gimmick für Technik-affine Künstler und nicht ein „Roboter, der selbständig Romane schreiben

         kann".

-       In diesem Faden geht es wohl vor allem darum, WANN ein solcher Roboter kommen wird. (Es schwingt bei einigen auch ein wenig die Angst davor mit.)

-       Die Informatiker und Computerlinguisten unter uns denken, dass es noch lange dauern wird (ohne Zeitangabe). Andere denken, dass es bald geschehen wird  

         (10 bis 50Jahre) (50 ist nicht ganz so bald).

-       Wenn der Romanroboter Wirklichkeit ist, müssen wir uns über ganz andere Dinge Sorgen machen als über das Romanschreiben. (à Andreas)

 

Diejenigen, die den Roboter nahen sehen, zitieren vor allem Erfolge des sogenannten „deep learning“, die durch die Presse gingen.

 

Vielleicht ist es ja hilfreich, einmal zu überlegen, was deep learning ist, was es kann und was nicht, was Lernen für den Romanroboter bedeutet und warum Wissenschaftler/ IT-Ingenieure überhaupt so etwas konstruieren.

 

„deep learning“ ist eine Variante von künstlichen neuronalen Netzen (KNN), die über viele Zwischenebenen verfügt und darin das Lernproblem in kleinere Einzelbereiche aufbricht. Der Ausdruck  „künstliche neuronale Netze“ ist eine Metapher, die bildlich an die Struktur von Neuronen und Synapsen anknüpft, aber in mancher Hinsicht anders funktioniert. Im Wesentlichen werden Verknüpfungen zwischen input und output hergestellt und mit Gewichtungen versehen: neuer input – neue Gewichtung. Auf diese Weise können Muster erkannt werden. Zum Beispiel handschriftliche Zahlen und Buchstaben. Dadurch verhält sich das System als wüste es, was eine geschriebene 5 ist. Es „erkennt“ die 5. Dieses Wissen besteht aber nur aus den vom System geknüpften Verbindungen und Gewichtungen (plus Schwellenwerte), nicht aus expliziten Regeln.

 

Im Gegensatz zum menschlichen Gehirn arbeiten die meisten KNN z.Z. seriell  und nicht parallel. Das menschliche Gehirn verfügt zudem über spezialisierte Module zur Verarbeitung bestimmter Arten von Information (Hören, Sehen, Sprache, Raum usw.). Das menschliche Gehirn verarbeitet ferner automatisiertes Verhalten (Atmen, Laufen Autofahren usw.)  anders und wesentlich schneller als bewusstes Verhalten (wie einen Roman schreiben usw.). Für die erste Art von Prozessen verwenden (und erwerben) wir prozedurales Wissen, für die zweite dagegen deklaratives Wissen, und diese Prozesse laufen im Gehirn unterschiedlich ab.

 

Die Geschichte der KNN und des dazu gehörigen assoziativen Lernens gehen zurück in die 1940er und z.T. davor.  Es haben sich dabei verschiedene Ansätze zum Maschinenlernen entwickelt, nämlich (1) das überwachte Lernen, bei dem input und output bewertet werden, (2) das bestärkende Lernen, bei dem richtige Verbindungen bestärkt werden und (3) das unüberwachte Lernen, bei dem das System ein Muster nur anhand von Inputmaterial erkennen lernen soll.

 

Es ist klar, dass bei den ersten zwei Formen des Lernens der menschliche Einfluss wesentlich ist (ebenso die Anlage der versteckten Zwischenebenen). Was vielleicht viele als bedrohlich empfinden, ist das unüberwachte Lernen. Und in diesem Bereich wurden in den letzten Jahren große Fortschritte gemacht, und zwar vor allem in der Erkennung von Handschriften, der Spracherkennung (als Erkennung der LAUTUNG einer Sprache), und in verschiedenen Anwendungen der Bilderkennung (Brustkrebsscreening, Gesichtserkennung usw.).

 

Was diese KNN, bzw deep learning, gut kann, ist das Lernen von kognitiven Funktionen auf ganz basaler Ebene. Hier geht es um die Zuordnung von Bildpunkten und phonetischen Merkmalen. Von hier bis zur Erkennung des Ich, Hier und Jetzt liegen unbekannt viele Ebenen der Kognition. Und an einer bestimmten Stelle auf diesem Spektrum setzt das Bewusstsein des Selbst und des Gegenübers ein, das neben der natürlichen Welt eine geistige schafft (die mentale Welt, in der auch das Kreative zu Hause ist --> Tom).

 

All diese Ebenen der Kognition sind von KNNen (bzw. "deep learning") nicht abgebildet worden, vor allem nicht von unüberwachten KNNen.

 

Neben den „künstlichen neuronalen Netzen“ gibt es aber noch viele andere Ansätze, mit denen in der KI gearbeitet wird.  In meiner Firma arbeiten wir zum Beispiel mit einer mathematischen Grammatiktheorie für die Modellierung grammatischer Strukturen und verbinden sie mit einer Semantik- und Texttheorie, also Wissen über Sprache, das wir dem Blechkasten vorgeben. Daneben lernt er selbst die Bedeutung neuer Wörter.

 

Unter Kognitionwissenschaftlern gibt es seit langer Zeit einen Disput darüber, ob assoziatives Lernen und regelgeleitetes Lernen jeweils alle Aspekte der Kognition (einschließlich Sprache) abdecken können. Fast allen ist es klar, dass beide Ansätze nötig sind, um alle relevanten Aspekte abzudecken. Es wurde gezeigt, dass es z.B. in Sprache Strukturen/Regularitäten gibt, die man nicht aus dem verfügbaren Input – also assoziativ (mit „deep lerning“) ableiten kann. Dazu ist entweder a priori Wissen nötig oder ein Lernsystem, das viel mächtiger ist als ein assoziatives. „Mächtiger“ heißt hier ein System, das stärker im Schlussfolgern ist. Daher ist man auf Fachkonferenzen weitaus vorsichtiger mit der Prognose der Möglichkeiten. Man hat ja die eigenen Grenzen und die der anderen stets vor Augen.

 

Natürlich suchen auch erfolgreiche Wissenschaftler die Öffentlichkeit und die Presse, und dann werden Forschungserfolge in Zusammenhang gebracht mit realen Problemen, werden hochgerechnet, und Zukunftsvisionen werden entwickelt, aber jeweils aus der einzelnen Sicht eines Forschers oder eines Redakteurs. Und dann kann die Zukunft näher scheinen als im eigenen Labor.

 

Und warum wollen Wissenschaftler, bzw. KI-ler „Roboter“ bauen? Wie Olaf sagt: Die einen wollen grundlegende Fragen klären, zum Beispiel wie hohe kognitive Funktionen KNNen lernen können. Andere (z.B. wir) wollen praktische Probleme lösen: automatische Korrektur fremdsprachlicher Texte, Dialogsysteme für Gehörlose. Die mit dem Sinn für Geld sind oft in der Presse besonders laut. Romane schreiben steht aber nicht auf der Liste der meisten Institute. Das versuchen manche KI-ler lieber selbst und lernen dabei von den Kopfschreibern weitaus mehr als von den Blechkisten.


Bearbeitet von Manfred, 21.12.2017 - 00:01,


#57
Holger

Holger
  • 985 Beiträge
  • Dabei seit 15.05.10

Manfred, danke - viel Stoff zum Nachdenken (zumindest für mich).

Ansonsten: sehr, sehr spannende Diskussion. 

Ich habe mal in den Anfängen der Entwürfe neuronaler Netze, ca. um 1990 herum, meinen Lebensunterhalt mit dem Programmieren in Form von Clipper auf dBase III (und zuvor Assembler) verdient.
Damals hießt es, dass man Kreativität nicht programmieren kann.
Aus vielerlei Gründen hielt ich das für richtig und wähnte uns Autoren als relativ unersetzlich.

Noch immer ist Kreativität nicht programmierbar, und auch ein neuronales Netz muss zum Beispiel zwischen x Möglichkeiten eines Plantings und y Möglichkeiten eines Pay-Offs entscheiden und kann dort nicht mit größtmöglicher Varianz punkten, sondern muss ganz im Gegenteil seine Qualität in der Auswahl einer Variante von Millionen möglichen Varianten beweisen und dabei je nach Erfordernis eine Kohärenz mit dem bisherigen Text oder eben einen (gewollten) Bruch erzeugen. Und das pro Satz und letztlich für Zehntausende von Sätzen.

 

So weit ist das automatisierte Schreiben m. E. also (noch) nicht.
Aber: Ich weiß, das ist jetzt "Glaskugel", aber wenn ich mir ansehe, was in den letzten Jahren bei "Go" möglich war, dann schwindet meine Gelassenheit von 1990 doch auch ein wenig.

Ich bin auf Eure Gedanken gespannt.

 

Schöne Grüße,

Holger



#58
Olaf

Olaf
  • 384 Beiträge
  • Dabei seit 19.07.16

Danke, Manfred, das war eine schöne Zusammenfassung und ein interessanter Einblick in den aktuellen Stand der Programmiertechnik. Konnte diese Diskussion gut gebrauchen.

 

Ich möchte hier einen Aspekt einbringen, der ein wenig allgemeiner, aber gerade bei diesem Thema durchaus relevant ist: Die Unsicherheit von Zukunftsprognosen - auch von Experten.

 

Vor rund fünf Jahren habe ich ein Sachbuch geschrieben über die denkbaren Entwicklungen in der Biologie innerhalb der nächsten 50 Jahre. Es ging darum, den aktuellen Stand der Forschung darzustellen und auf dieser Grundlage zu spekulieren, was demnächst passieren könnte. Natürlich gab es dabei zu fast jedem Thema kritische Stimmen von aktiven Wissenschaftlern, die fest überzeugt waren, dieses und jenes würde nicht gehen. Interessant fand ich dabei zwei Aspekte:

  • Manche Experten waren der Ansicht, es wären Projekte unmöglich, die andere Forscher bereits tatsächlich längst umgesetzt hatten. Dies zeigt, dass auch Wissenschaftler nicht immer den vollen Überblick haben.
  • Mehrere der Entwicklungen, die ich Jahrzehnte in der Zukunft gesehen hatte, sind bereits innerhalb der vergangenen fünf Jahre Realität geworden. Auch die Fantasie von Wissenschaftsjournalisten kann folglich manchmal zu zögerlich sein.

 

Wenn wir Prognosen machen, gehen wir sinnvollerweise davon aus, dass die Entwicklung auch in der Zukunft etwa so weiterläuft, wie es in der Vergangenheit der Fall war. Dadurch rechnen wir zwangsläufig nicht mit den unerwarteten, unerwartbaren, aber durchaus immer wieder vorkommenden Entwicklungssprüngen. Die Biologie hat mit der schnellen Analyse von DNA solch einen Entwicklungssprung gemacht. (Einmal das persönliche Genom sequenzieren? Bitte, kein Problem. Machen wir in wenigen Wochen, was vor kurzer Zeit noch Jahrzehnte gedauert hat.) Gegenwärtig ist schon der nächste Sprung in Arbeit: Mit dem kürzlich entdeckten CRISPR-System haben Gentechniker plötzlich ein Präzisionsinstrument in der Hand, von dem ich beim Schreiben meines Buches noch nicht zu träumen wagte (und auch keiner der Wissenschaftler, weil es damals noch nicht entdeckt war).

 

Und in der Programmierung von intelligenten Systemen? In dem Bereich kenne ich mich nicht so gut aus, und das Besondere an den Entwicklungssprüngen ist ja auch, dass sie ziemlich unerwartet kommen. Vielleicht der Quantencomputer, der zig Varianten gleichzeitig berechnet? (Momentan ist der erst so weit, dass es als Erfolg gilt, wenn er sich nicht ständig an seinen eigenen Fähigkeiten und Unzulänglichkeiten verschluckt. Aber wenn er dieses Stadium eines Tages überwunden hat, …) Oder ein grundsätzlich neuer Ansatz, an dem schon in irgendeiner kleinen Garage gebastelt wird und von dem niemand etwas weiß. Jipp! Das ist rein spekulativ. Aber die IT-Geschichte ist voll von wohl fundierten Aussagen, die von plötzlichen Durchbrüchen hinweggefegt wurden. 

 

Ich lehne mich mal ein Stückchen aus dem Fenster und erwarte den ersten computergeschriebenen Roman, der mit einem mäßigen Trivialroman aus menschlicher Hand (Kopf) mithalten kann, noch vor dem Jahr 2030. Wer hält mit? Wer ist mutiger? Wer hält dagegen?


Olaf Fritsche 

www.seitenrascheln.de


#59
Olaf

Olaf
  • 384 Beiträge
  • Dabei seit 19.07.16

Ein weiterer Gedanke.

 

Brauchen wir wirklich ein Bewusstsein, Gefühle, Moral und ein Wissen um das Menschsein, um einen Roman zu schreiben? - Klar, wir als Menschen bringen das alles in unsere Bücher und Geschichten ein. Aber bedeutet dies gleich, dass es nicht ohne geht?

 

Ich vermute, dass es durchaus möglich ist, einen Roman ohne all diese Fähigkeiten zu schreiben. Ich denke, es reicht aus, das Wie zu kennen, ohne das Warum zu verstehen.

 

Es spielt keine Rolle, wie wir Menschen es machen. Es geht ja nicht darum, einen Menschen zu erschaffen, der Romane schreiben kann. Es geht darum, ein Programm zu entwerfen, dass einen Roman als Ergebnis produziert. Als der Mensch fliegen lernte, hat er sich lange Zeit damit abgemüht, es wie ein Vogel mit schlagenden Flügeln zu machen. Dieser Ansatz ist gescheitert, weil sich die Entwickler zu sehr an dem Vorbild orientiert haben. Als sie sich davon gelöst und einfach starre Flügel probiert hatten, ging plötzlich alles viel einfacher und schneller.

 

Praktisch keine Fußballerin weiß, was sie eigentlich tut, wenn sie eine Bananenflanke tritt. Kaum ein Koch kennt die chemischen und physikalischen Prozesse beim Kochen und Braten. Nicht ein Regenwurm philosophiert über seine Bedeutung im Ökosystem. Aber trotzdem funktioniert alles.

 

Meine These: Das Wie reicht, das Warum ist spannend, aber nicht unbedingt notwendig.


Olaf Fritsche 

www.seitenrascheln.de


#60
Tom Liehr

Tom Liehr
  • 803 Beiträge
  • Dabei seit 20.03.14

Hallo, Olaf.

 

Sehr spannend. Menschen - auch Wissenschaftler - neigen meiner Erfahrung nach außerdem dazu, jederzeit der Überzeugung zu sein, dass es quasi nichts mehr zu erfinden gibt. Sie können sich das Unvorstellbare nicht vorstellen. Da schwingt auch mit, dass man sich in der Welt sicher fühlen möchte, dass man nicht will, dass es da noch irgendwas gibt, das wesentlich ist und wir noch nicht kennen. Viele Menschengenerationen dachten, sich in einer Zeit zu befinden, die sozusagen das Ende der Entwicklung darstellt. Keine hatte recht.

 

Bezogen auf die künstliche Intelligenz und künstliches Bewusstsein (das ist nicht dasselbe) bin ich ebenfalls der Meinung, dass es möglich sein kann, dass nur ein vergleichsweise kleiner Schritt fehlt - entweder bezogen auf das Verständnis und/oder bezogen auf den Weg der Umsetzung. Menschen sind Systeme. Wenn der Schritt gefunden/gemacht ist, diese Systeme adäquat zu simulieren, mag der Rest ein Kinderspiel sein. Möglich eben auch, dass da draußen irgendwo der Ansatz lauert, auf den noch keiner gekommen ist, und der eben alles andere beiseitefegt. Möglich aber auch, dass der Schritt langfristig nicht gemacht wird, dass Grenzen bleiben, dass noch so leistungsstarke Systeme nie wirklich intelligent handeln, sondern es nur sehr gut vortäuschen.

 

Siri hat übrigens einen IQ von ungefähr 47. ;)

 

Herzlich,

Tom


Website · Facebook · Oktober 2016: "Landeier" (Rowohlt)