Home / Geschäft und Politik / Viktor Dörfler, KI-Experte: ChatGPT ist keine besonders revolutionäre Technologie

Viktor Dörfler, KI-Experte: ChatGPT ist keine besonders revolutionäre Technologie

<p>Viktor Doerfler, University of Strathclyde Business School</p>
Viktor Doerfler, University of Strathclyde Business School / Image by: foto

Viktor Dörfler ist Wissenschaftler, Berater, Lehrer und Redner, der an der bevorstehenden Lider-Konferenz G.R.I.D. Forum teilnehmen wird. Er ist außerdem Senior Lecturer für Informations- und Wissensmanagement am Department of Management Science der Strathclyde Business School im Vereinigten Königreich und zudem Autor des Buches ‚Was jeder CEO über KI wissen sollte‘, veröffentlicht von Cambridge University Press. Darüber hinaus ist er Praktiker, der die Entwicklung von auf künstlicher Intelligenz basierender Software geleitet, verschiedene KI-Lösungen erforscht und verglichen sowie die Validität von KI-Ergebnissen analysiert hat. Seine wissenschaftliche Forschung konzentriert sich auf Talent, Kreativität, Intuition und die Beziehung zwischen Großmeistern und Helfern im Zusammenhang mit KI. Besonders interessiert ihn, was KI lernt und wie sie trainiert wird. Um den Fluss des menschlichen Lernens zu verstehen und ihn mit dem Lernprozess der Technologie zu vergleichen, führte er tiefgehende Interviews mit siebzehn Nobelpreisträgern und zwei Eckert-Mauchly-Preisträgern durch, um zu verstehen, wie die talentiertesten Wissenschaftler denken. In seiner Beratungsarbeit berät er Organisationen bei der Implementierung von künstlicher Intelligenz zur Unterstützung komplexer Entscheidungen durch Modellierung von Expertenwissen. Vor dem Forum haben wir all dies mit Dr. Dörfler besprochen, einem Ungarn, der Kroatisch ausgezeichnet spricht, was nicht überraschend ist, da er in Vojvodina aufgewachsen ist.

Was hat Sie motiviert, diesen akademischen Schritt zu gehen und Nobelpreisträger über ihr Lernen zu interviewen?

– Ich war daran interessiert, was, einfach gesagt, künstliche Intelligenz nährt. Nämlich, bei einem Geschäftstreffen hörte ich einen Vortrag von Demis Hassabis, dem Gründer und CEO von DeepMind Technologies, einem Unternehmen, das jetzt im Besitz von Google ist und das, meiner Meinung nach, die beste Version von Technologien auf Basis künstlicher Intelligenz entwickelt. DeepMind hat ein neuronales Netzwerk geschaffen, das lernt, Videospiele auf eine Weise zu spielen, die Menschen ähnlich ist, ähnlich wie eine neuronale Turingmaschine, die das Kurzzeitgedächtnis des menschlichen Gehirns imitiert. Natürlich habe ich sofort in dieses Thema eingetaucht, da ich bereits zuvor begonnen hatte, KI-Lernmodelle zu studieren. Kurz vor diesem Treffen hatte DeepMind Schlagzeilen gemacht, nachdem sein Programm AlphaGo den menschlichen Profi-Go-Spieler, Weltmeister Lee Sedol, in einem Match über fünf Spiele besiegt hatte. Darüber hinaus besiegte das Programm AlphaZero sich selbst, das heißt, seine leistungsstarken Programme, in den Spielen Go, Schach und Shogi (japanisches Schach, Anmerkung). Hassabis sprach genau darüber, wie diese Programme Kreativität und Intuition besitzen, die fast wie Menschen funktionieren, was mich beunruhigte. Es beunruhigte mich nicht nur, ich mochte diese Idee überhaupt nicht. Deshalb begann ich, menschliches Wissen und künstliche Intelligenz zu studieren und setzte mir das Ziel, das falsche Bild aufzudecken, das der Öffentlichkeit über diese Technologien vermittelt wird.

Was genau ist hier falsch?

– Die von DeepMind entwickelten Programme der künstlichen Intelligenz lernen durch Methoden des verstärkenden Lernens, was bedeutet, dass wir die Technologie zunächst mit Wissen unterrichten, das wir später testen. Wenn sie unsere Testanfrage korrekt beantwortet, folgt eine Belohnung in Form eines Likes; wenn uns die Antwort nicht gefällt, weil sie falsch ist, dann bestrafen wir die Technologie bedingt mit einem Dislike. Auf diese Weise lernt sie, was richtig und was nicht ist. Auf die gleiche Weise wurden einst Verhaltensversuche mit Ratten von B. F. Skinner durchgeführt. Auf diese Weise kann Technologie lernen, und vielleicht kann auch etwas Wissen von Ratten erworben werden, aber Menschen lernen nicht auf diese Weise. Vielleicht nur Kinder in sehr jungem Alter, aber im Allgemeinen lernen wir, die Menschheit, nicht nach dem Modell von Karotte und Stock. Warum ist das interessant? Weil ein Mensch, ohne Stock und Karotte, und mit Leichtigkeit, nur das lernt, was ihn interessiert, worin er talentiert ist. Wenn etwas für uns uninteressant ist und wir keinen inneren Antrieb haben, bestimmtes Wissen zu erwerben, wird uns weder ein Like noch ein Dislike helfen. Für künstliche Intelligenz existiert dies nicht. Diese Technologie hat kein Talent für irgendetwas, dennoch kann sie sämtliches Wissen erwerben.

Was bedeutet das eigentlich?

– Dass die auf künstlicher Intelligenz basierenden Technologien und die sogenannte Wissensinjektion, oder große Datenmengen, auf deren Grundlage sie das beste Ergebnis oder die beste Lösung auswählen können, uns nicht so schnell ersetzen werden. Schauen Sie sich einfach an, wo die auf künstlicher Intelligenz basierende Technologie bisher die besten, sensationellsten Ergebnisse gezeigt hat. In Spielen! In abstrakten Spielen wie Go und Schach. Dies sind Spiele, die streng definierte Regeln haben, aber auch unzählige Möglichkeiten, und solche Züge, seien wir ehrlich, können sicherlich programmiert werden. Hinter dem Sieg des Computers im Spiel Go steckt viel Programmierung oder maschinelles Lernen, das aus zehntausenden gespielten virtuellen Zügen bestand, nach denen das sogenannte Training oder Testen folgte. Der Test des Programms bestand darin, nicht weniger als dreihundert Milliarden Matches zu spielen, die der Computer gegen sich selbst spielte. Kein Mensch kann in einem Leben so viele spielen. Das Ergebnis des gesamten Trainings oder Testens war eine riesige Datenbank darüber, welche Ergebnisse jeder Zug haben kann und wie schnell das Programm aufgrund bestimmter Züge gewinnen oder verlieren kann. Danach ist es im Spiel gegen einen menschlichen Gegner mit weit weniger gespielten Partien für den Computer sehr einfach, den Zug auszuwählen, der natürlich zum Sieg führt. So einfach ist das. Aber selbst künstliche Intelligenz ist nicht unbesiegbar, besonders wenn wir wissen, dass sie von Menschen kontrolliert wird. Kürzlich hat in den USA ein Spieler, und nicht aus der ersten Amateur-Liga von Go, sondern sogar aus der zweiten, den ‚unbesiegbaren‘ Computer besiegt und vierzehn von fünfzehn Matches gewonnen. Was haben wir dann gelernt? Dass der Mensch eine schlechte Strategie für das Spiel programmiert hat, nicht dass KI ein schlechter Spieler ist. Ein Mensch würde in denselben Umständen ganz anders reagieren. ‚Ich verliere Match um Match, ich werde meine Strategie ändern‘, so würde ein Mensch reagieren. Die Maschine denkt nicht! Sie arbeitet nach einer vorgegebenen Vorlage. Sie ist sich der schlechten Strategie nicht bewusst, sie versteht nicht, warum sie das Match verloren hat. Sie tut, was sie programmiert wurde zu tun, was die beste Option ist. Und das ist ein bedeutender Beweis dafür, dass diese Maschine, egal wie viel wir in sie investieren und was wir ihr ‚beibringen‘, tatsächlich nichts versteht und keine unabhängigen Entscheidungen treffen kann. Das ist die erste Prämisse, mit der wir uns dieser Technologie nähern müssen.

Woher kommt dann all dieser Enthusiasmus für einige neue Technologien auf Basis künstlicher Intelligenz? Ist die Aufregung um sie unbegründet?

– Wenn Sie von ChatGPT sprechen, dann werde ich Ihnen etwas darüber erzählen, weil ich ein wenig über große Sprachmodelle (LLMs) der künstlichen Intelligenz weiß, die neuronale Netzwerke in dieser Technologie trainieren. Was diese Technologie kann, klingt gut, aber es ist tatsächlich nicht so gut, noch ist es besonders revolutionär, wie es der Öffentlichkeit präsentiert wird. Jedes Unternehmen kann diese Technologie in sein Geschäft implementieren; sie ist seit einiger Zeit auf dem Markt. Es ist ein Modell, das weiß, wie man Informationen sucht, weiß, wie man auf Anfragen antwortet und bestimmte sprachliche Phrasen behandelt, wodurch der Eindruck entsteht, dass jemand auf der anderen Seite mit dem Benutzer spricht. Dieses ‚jemand‘ ist eine sehr einfache und nicht besonders anspruchsvolle Technologie.

Sagen Sie, dass wir in gewisser Weise der Idee verfallen sind, dass ChatGPT die Welt und das Geschäft verändern wird?

– Nun, ich würde nicht sagen, dass wir der Idee verfallen sind, sondern eher, dass wir dieser Technologie eine viel größere Bedeutung beimessen, als sie von Natur aus verdient. Natürlich ist ChatGPT eine sehr nützliche kleine Sache. Schließlich wurde es auch in Microsofts Bing, seine Suchmaschine, integriert. Aber es ist weder zuverlässig noch relevant, noch wird es die Welt verändern.

Lesen Sie das gesamte Gespräch in der gedruckten oder digitalen Ausgabe des Lider-Wochenmagazins und kommen Sie unbedingt zum G.R.I.D. Forum, wo er zu Gast sein wird.

Markiert: