Abbildung 3: Turing-Test
Quelle: Jaai (2017)

Alain Turing befasste sich mit der Frage, inwiefern man das Denkvermögen eines Computers im Vergleich zu einem Menschen bewerten kann. Infolge dessen veröffentliche er 1950 einen Test namens „Imitation Game“, den eine Maschine bestehen muss, um als intelligent bezeichnet zu werden. Der Test wird von drei Teilnehmenden durchgeführt, wovon einer der menschliche Fragesteller, einer ein menschlicher Proband und eine Maschine ist. Der Fragesteller weiß nicht, welcher der Partner der Mensch und welcher die Maschine ist und muss nun durch Befragung herausfinden, um wem es sich jeweils handelt. Die Kommunikation erfolgt dabei lediglich über Tastatur und Monitor ohne Sicht- und Hörkontakt. Sobald der Fragensteller nicht mehr zweifelsfrei sagen kann, welcher der beiden anderen Teilnehmer die Maschine ist, gilt der Turing-Test als bestanden (Turing 1950, S. 444-447).

Es ist umstritten, ob der Turing-Test ein gültiger Test für Intelligenz ist. Laut Hingston (2009, S. 169) ist der Turing-Test ein Test für die Fähigkeit, menschlich zu erscheinen und dass intelligent zu sein ein möglicher Weg ist, dies zu tun. Auch Searle (1990, S. 40-41) kritisiert den Turing-Test und behauptet, dass der Test nur prüft, ob ein Bewusstsein vorhanden, welches sich mit einem Regelbuch mit allen möglichen Antworten zu jeder möglichen Frage austricksen lasse. Er behauptet, dass diese Lösung keine geistige Tätigkeit und die Maschine nicht intelligent sei.

ELIZA

Der erste Chatbot, der menschliches Verhalten imitieren konnte, war der Chatbot ELIZA und wurde im Jahr 1966 veröffentlicht. Der Name ELIZA entstand in Anlehnung an eine Figur aus dem Schauspiel Pygmalion von George Bernard Shaw. ELIZA konnte bestimmte Arten von natursprachlichen Gesprächen zwischen Mensch und Computer ermöglichen. Eingaben wurden dabei mithilfe von Zerlegungsregeln analysiert, die durch Schlüsselwörter ausgelöst wurden. Die Antworten wurden durch Konstruktionsregeln, die den Zerlegungsregeln zugeordnet waren, generiert. Weizenbaum (1966, S. 36) bezeichnet dabei die Intelligenz, die Menschen in Programmen sehen, als eine Art Magie, die erlischt, sobald der Mensch das Verhalten des Programms bzw. den Programmcode versteht und nachvollziehen kann. Dies war seine Motivation für das Erschaffen eines solchen Chatbots.

Die Funktionsweise von ELIZA ähnelt dabei der eines Psychotherapeuten, der nicht viel über den Nutzer weiß, jedoch in der Lage ist, durch simple Fragen das Gespräch zu weiterzuführen, ohne etwas über die reale Welt erfahren zu müssen. Diese Herangehensweise löst beim Nutzer vor allem das Gefühl von Verständnis aus und wird vor allem beim Anbetracht der folgenden Konversation zwischen einem Patienten (P) und ELIZA (E) deutlich (Weizenbaum 1966, S. 42):  

Tabelle 1: Konversation zwischen ELIZA (E) und einem Patienten (P)
Quelle: Weizenbaum (1966, S. 36-37)

Diese therapeutische Herangehensweise erlaubte ELIZA viele Fragen zu stellen, ohne sofort als Chatbot entlarvt zu werden. Dadurch, dass ELIZA lediglich Schlüsselwörter verarbeitete, speicherte und erkannte der Chatbot keine wichtigen Inhalte und Zusammenhänge. Der Nutzer leitete das Gespräch mit verschiedenen Themen, während ELIZA stets diese hinterfragte um so einen zuhörenden Gesprächspartner zu imitieren (Shum et al. 2018, S. 11-12). Weizenbaum selbst weist darauf hin, dass diese Vorgehensweise jedoch nicht immer realistisch ist (Weizenbaum 1966, S. 42).

PARRY

Im Jahr 1972 entwickelte Colby (1975, S. 37-38) den Chatbot PARRY, der einen paranoiden Patienten simulierte. PARRY war der erste Chatbot, der den Turing-Test bestand (Lut). Dabei spielte die Funktionsweise und das Modell vom Chatbot ELIZA eine entscheidende Rolle bei der Entwicklung. Colby orientierte sich bei der Entwicklung an ELIZA, kritisierte jedoch das fehlende interne Weltmodell, das die Konversationen zwischen Nutzer und Chatbot beeinflusst und verfolgt. Während ELIZA so arbeitete, dass keine Informationen über sich selbst preisgegeben wurden, schaffte Parry eine eigene Persönlichkeit. Um die Intelligenz des Chatbots unter Beweis zu stellen, wurde PARRY mit drei menschlichen, als paranoid diagnostizierten Patienten von mehreren Ärzten befragt. Im Nachhinein wurden Abschriften der Konversationen von Psychiatern und Informatikern überprüft, die entscheiden sollten, ob es sich um einen Computer oder menschlichen Patienten handelt. Das Ergebnis zeigte, dass alle Befragten, einschließlich PARRY, mit einer gleichhohen, an Zufall grenzenden Wahrscheinlichkeit als Computer oder menschlichen Patienten eingeschätzt wurden. Diese Erfolgsquote wurde zunächst dem irrationalen Verhalten paranoider Patienten zugeschrieben, die auch durch teilweise zufällige Antworten entstehen könnten. Weitere Untersuchungen zeigten aber, dass PARRY durchaus in der Lage war, die Leser der Abschriften bzw. den Nutzer zu täuschen, da selbst unangemessene und irrationale Antworten eines paranoiden Patienten von PARRY mithilfe einer bestimmten Logik effektiv simuliert wurden. Dennoch ist festzuhalten, dass das Imitieren eines paranoiden Patienten einfacher ist als das eines gesunden Menschen (Mauldin 1994, S. 16). Die folgende Tabelle zeigt eine Konversation zwischen PARRY (P) und einem Arzt (A).

Tabelle 2: Konversation zwischen Parry (P) und einem Arzt (A)
Quelle: Colby (1975, S. 76-77)

Wie man sieht, schaffte PARRY es durchaus, paranoide Charaktermerkmale zu simulieren, fing an, eine „Unterwelt“ zu erwähnen und selbst Fragen zu stellen, was einen realistischen Eindruck hinterließ. Allerdings entstanden auch nicht unbedingt sinnvolle Fragen wie „Shouldn’t I be?“ (Colby 1975, S. 76-77).

Dadurch, dass PARRY einen Pateinten und ELIZA einen Therapeuten spielten, war es 1972 nach der Entwicklung von PARRY möglich, das erste Mal zwei intelligente Chatbots miteinander kommunizieren zu lassen, was jedoch teilweise zu einer unrealistischen Konversation führte (Garber 2014).

Alice

Alice steht für Artificial Linguistic Internet Computer Entity und ist ein weiterer Chatbot, der 1995 von Wallace veröffentlicht wurde. Mit Alice gewann er drei Mal den Loebner Preis für den menschenähnlichsten Chatbot. Der Open Source Chatbot wurde auf Basis der Artificial Intelligence Markup Language geschrieben und wird oft mit dem Chatbot ELIZA verglichen. Alice ist jedoch deutlich flexibler und umfasst über 40.000 Wissenskategorien, während ELIZA nur ca. 200 besaß. Jede dieser Kategorien kombiniert eine Frage mit einer Antwort. Diese werden auch „pattern“ und „template“ genannt und in einer Baumstruktur innerhalb der AIML Software gespeichert (2009, S. 181-182). Eine Konversation zwischen einem Nutzer (N) und Alice (A) könnte wie folgt lauten:

Tabelle 3: Konversation zwischen Alice (A) und einem Nutzer (N)
Quelle: Bowden et al. (2017, S. 4)

Allerdings stößt auch Alice durch die Kapazitäten der AIML-Software an seine Grenzen, sodass der Chatbot längeren Konversationen nicht standhalten kann. Aus diesem Grund hat der Chatbot auch den Turing-Test nie bestehen können (Shum et al. 2018, S. 12).