In den letzten Jahren gewannen Chatbots immer mehr an Bedeutung und entwickelten sich immer weiter. Dabei können schon einfache Chatbots auf Internetseiten, die beispielsweise oft gestellte Fragen als Dialoginstanz beantworten, sehr nützlich und produktiv sein (Wittpahl 2018, S. 7). In den letzten Jahren haben sich jedoch insbesondere selbstlernende Chatbots in Form von Sprachassistenten durchgesetzt und sich als äußerst hilfreich erwiesen. Im Fachjargon werden diese auch als Personal Digital Assistants bezeichnet (Sarikaya 2017, S. 67-68). Ermöglicht wurde dies durch den Einsatz von verschiedenen ML-Methoden (Döbel et al. 2018, S. 4). Dabei wird vor allem in Bezug auf Text-, Bild- und Videoverarbeitung auf das Deep Learning zurückgegriffen (Döbel et al. 2018, S. 89).

Sprachassistenten

2011 veröffentlichte Apple die Sprachsteuerungsfunktion Siri auf den iPhones, welche seit 2015 auch auf dem Apple MacBook nutzbar ist. Microsoft veröffentliche 2014 ihren eigenen Sprachassistenten Cortana für das Windows Phone und machte diesen bis 2016 auch für Windows 10 und Xbox One nutzbar. Auch Amazon veröffentlichte 2015 ihren eigenen intelligenten Lautsprecher Amazon Echo mit dem vorinstallierten Sprachassistenten Alexa. Google erweiterte 2015 seinen Dienst Google Now um den Sprachassistenten Google Assistant. All diese Sprachassistenten können dabei helfen Meetings zu planen, Kalendereinträge zu erstellen, E-Mails zu schreiben oder Smart Home Systeme anzusteuern (Dale 2016, S. 812). Ein Smart Home System ist ein Haushalt, in dem die Haushalts- und Multimedia-Geräte miteinander über das Heimnetzwerk kommunizieren, interagieren und übers Internet ferngesteuert werden können (Schiller 2018). Selbst bei Aufgaben, die die Sprachassistenten nicht lösen können, verweisen Sie auf eine Websuche, um den Nutzer so beim ersten Rechercheschritt weiterzuhelfen (Shum et al. 2018, S. 13). Bei den einzelnen Aufgaben unterscheidet man außerdem zwischen reaktiven und einer proaktiven Hilfe. Bei einer reaktiven Hilfestellung reagiert der Assistent auf eine Aufforderung des Nutzers und zeigt ihm beispielsweise einen Wetterbericht und eine Restaurantempfehlung an. Bei einer proaktiven Hilfestellung zeigt der Assistent eigenständig dem Nutzer beispielsweise eine Erinnerung an einen Termin oder eine auf den Nutzer abgestimmte Produktempfehlung an. Diese proaktiven Hilfestellungen können durch verschiedene Faktoren, wie z.B. Uhrzeit, Nutzerprofile, digitale Aktivitäten oder den Standort des Nutzers ausgelöst werden (Sarikaya 2017, S. 69-70).

HomePod

Apples eigener intelligenter Lautsprecher HomePod, der mit Siri arbeitet, ist ein gutes Beispiel für die Nutzung von vielen verschiedenen ML-Methoden. Apple veröffentlichte Dezember 2018 einen Bericht über die Optimierung der HomePod Spracherkennung. Dadurch, dass der HomePod ständig aktiv ist, aus der Ferne reagieren und Geräusche, Echos und Rauschen richtig zuordnen muss, entstehen viele Herausforderungen. Das erfordert eine enge Integration verschiedener mehrkanaliger Signalverarbeitungstechnologien. Aus diesem Grund kommen beim HomePod das Deep Learning, weitere unüberwachte Online-Lernalgorithmen und das überwachte Lernen zum Einsatz. Die unüberwachten Lernmethoden werden vor allem genutzt, um gleichzeitige Schallquellen voneinander zu unterscheiden und so die richtigen Auslöser für die Aktivierung der Sprachfunktion zu erkennen. Gleichzeitig wird Deep Learning genutzt, um Echo und Hintergrundgeräusche zu entfernen. Dadurch, dass beim HomePod viele Bedingungen erschwert sind und beispielsweise nicht bekannt ist, wann die Spracheingabe beginnt, anfängt und die akustische Umgebung nicht vorhersehbar ist, betont Apple die Schwierigkeiten, die sich trotz Einsatz verschiedenster ML-Methoden ergeben (Apple 2018b).

Chatbots

Allerdings bezeichnet Dale diese Sprachassistenten erst als die Spitze des Eisbergs und legt den Schwerpunkt auf textbasierte Chatbots, die in sehr spezifischen Bereichen arbeiten und bei bestimmten Aufgaben helfen können. Eine relativ unkomplizierte Form stellen dabei Apps dar, die den Nutzer durch bestimmte Suchkriterien über beispielsweise Ticket- oder Flugpreise informieren. Mithilfe der KI werden jedoch Chatbots immer intelligenter, so kann der Hipmunk-bot beispielsweise in einem Chatfenster über Reiseziele, -preise und –möglichkeiten informieren. Es gibt mittlerweile immer größer werdende Bot-Entwicklercommunitys, wie beispielsweise Pandorabots, auf der über 225.000 Entwickler aktiv sind und über 285.000 Chatbots erstellt wurden. Einen wichtigen Beitrag zu der steigenden Anzahl hat Facebook mit der Einführung von Chatbots in seinem Messenger geleistet (2016, S. 815). Im Jahr 2018 waren Angaben zufolge monatlich über 300.000 Chatbots auf Facebook aktiv (Kraus 2018). Auch die Instant Messaging-App Kik, die von ca. 40% der Teenager in den USA genutzt wird, führte Chatbots ein und gibt an, dass allein im Juni 2016 ca. 6.000 neue Bots für seinen Instant Messenger erschienen sind (Johnsons 2016). Insgesamt wurden 2016 rund 20.000 Chatbots für Kik veröffentlicht (Matney 2016). Genaueres zu den Plattformen und Möglichkeit zur Erstellung von Chatbots wird im dritten Kapitel beschrieben.

Auch auf Twitter werden Bots benutzt, um Tweets zu verfassen (Chu et al. 2010, S. 21). Microsoft veröffentlichte 2016 den Bot Tay via Twitter, Kik und Groupme, der mithilfe von ML-Algorithmen Konversationen im Internet analysierte und so in Echtzeit sein Verhalten und seine Tweets an das der analysierten Nutzer anpasste. Dazu wurde die Software mit Texten und Fragen von Nutzer zwischen 18 und 24 Jahren trainiert. Die Methode funktionierte zwar sehr gut, allerdings musste Microsoft nach weniger als 24 Stunden Tay wieder deaktivieren. Grund dafür war die Entwicklung eines frauenfeindlichen und rassistischen Verhaltens. Am Anfang postete Tay Beiträgt wie „(…)humans are super cool“, wohingegen er einige Stunden später rassistische Beiträge wie „Hilter was right I hate the jews.“ veröffentlichte (Vincent 2016). Abbildung 

Abbildung 9: Tweets von Microsofts Chatbot Tay
Quelle: Vincent (2016)

Was mithilfe von Chatbots und KI möglich ist zeigt Google. Das Unternehmen stellte im Februar 2018 auf der Google-I/O-Konferenz die Erweiterung Duplex für den Google Assistant vor. Duplex ist ein Sprachassistent, der nicht nur in der Lage ist, eine Stimme zu klonen, sondern auch mit Menschen am Telefon zu kommunizieren, ohne dass man merkt, dass es sich dabei um einen Software-Agenten handelt. Dies funktioniert mithilfe von KI und ML-Methoden (Wittpahl 2018, S. 9). In der folgenden Tabelle ist ein Telefonat zwischen Duplex (D) und einem Friseursalon (F) zu sehen, das auf der Konferenz eingespielt wurde. Dieses Telefonat wurde laut Google automatisch eingeleitet, nachdem die Nutzerin Google Duplex darum bat, einen Termin beim Friseur für sie zu vereinbaren (Grubb 2018).  

Tabelle 4: Konversation zwischen Google Duplex (D) und einem Friseursalonmitarbeiter (F)
Quelle: (Grubb 2018)

Um möglichst realistisch zu wirken, verwendet Duplex dabei eine natürliche Stimme am Telefon und fügt Unregelmäßigkeiten und Denkpausen ein. Dies vermittelt dem Gesprächspartner das Gefühl, als würde der Bot auf ihn eingehen (Kremp 2018).