Chatbots sollen Arbeitsabläufe verschlanken, Mitarbeiter unterstützen und Wartezeiten verringern. Aber was tut ein Chatbot, wenn er die Intention der Frage nicht mit hunderprozentiger Sicherheit erkennen kann?
Etliche Anbieter setzen auf ein Chatbot Redaktionssystem, über das unklare Anfragen manuell überprüft und zugeordnet werden. Das soll für mehr inhaltliche Kontrolle und bessere Antworten sorgen. Die Freigabeprozesse dieser Redaktionssysteme sind in der Regel starr. Das bringt viele Probleme mit sich. Lesen Sie hier, worin die Probleme der Redaktionssysteme bestehen und wie ein Vertrauensvorschuss den Chatbot immer besser macht.
KI-Chatbots mit Freigabesystem: Das Dilemma
Ein Chatbot mit künstlicher Intelligenz ist wie ein elektronischer Helfer in der Bearbeitung von Anfragen. Je länger er im Einsatz ist, desto besser erkennt er die Absicht einer Anfrage – den sogenannten Intent – und gibt die richtige Antwort. Allerdings wird die Antwort auch mit einem ausgiebigen Training nicht immer richtig sein.
Viele Chatbot-Anbieter misstrauen ihren Chatbots daher grundsätzlich und setzen ein komplexes Redaktionssystem zwischen den Chatbot und nicht eindeutigen Nutzereingaben. Ein zu rigides Chatbot Redaktionssystem führt dazu, dass der Chatbot unklare Anfragen nicht automatisch beantworten darf. Diese Bots geben lediglich den Hinweis, dass sie die Anfrage nicht verstanden haben. Erst wenn ein Redakteur die Anfrage manuell geprüft und freigegeben hat, kann der Chatbot diese zukünftig beantworten.
Durch das Chatbot Redaktionssystem wird also vermieden, dass der Chatbot falsche Antworten gibt. Diese Vorgehensweise ist aber auch problematisch: Wie ein Mensch kann auch ein Chatbot aus Fehlern lernen. Wenn zum Beispiel der Nutzer ihm bei einer falschen Antwort ein negatives Feedback gibt, lernt die KI, dass ein falscher Intent erkannt wurde und kann das entsprechend korrigieren. Durch einen Freigabeprozess geht der Effekt der KI indes verloren – und damit auch die Verbesserung der KI. Der Chatbot bleibt so immer auf das Freigabesystem angewiesen und wird das Potenzial der in ihm wohnenden KI-Komponente niemals völlig ausschöpfen können. Die KI wird in ihrer Lernfähigkeit durch das Freigabesystem limitiert.
Ein strenges Chatbot Redaktionssystem kostet Nutzern und Mitarbeitern Zeit
Neben der Limitierung der KI bringt ein Redaktionssystem mit komplexer Freigabe zwei weitere Probleme:
- Durch die notwendige Freigabe von unklaren Anfragen kommt es zu negativen Nutzererfahrungen („Der Chatbot weiß ja gar nichts“) und zu Wartezeiten. Im schlimmsten Fall ist der zuständige Mitarbeiter im Urlaub. Statt über den Chatbot eine schnelle Antwort zu erhalten, muss er sich doch wieder an einen zuständigen Mitarbeiter wenden.
- Revisionsschleifen kosten allen Beteiligten Zeit – Zeit, die der Einsatz eines Chatbots gerade ersparen sollte.
</– /divi:list –>
Cobuddy – der Chatbot mit Vertrauensvorschuss
Fehler sind elementar, damit der Chatbot bessere Antworten gibt. Der Cobuddy Chatbot erhält daher einen Vertrauensvorschuss. Cobuddy analysiert den Intent und ordnet ihn zunächst selbstständig zu. Ist die Antwort falsch, gibt es zwei Möglichkeiten:
- Der Nutzer selbst meldet zurück, dass die Antwort falsch ist.
- Ein Mitarbeiter findet im Dashboard die falsche Zuordnung, korrigiert sie und sagt dem Chatbot so, dass er den Intent falsch zugeordnet hat.
Dadurch erhält der Chatbot ein Feedback auf seine Entscheidung und speichert dieses für seine spätere Entscheidungsfindung. Der Chatbot wird mit zunehmender Datenbasis immer besser darin, Ähnlichkeiten zwischen verschiedenen Anfragen zu erkennen und den Intent entsprechend immer treffender herauszufinden.
Wie Assistant Chatbot Cobuddy entscheidet, welche Antwort er gibt
Bei Chatbots mit starrem Freigabesystem wird bei jeder unklaren Anfrage zunächst ein Redakteur die Frage analysieren und manuell zu einem Intent zuordnen. Das hilft dem aktuellen Nutzer nichts und führt zu der enttäuschenden Erfahrung, dass er nicht verstanden und ihm nicht geholfen wird.
Sehen wir uns nun an, wie Assistant Chatbots mit unklaren Anfragen umgehen: Der Assistant Chatbot berechnet beispielweise zu jeder Benutzereingabe, welcher Intent am wahrscheinlichsten ist. So ermittelt Cobuddy immer mehrere Werte. Es kann frei definiert werden, ab welcher Wahrscheinlichkeit ein Intent als erkannt gilt, zum Beispiel ab 70 Prozent.
Ein Beispiel: Tarifauskunft per Assistant Chatbot ohne Freigabesystem
Ein lokaler Versorger setzt den Assistant Chatbot im Kundenservice auf der Homepage ein. Er ist so eingestellt, dass ab einer 70-prozentigen Wahrscheinlichkeit ein Intent als erkannt gilt.
Fragt ein Kunde im Chat nach dem Preis des Tarifs, schätzt der Chatbot die Wahrscheinlichkeiten beispielsweise so ein:
- Intent: Kunde will eine Auskunft zum Gastarif – 77 Prozent
- Intent: Kunde will Auskunft zum Stromtarif – 23 Prozent
Der Intent „Kunde will eine Auskunft zum Gastarif“ gilt als erkannt und er bekommt automatisch eine entsprechende Antwort.
Werden bei Anfragen Wahrscheinlichkeiten von unter 70 Prozent erkannt, würde Cobuddy eine Frage stellen:
- „Wünschen Sie eine Auskunft über den Gastarif?“ bzw.
- „Wünschen Sie Auskunft über a) Gastarif oder b) Stromtarif?“
In beiden Fällen kann der Nutzer sein Anliegen spezifizieren und erhält so die Möglichkeit auf eine passende Antwort. Gleichzeitig lernt der Chatbot durch das Nutzerfeedback. Zukünftig würde er die gleiche Anfrage mit einer sehr hohen Wahrscheinlichkeit dem Intent zuordnen, der dem Feedback des Nutzers entspricht.
Es kommt vor, dass die automatische Zuordnung von unklaren Anfragen (wohlgemerkt ist das die Stärke eines KI gestützten Chatbots) für Ängste und Vorbehalte sorgt. Manche Content Verantwortliche fürchten, dass Nutzer mutwillig falsche Antworten geben und der Chatbot das Falsche lernen könnte.
Verlieren Sie durch das automatische Erkennen von Intents die Kontrolle über Inhalte?
Diese Bedenken können jedoch schnell entkräftet werden. Zum einen fallen irreführende Nutzereingaben im Chatbot Dashboard über die Filterfunktion „Nutzerfeedback“ sehr schnell auf und können unmittelbar korrigiert werden. Dies bedeutet, dass das „falsch Gelernte“ dann auch wirklich entfernt ist und nicht erst mühsam abtrainiert werden muss. Zum andern ist es ratsam, den Fokus auf einen verbesserten Kundenservice zu legen.
Im Sinne einer hohen Kundenzufriedenheit ist es zielführender, mehr Kunden durch Antwortvorschläge bzw. qualifiziertes Nachfragen unmittelbar mit einer passenden Antwort zu versorgen – also ein positives Erlebnis mit der Chatbot-Lösung zu erzeugen – als den einen unzufriedenen Spaßvogel zu fürchten.
Der Kunde erhält in unserem Beispiel also sofort eine Rückmeldung. Hätte er stattdessen einen Chatbot mit einem manuellen Freigabesystem gefragt, hätte er keine Antwort erhalten.
Kommandozentrale für die Chatbot-Steuerung: Das Cobuddy-Dashboard
Mitarbeiter, die die Arbeit des Chatbots überwachen wollen, nutzen dazu das Dashboard. Hier können Sie alle wichtigen Aspekte des Chatbot-Einsatzes mit wenigen Blicken erkennen:
- Wurden bestimmte Intents nicht erkannt (gemäß frei bestimmbarem Schwellenwert)?
- In welchen Bereichen besteht Trainingsbedarf?
- Was interessiert die Nutzer und wie zufrieden sind sie?
Fazit: Starre Redaktionssysteme bremsen schlaue Chatbots
Ein Redaktionssystem mit einem einfachen bzw. multiplen Freigabeverfahren erscheint auf den ersten Blick als die sicherere Form, einen Chatbot zu betreiben. Schließlich vermeidet eine Kontrolle der zugeordneten Intents, dass der Kunde jemals eine falsche Antwort erhält. Bei genauerem Hinsehen entpuppt sich ein restriktives Freigabesystem aber kontraproduktiv. KI-Chatbots, die keine Fehler machen dürfen, können auch nicht dazulernen und zu klugen virtuellen Assistenten für die echten Mitarbeiter werden.
Dass es auch anders geht, zeigen Assistant Chatbots wie Cobuddy. Durch die Arbeit mit Wahrscheinlichkeiten und einem Schwellenwert macht der Chatbot seine eigenen Erfahrungen, lernt mehr durch das Feedback seiner Nutzer und ihre Fragen und wird zu einem klugen virtuellen Assistenten, der den Mitarbeitern eine echte Hilfe ist.
Dabei liegt bei Cobuddy die Kontrolle über Inhalte selbstverständlich beim einsetzenden Unternehmen. Es liegt auf der Hand, dass es für alle Beteiligten mit deutlich weniger Aufwand verbunden ist, eine falsche automatische Zuordnung zu korrigieren, als sämtliche neuen Nutzeranfragen manuell in einem starren Redaktionssystem überprüfen und freigeben zu müssen.