Chatbots haben das Potential, kommunikative Aufgaben im Unternehmen zu übernehmen und Prozesse zu verbessern. Aber der Einsatz von Chatbots wirft auch Fragen nach Fairness, Transparenz und Diskriminierungsfreiheit auf. Es lauern Stolperfallen im Einsatz dieser Dialogsysteme, die besonders Chatbots mit KI (Künstlicher Intelligenz) betreffen. Das Herausfordernde für Ihren Einsatz: Die Stärke der KI Chatbots ist zugleich ihr wunder Punkt: Es ist ihre Lernfähigkeit.
Mit der Frage, wie Sie KI Chatbots vor Missbrauch und unethischem Einsatz schützen können, befassen wir uns heute ausführlich. Wir geben Ihnen entsprechende Tipps für den ethischen Einsatz von Chatbots mit auf den Weg.
Sind Chatbots mit künstlicher Intelligenz ethisch korrekt?
Pauschal betrachtet ist eine KI in sich nicht ethisch korrekt oder inkorrekt. Sie kann es aufgrund ihrer Funktionsweise gar nicht sein. Das hört sich irritierend, sogar erschreckend an, ist aber gar einfach erklärt: Jede künstliche Intelligenz ist auf Daten angewiesen, um ihre jeweilige Aufgabe zu bewältigen – zum Beispiel einen Gegenstand in einem Bild erkennen oder als Chatbot mit einem Nutzer kommunizieren. Ob ein Chatbot ethisch korrekt ist, hängt also von den Daten ab, mit denen er gefüttert wird.
Daten sind die Basis für eine erfolgreiche Kommunikation der KI mit den Nutzern. Die Menge und die Beschaffenheit der Daten entscheiden über die Funktionsfähigkeit eines KI Chatbots. Daten entscheiden auch, wie ein KI Chatbot lernt und was er lernt.
Bevor ein KI Chatbot live geht, wird er mit Daten trainiert. Ein Chatbot Conversation Designer gestaltet die Dialoge und bestimmt, auf welche Anfragen der Chatbot reagiert und wie er diese beantwortet.
Es liegt in der Verantwortung der Unternehmen, Chatbots zu ethischen Dialogsystemen zu „erziehen“, indem sie sie mit entsprechenden Datensätzen füttern und die Dialoge so gestalten, dass sie den Compliance Richtlinien und Werten des Unternehmens entsprechen.
Hat die Lernfähigkeit Auswirkungen auf die Ethik eines KI Chatbots?
Ein KI Chatbot ist lernfähig. Was bedeutet das für die Zeit nach dem Going-Live des Dialogsystems? Kann das System nachträglich durch Nutzereingaben so manipuliert werden, dass es den ethisch-moralischen Prinzipien des Unternehmens nicht mehr entspricht?
Lernfähigkeit im Zusammenhang mit KI Chatbots bedeutet, dass er Absichten von Nutzern immer besser erkennt und Anfragen treffender beantwortet. Dies kann er, weil die KI Komponente die Ähnlichkeiten in den Datensätzen der Nutzer erkennt und Wahrscheinlichkeiten berechnet.
Nutzer haben durch ihre Anfragen Einfluss darauf, wie gut ein KI Chatbot die Absicht einer Anfrage erkennen kann. Sie haben edoch keinen Einfluss darauf, was der Chatbot antwortet, da das die Aufgabe des Chatbot Conversation Designers ist. Nutzer können außerdem nicht manipulieren, welche Absichten der Chatbot erkennt, denn das geben ebenfalls Entwickler und Chatbot Conversation Designer vor.
Nur wenn Unternehmen die Verantwortung für die Inhalte und die Dialogführung eines Chatbots aus der Hand geben, ist die Möglichkeit der Korruption gegeben, wie zwei prominente Beispiele aus der Vergangenheit zeigen.
Zwei warnende Beispiele aus der Vergangenheit
Ein Blick in die Vergangenheit verdeutlicht, wie KI-Technologien absichtlich und unabsichtlich korrumpiert werden können.
Da wäre zum einen die Vision AI von Google, die in die Kritik geriet, weil die Bilderkennung rassistische Vorurteile bediente. Die Ursache lag darin, dass man öffentlich verfügbares Bildmaterial, das gesellschaftliche Vorurteile spiegelte, ungeprüft verwendet hatte
Chatbot Tay, den Microsoft 2016 über Twitter veröffentlichte, sollte durch die Kommunikation mit Twitter-Nutzern lernen. Das „nette“ Experiment entwickelte sich zu einem Desaster, weil Twitter-Nutzer Tay gezielt mit sexistischen, rassistischen und antisemitischen Inhalten fütterten. Dieser gab dann das wieder, was er durch die Nutzer gelernt hatte. Er wurde sofort abgeschaltet und das Experiment beendet.
Kleiner Exkurs über regelbasierte Chatbots
Regelbasierte Chatbots spielen aktuell in der öffentlichen Diskussion eine untergeordnete Rolle. Dennoch lohnt sich einen Blick auf sie. Denn bei den regelbasierten Chatbots ist die Gefahr einer Korruption ethischer Werte durch Nutzer per se ausgeschlossen.
Regelbasierte Chatbots antizipieren die Anfragen der Nutzer. Sie bilden die wahrscheinlichsten Fälle per Keyword-Erkennung ab, beziehungsweise geben den Informationsweg sogar ganz streng per Button vor (wie zum Beispiel die regelbasierten Chatbots der Cobuddy Familie).
Für den Einstieg in die Chatbot-Kommunikation in einem klar umrissenen Anwendungsfall ist der regelbasierte Chatbot-Ansatz ein durchaus attraktives Modell. Im Hinblick auf Umsetzung der eigenen ethischen Werte bedarf es einer sorgfältigen Planung und Strukturierung. Die Kontrolle ist von vornherein beim verantwortlichen Unternehmen.
Transparente Chatbots: Mensch oder Maschine?
Transparenz ist ein wichtiger Aspekt für den ethischen Einsatz von Chatbots. Unternehmen müssen sich der Frage stellen, ob sie Nutzer aufklären, oder im Unklaren darüber lassen wollen, dass sie mit einer Maschine kommunizieren.
Hierbei ist es wichtig zu wissen, dass Kunden in erster Linie eine schnelle Lösung für ihr Anliegen wollen, wenn sie einen Chatbot nutzen. Dass ein Chatbot „menschlicher“ ist, wird als weniger wichtig eingestuft. Bei der Weiterentwicklung sollte eine möglichst realistische Nachahmung menschlicher Kommunikation daher keinen Vorrang vor einer verbesserten Funktionalität bekommen, weil genau sie das Ziel am Touchpoint -eine erhöhte Kundenzufriedenheit – erfüllt.
Kann es trotzdem sinnvoll sein, Nutzer durch einen möglichst menschlichen Chatbot – gezielt oder unbeabsichtigt – im Unklaren zu lassen? Diese Fragen beantworten wir mit einem klaren „Nein“.
Intransparenz beim Einsatz von Chatbots ist nicht nur nicht sinnvoll, sie ist sogar schädlich für die Kundenbeziehung. Selbst wenn der Nutzer nicht sofort erkennt, dass er mit einer Maschine kommuniziert, so ist doch die Gefahr groß, dass er sich dessen im Nachhinein bewusst wird. Er fühlt sich getäuscht und verliert das Vertrauen in das Unternehmen und dies im worst Case sogar grundsätzlich.
Intelligente Chatbots wie Cobuddy imitieren eine menschliche Interaktion. Über Benennung und Kontext ist sehr einfach transparent zu machen, dass Nutzer mit einem Computerprogramm chatten. Hierdurch kann der Gefahr eines grundsätzlichen Vertrauensverlustes wirksam vorgebeugt werden.
Ein Beispiel für einen intransparenten Einsatz von KI
Wieder hilft uns ein Blick in die Vergangenheit, um diesen Aspekt zu verdeutlichen. Mit dem Voicebot Duplex versuchte Google 2018 zu demonstrieren, wie fortgeschritten die dahinterstehende Technologie war. Er sollte menschliche Interaktion so genau wie möglich simulieren – unter anderem durch Sprechpausen, und Einschüben. Dieser Realismus führte dazu, dass einige Kunden in Tests nicht erkannt haben, dass es sich um einen Voicebot handelte.
Experten äußerten sich kritisch über die Intransparenz von Google. De facto sei das Ziel des Tests von Google gewesen, die Menschen über die Identität des Chatbots zu täuschen. Darin liegt eine prinzipielle Gefahr für das Verhältnis von Unternehmen zu ihren Kunden. Mit wem wir kommunizieren ändert, was und wie wir kommunizieren. Wenn die Grenzen zwischen KI und Mensch verschwimmen, ist Misstrauen auf Kundenseite mittelfristig vorprogrammiert.
Ethische Chatbots: Unternehmen in der Verantwortung
Moderne Kunden erwarten von ihren Unternehmen, dass sie Werte wie Transparenz, Integrität und Fairness praktisch leben. Ein Datenskandal oder unethische Chatbots haben damit das Potenzial, die Beziehung zum Kunden substanziell zu gefährden. Durch die Nutzung von Chatbots fällt Unternehmen eine große Verantwortung zu – rechtlich und moralisch.
Bisher gibt es für Unternehmen (noch) keine Werkzeuge, um ihre Chatbots auf die Einhaltung ethischer Prinzipien überprüfen zu lassen. Unternehmen tun daher gut daran, die ethischen und moralischen Implikationen bereits in der Konzeption ihrer Chatbot-Lösung miteinzubeziehen. Hierzu zählen
- eine genaue Auswahl der Basisdaten
- eine sorgfältige Gestaltung der Chatbot-Dialoge
- Überprüfung der Antworten des Chatbots
Nicht unerwähnt wollen wir an dieser Stelle lassen, dass es für Software-Entwickler verschiedene Selbstverpflichtungen für die ethische Entwicklung von KI-Technologien gibt. Dies kann allerdings kein Ruhekissen für uns anwendende Unternehmen sein, denn ob und wie sie diese Selbstverpflichtungen umsetzen, bleibt allein ihnen überlassen.
6 Fragen für den ethischen Chatbot-Einsatz
Auch eine nach ethischen Gesichtspunkten entwickelte Chatbot-Technologie kann problematisch implementiert werden. Mit diesen 8 Fragen können Verantwortliche selbstständig überprüfen, ob der Chatbot-Einsatz den ethischen Kriterien des Unternehmens entspricht:
- Transparenz: Ist dem Nutzer zu jedem Zeitpunkt klar, dass er mit einer KI interagiert und nicht mit einem Menschen?
- Fairness: Agiert der Chatbot so, wie der Nutzer es erwarten würde?
- Diversität und Inklusion: Welche Nutzergruppen schließt der Chatbot qua Design aus (z. B. durch Sprache, Barrieren etc.)?
- Privatsphäre: Wird der Datenschutz sichergestellt?
- Autorität: Welcher Mensch im Unternehmen ist für die Kontrolle des Chatbots verantwortlich?
- Verlässlichkeit: Wie wird die Sicherheit gegenüber Cyberangriffen und die korrekte Funktion der Algorithmen garantiert?
Fazit: So gelingt der ethische Einsatz von Chatbots
Vorurteile, Täuschung und Privatsphäre – Chatbots berühren sensible Sphären und ethische Fragen. Rechtlich ist die Nutzung bisher kaum reglementiert. Unternehmen müssen daher selbst eine Kultur der digitalen Verantwortung schaffen, um Herausforderungen vorzubeugen.
- Unternehmenswerte verbindlich festlegen: Die verbindliche Festlegung ethischer Standards für den Chatbot-Einsatz ist der erste Schritt zu einem verantwortungsvollen Umgang mit KI-Technologien. Mit einem solchen verbindlichen Orientierungsrahmen können Abteilungen im Unternehmen selbstständig entscheiden, ob ein Chatbot-Einsatz zum Unternehmen passt und ethisch angebracht ist. Einen sinnvollen Orientierungspunkt bieten Einschätzungen anerkannter Experten wie vom Fraunhofer Institut für intelligente Informationssysteme.
- Technologie auditieren: Durch die systematische Überprüfung des Chatbots auf die Einhaltung verbindlicher ethischer Standards mit einem Experten erkennen Unternehmen frühzeitig mögliche Probleme im Einsatz und bauen Vertrauen gegenüber Kunden und Stakeholdern auf.
- Kultur etablieren: Ein verbindliches Regelwerk bleibt ein Papiertiger, solange die dort erfassten Werte nicht Teil der gelebten Kultur im Unternehmen sind. Eine vertikal integrierte Kultur der Verantwortung hilft Unternehmen, möglichen ethischen Problemen auch beim Einsatz von Chatbots vorzubeugen.
Diese Maßnahmen legen den Grundstein für eine langfristige Integration von Chatbots und KI-Technologie, die Beziehungen zu Kunden und Mitarbeitern verbessert, statt sie zu gefährden.