Interfaces: Künstliche Intelligenz schafft neue Schnittstellen zu Kundinnen und Kunden
KI-gestützte visuelle und auditive Interfaces schaffen ein neues Level an personalisierten Kaufempfehlungen – situativ und näher an den Kundinnen und Kunden als je zuvor.
Lesedauer: 3 Minuten
Apps und Wearables stellen sich vielfach als neuer und direkter Weg zu Kundinnen und Kunden heraus. Auch bei KI-gestützten Systemen ist die Gestaltung der Schnittstelle zum Menschen zentral. Ein Beispiel ist die Gesundheits-App Ada: Die KI-gestützte Plattform wurde 2011 von ÄrztInnen, WissenschaftlerInnen und SoftwareentwicklerInnen gegründet und wird heute schon in 130 Ländern von mehr als 10 Millionen Menschen genutzt und in der klinischen Entscheidungsfindung eingesetzt. Das Prinzip ist denkbar einfach: Ada stellt per Chat einfache, relevante Fragen und vergleicht die Antworten mit Tausenden von ähnlichen Fällen, um die wahrscheinlichsten Ursachen für Symptome zu ermitteln und die beste Behandlung zu identifizieren. Im Hintergrund steht eine hoch entwickelte medizinische Wissensbasis, die Milliarden von Symptomkombinationen und Tausende Erkrankungen abdeckt – und sich selbst ständig verbessert (vgl. ada.com). Im Vordergrund aber ist die Schnittstelle von Ada zum Menschen auf ein simples Chat-Fenster reduziert. Genau das macht sie so erfolgreich: Denn jede KI, egal wie schlau, ist nutzlos ohne eine „menschenfreundliche“ Schnittstelle.
Sprachassistenten schaffen neue Möglichkeiten
Als eine vielversprechende Schnittstelle wird das Sprach-Interface gehandelt. 2020 gab es bereits mehr als 4 Milliarden digitale Sprachassistenten, bis 2024 soll sich diese Zahl sogar verdoppeln (vgl. Statista 2020) – damit gäbe es dann weltweit mehr digitale Sprachassistenten als Menschen. Die weitaus meisten NutzerInnen (93 Prozent) greifen dabei auf ihre Smartphones zurück, und mehr als die Hälfte der 62,6 Millionen Smartphone-BesitzerInnen in Deutschland nutzt die Sprachassistenten täglich (vgl. Bitkom 2021b; vgl. Statista 2021). Smart Speakers wie Amazon Echo oder Google Home werden von rund zwei Drittel aller Sprachassistenten-Nutzer verwendet, fast ebenso viele steuern ihre Haushaltsgeräte per Sprachbefehl (vgl. Bitkom 2021b). Dass die Scheu vor sprachgesteuerter Bedienung sinkt, zeigt auch die Wertsteigerung des Marktes: Für 2026 wird ein weltweiter Umsatz von rund 11,2 Milliarden Dollar erwartet – 2021 waren es noch 2,8 Milliarden, das entspricht einer jährlichen Wachstumsrate von rund 32 Prozent (vgl. Markets and Markets 2021). Die stetig anwesenden Sprachassistenten machen KundInnen potenziell permanent für Unternehmen erreichbar und, im wahrsten Sinne des Wortes: ansprechbar.
Ein wichtiges Anwendungsfeld der Zukunft ist damit der Voice Commerce: Bereits 20 Prozent der Kundinnen und Kunden haben schon einmal Waren über Voice Command bestellt (vgl. Pavlakouidis 2022). Die große Mehrheit nutzt Sprachassistenten, um nach Informationen zu suchen. Dadurch gewinnt Suchmaschinenoptimierung (SEO) an Wichtigkeit und Brisanz. Denn bei der Sprachsuche ist im Vergleich zum Webbrowser nicht mehr die erste Seite der Suchergebnisse entscheidend, sondern das allererste Ergebnis. Schon heute ist die Schnittstelle zwischen Unternehmen und Kunde häufig ein Bot, künftig wird jedoch vermehrt eine weitere KI dazwischengeschaltet, sodass zunehmend Bots mit Bots kommunizieren werden. Strategien der Webseitenoptimierung, die speziell auf Sprachanwendungen angepasst sind, werden daher in Zukunft immer wichtiger sein, wenn es darum geht, die Reichweite von Marken zu maximieren. SEO wird zur BEO, zur „Bot Engine Optimization“.
Neue Interfaces, neue Gesprächspartner
Das stumpfe Ausführen von Befehlen wie „Alexa, Licht auf 80 Prozent!“ weicht schrittweise einer komplexeren und intuitiven Kommunikation. Auch die KI Project Debater von IBM zeigt, dass die Kommunikation zwischen Mensch und Maschine immer reibungsloser verläuft: Zwar verlor die KI in einem Debattierwettbewerb gegen ihren menschlichen Herausforderer, doch konnte sie mit erstaunlich profunden Argumenten überzeugen.
Neue Sprach-KIs sind sogar empfänglich für sprachliche Nuancierungen im Ton, für Betonungen, Pausen und Stimmfarben – also genau jene Merkmale, die ein Gespräch lebendig machen und den Sprechenden ein Gefühl für ihr Gegenüber geben. Angestrebt wird ein Erlebnis auf emotionaler Ebene, was nur gelingen kann, wenn der oder die Sprechende auch glaubhaft ist. Deshalb arbeiten EntwicklerInnen und WissenschaftlerInnen daran, die Sprache von Sprachassistenten so authentisch wie möglich zu gestalten.
Auch an „empathischer“ KI wird bereits gearbeitet. So simuliert die App HuggingFace einen engen Vertrauten, mit dem man plaudern, Selfies tauschen und über die gescheiterte Beziehung oder den bevorstehenden Jobwechsel diskutieren kann (siehe huggingface.co). Noch weiter geht Replika, eine App, bei der ein KI-gesteuerter Chatbot während täglicher Chat-Sessions möglichst viel über den User in Erfahrung bringt, um aus diesen Daten eine Art virtuellen KI-Zwilling zu schaffen (siehe replika.ai). Mit dessen Hilfe kann dann über das eigene Leben sinniert werden. Freunden oder Familie wird sogar ermöglicht, mit dem virtuellen Alias eines Verstorbenen auch nach dessen Tod weiterzuchatten (vgl. Fuchs 2017).
Ob KI tatsächlich einen menschlichen Begleiter ersetzen kann, bleibt jedoch mehr als fraglich. Denn Menschen haben ein feines Gespür dafür, ob ihnen ein Wesen mit Intentionen und Emotionen gegenübersitzt. Schon kleine Kinder merken sofort, dass mit Robotern etwas nicht stimmt – egal wie niedlich sie designt sind.