NOVA Blog: 11. Oktober 2017
Voice Control – 5 Dinge, die es für eine gute User Experience zu beachten gilt.
Kategorie: Usability, UX Grundlagen
Sprachsteuerung verspricht eine bequeme Interaktion mit Systemen. Fehlende Sichtbarkeit des Systemstatus und kontextbezogenes Frageverhalten bringen jedoch Usability-Probleme mit sich, die es zu berücksichtigen gilt. Wir stellen 5 zentrale Dinge vor, die es beim Voice Control zu beachten gilt.
Warum überhaupt Voice Control?
Warum sollten Sie bei Ihrem Produkt auf Sprachsteuerung setzen, obwohl doch die Leute an herkömmliche Bedienweisen gewöhnt sind? Die klassische Antwort darauf lautet: Sprache ist eine natürliche Interaktionsform und schafft deswegen auch ein natürlicheres Nutzungserlebnis.
Ob die Interaktion mit einer künstlichen Stimme nun natürlich ist oder nicht, darüber lässt sich streiten. In jedem Fall ist es sehr bequem, dem Smartphone die SMS zu diktieren oder Suchmaschinenanfragen zu starten, ohne sie eintippen zu müssen. Schließlich werden auch immer mehr Sprachnachrichten versandt, als dass mühselig Text im Smartphone-Messenger eingegeben wird. Bei einigen Anwendungen muss das System nicht mal mehr in die Hand genommen werden.
Voice Control wird auch dann wichtig, wenn sich Systeme immer mehr in unsere Umgebung integrieren wie beispielsweise bei Smart Home und Smart Mobility Anwendungen. Im Auto bietet es beispielsweise eine alternative Möglichkeit, Entertainment- und Assistenzsysteme zu bedienen, ohne eine Hand vom Lenkrad oder den Blick von der Straße nehmen zu müssen.
Sprachsteuerung ist also bequem – Bequem dann, WENN sie funktioniert. Denn Voice-Control bringt eine Reihe an Usability-Problemen mit sich, die es in der Planung einer Anwendung zu bedenken gilt.
5 Usability-Probleme beim Voice Control
Das Erkennen von Wörtern funktioniert durch Big Data Ansätze und Machine Learning mittlerweile recht gut. Probleme machen jedoch ungeschickte Aktivierungswörter, ein weniger oder gar nicht sichtbarer Systemstatus sowie das Frageverhalten, seine Kontexte und abweichende Antworten von Erwartung des Nutzers, was zu Usability-Problemen führen kann.
1. Eingängige und alltagstaugliche Aktivierungswörter finden.
Meist haben Sprachassistenten ein recht geschicktes und eingängiges Aktivierungswort, in dem der Name des Systems enthalten ist. Googles Sprachassistenz wird beispielsweise über „Ok, Google“ aktiviert. Die Einfachheit und Verknüpfung mit dem Systemnamen beugt ein Vergessen des Aktivierungswortes vor. Solange sich nicht über Google unterhalten wird, ist damit auch eine versehentliche Aktivierung ausgeschlossen. Amazons Alexa lässt sich dagegen rein mit „Alexa“ aktivieren. Dies kann bereits eine versehentliche Aktivierung zur Folge haben, wenn man sich schlicht über das System unterhält. Die zusätzliche Verwendung des „Ok“ zur Aktivierung bei Google macht dagegen eine ungewollte Aktivierung unwahrscheinlich.
Um eine ähnlich clevere Kombination wie Google zu finden, sollte die Aktivierungswörter-Kombination immer auf Alltagstauglichkeit überprüft werden. So kann erfasst werden, ob sie leicht merkbar ist, aber nicht im natürlichen Gespräch fällt. Andererseits kann es sein, dass das Aktivierungswort durch eine laute Umgebung gar nicht gehört wird, was zum Problem werden kann, wenn der Systemstatus nicht erkennbar ist.
2. Systemstatus klar machen.
Stellen wir uns Nora vor, die auf ihrem neuen Smartphone einen Sprachassistenzen installiert hat. Unterwegs auf der Straße möchte Sie ihren Mann Norbert anrufen. Über ein Codewort versucht sie den Sprachassistenten zu aktiveren und befiehlt „Norbert anrufen“. Wegen der lauten Umgebung hat das System sie nicht verstanden und wurde nicht aktiviert. Sie wiederholt das Aktivierungswort und den Befehl. Diesmal wird das System zwar aktiviert, versteht sie aber nicht richtig und möchte nun statt Norbert Mama Renate anrufen. Nora fällt der Computerstimme schnell und laut Wort ins Wort: „Nein, ich möchte NORBERT anrufen!“ Weil sie die Computerstimme nicht ausreden lassen hat, konnte das System das „Nein“ nicht verarbeiten: Es war noch nicht bereit. Dafür hat es aber das „anrufen“ verstanden, was direkt fiel, nachdem die Computerstimme ausgeredet hatte. Das Problem hier: Der Systemstatus war Nora nicht ersichtlich. Der Anruf wird also getätigt. Mama Renate freut sich jedenfalls, dass die Tochter mal wieder anruft.
Akustisches und visuelles Feedback beispielsweise durch ein Signal (bei Googles Sprachassistenten ertönt ein „Bling“) oder eine LED, die anzeigt, wann das System bereit ist, Sprachbefehle zu empfangen (Alexa verfügt beispielsweise über einen Leuchtring), können helfen, den Systemstatus von sprachgesteuerten Systemen zu verdeutlichen. Welches Feedback für welches System geeignet ist, kann dabei in Expert Reviews und Usability Testings herausgefunden werden.
3. Befehls- und Frageverhalten der Nutzer verstehen.
Zudem muss herausgefunden werden, auf welche Weise Nutzer Befehle und Fragen an das System formulieren. Hätte Nora die Stimme ausreden lassen, hätte sie immer noch versuchen können, den Anruf mit „Halt“, „Stopp“, „Nicht anrufen“ oder „Abbrechen“ stoppen zu können. Dies sollte das System auf Grundlage von qualitativen und quantitativen Forschungsergebnissen berücksichtigen.
4. Pragmatische Mehrdeutigkeit und Kontexte berücksichtigen.
Probleme der pragmatischen Mehrdeutigkeit müssen beim Interaktionsverhalten auch noch mitbedacht werden. Stellen Sie sich vor, Sie werden von einem Arbeitskollegen auf der Arbeit gefragt, wo das Kino ist. Wie würden Sie antworten?
Nun werden Sie nach Feierabend in der Innenstadt gefragt, wo das Kino ist. Antworten Sie diesmal anders? Die Antwort auf die Frage nach dem Kino ist höchst kontextabhängig. Menschen neigen beispielsweise dazu auf die Frage morgens mit dem Standort des Kinos („Am Bahnhof“) zu antworten, während sie abends oder in räumlicher Nähe eine Wegbeschreibung geben („Gehen Sie da vorne rechts, dann die Straße entlang, die dritte Straße rechts und dann ist das Kino auf der linken Seite“). Dies bei der Konzeption einer sprachgesteuerten Anwendung zu bedenken, erfordert ebenfalls ein innovatives Usability Testing, dass die Kontexte der Nutzung miteinbeziehen muss.
5. Nutzererwartungen und Reaktionsverhalten bei Enttäuschung identifizieren.
Noras Geschichte hat gezeigt: Missverständnisse können bei der Sprachsteuerung schnell nervenaufreibend werden und dazu führen, dass die Sprachsteuerung mehr Zeit in Anspruch nimmt, als manuelle (Text-)Eingabe und somit Vorteile und User Experience zunichte gemacht werden. Daher ist die Usability bei der Sprachsteuerung besonders wichtig. Bekommt der Nutzer nicht die gewünschte Antwort vom System führt das dazu, dass er aufhört das System zu nutzen, seine Frage lauter wiederholt oder wie in Noras Geschichte dem System ins Wort fällt, was erneute Schwierigkeiten bereiten kann. Hierbei ist es wichtig, wie das System reagiert, wenn es eine Anfrage nicht verstanden hat oder bedienen kann. Kann ein System für Smartphone eine Frage nicht ausführen, kann der Fragetext schlicht gegoogelt werden. Was macht aber ein System ohne Display wie Alexa? Und welche Anfragen muss ein System nach aktuellen Nutzererwartungen in jedem Fall bedienen können? Welche sind spezifisch? Für alle diese Fragen braucht es Nutzerforschung.
Auf einen Blick
Nachfolgend haben wir Ihnen die wichtigsten Fragen, auf die Rücksicht genommen werden sollte, noch einmal zusammengefasst:
Wir lassen Sie nicht allein!
Gerne testen wir ihre Anwendung oder arbeiten Sie konzeptionell mit Ihnen aus, indem wir das Frageverhalten in Befragungen testen und Interaktionssituationen in Wizard of Oz-Tests simulieren. Dabei wird die Funktion der Anwendung imitiert ohne dass sie bereits programmiert werden muss. Sprechen Sie uns gerne für ein individuelles Angebot an.
Hier haben Sie die Möglichkeit den Blog-Eintrag zu bewerten.
Autorenprofil
-
UX Research Manager
E-Mail schreiben
Spezialgebiet: Mobile UX, Tools, Quantitative UX Methoden
Letzte Beiträge
- 29. Januar 2024GastbeitrageHealth UX: Die Schlüsselrolle der Nutzerzentrierung
- 16. April 2020Methoden & ToolsUX messbar machen: Joy-of-Use-Tracking
- 20. Februar 2020Methoden & ToolsCard Sorting & Tree Testing – Mentale Modelle von Nutzern messen
- 6. Mai 2019EventsUX als Religion: Eindrücke von der uxinsight!