Dieser Artikel behandelt das Thema der akustischen Interaktionsgestaltung mittels sogenannter Funktionsklänge (UI/UX-Sounds), deren Gestaltungsansätze sowie die Relevanz von konzeptionellem Sound-Design im Zeitalter der Digitalisierung.

Funktionsklänge

Tagtäglich sind wir umgeben von einer Vielzahl sogenannter “funktionaler Klänge”. Ob in Automobilen, Aufzügen, Haushaltsgeräten oder aber auch in Sprachassistenten oder Smart Home Applikationen sowie Social-Media-Anwendungen wie Facebook, LinkedIn oder WhatsApp. Die dort eingesetzten Klänge begleiten uns stetig durch den Alltag und üben einen nicht zu unterschätzenden Einfluss auf die Hörgewohnheiten des Menschen aus. Allerdings vermitteln gewisse akustische Signale zum Teil keine eindeutige Information, irritieren den Anwender oder verärgern diesen sogar. Werden Klänge jedoch bewusst gestaltet, können diese akustischen Informationen nicht nur die Benutzerfreundlichkeit und den “Joy of Use” erhöhen, sondern auch einen qualitativ wahrnehmbaren Mehrwert für das eigentliche Produkt und/oder für die jeweilige Marke generieren.

Grundlegend werden Funktionsklänge (auch: “UI-Sounds” (einzelne Sounds) oder “UX-Sounds” (ganzheitliches Soundkonzept bzw. -erlebnis, bei dem auch die Stille als Designelement eingesetzt werden kann), abhängig vom jeweiligen Anwendungsbereich, an bestimmten Stellen der “Customer Journey” platziert, um dem Benutzer ein akustisches Feedback in Form einer Bestätigung, eines Hinweises oder einer Warnung zu übermitteln.

Ton an oder aus?

In physischen Produkten können die implementierten Sounds von den Anwendern in der Regel nicht mit einem Klick deaktiviert werden. Bei digitalen Produkten hingegen gehört dies meist zu den Standardoptionen. Nicht selten erfolgt das Abschalten der Sounds bereits relativ frühzeitig. Ist dies der Fall, so ist davon auszugehen, dass die Klänge an sich störend wirken und/oder diese ihre eigentliche Zweckbestimmung verfehlen, die Bedienung zu unterstützen und zu vereinfachen.

Hierbei sollte man sich als Entwickler die Frage stellen, ob es nicht sinnvoller wäre, an ausgewählten Stellen ganz bewusst, im Extremfall gänzlich, auf den Einsatz von Sound zu verzichten. Allerdings sind in bestimmten Alltagssituationen akustische Signale wünschenswert oder werden sogar erwartet. In der Regel sind dies akustische Hinweise, mit deren Hilfe sich der Anwender vergewissert bzw. absichert. So zum Beispiel der Warnton, der darauf hinweist, dass die Karte vom Bankautomaten entnommen werden sollte oder der Bestätigungston, der signalisiert, dass das Sicherheitssystem des Hauses aktiviert wurde. Insbesondere in stressbedingten Situationen kann die Achtsamkeit des Anwenders eingeschränkt sein und sich der Fokus sehr schnell verlagern. Konzeptionell-gestaltete akustische Feedbacks können dazu beitragen, den Anwender zu entlasten und im Idealfall auch die Kundenbindung zum Produkt oder zur Marke zu stärken.

Gestaltungsprinzipien

Die Gestaltung von Funktionsklängen erfordert eine konzeptionelle Herangehensweise. Zu beachten ist, dass sowohl technische Restriktionen als auch gewisse Designprinzipien einen signifikanten Einfluss auf die Entwicklung ausüben.

In bestimmten Branchen wie beispielsweise der Medizintechnik (Patientenmonitoring) oder der Automobilindustrie (Verkehrssicherheit und Warnsysteme) greifen gesetzliche Vorschriften, die den Gestaltungsprozess bereits im Vorfeld durch normativ bedingte Restriktionen deutlich einschränken können. Es stellt sich sehr schnell heraus, was man überhaupt tun darf. Sind die normativen Aspekte geklärt, erfolgt die Prüfung der technischen Spezifikationen. Hierbei liegt der Fokus auf den jeweiligen Komponenten. Bei physischen Produkten sind dies Klangkörper und Lautsprecher, bei digitalen Produkten (beispielsweise Apps, AR/VR-Anwendungen oder Telefonschleifen) Dateiformate. In diesem Schritt zeigt sich, was man tun kann. Einige Klangfarben oder -muster (beispielsweise der “Alarm” als warnender, dissonanter Ton/Intervall) sind bereits von den Anwendern gelernt. In bestimmten Fällen ist daher eine gewisse Erwartungshaltung vorhanden bei der es gilt, die Hörgewohnheiten der Anwender zu berücksichtigen. Hieraus resultieren die Information über das, was man tun sollte. Eine Ausnahme hingegen stellen innovative Anwendungsbereiche dar, deren akustische Grundprinzipien völlig neu definiert werden können.

Werden die akustischen Parameter der eingesetzten Soundelemente zudem von den jeweiligen Markenwerten abgeleitet und folglich markenkonform gestaltet, so können diese auch positiv zur Markenbildung beitragen.

Audio-Design-Ansätze im Kontext der Multimodalität

Bei der Entwicklung von UI/UX-Sounds ist es ebenfalls von großer Bedeutung, bereits im Vorfeld das multimodale Zusammenspiel zu beachten und im Gestaltungsprozess entsprechend zu berücksichtigen. Ein klassisches Beispiel für eine multimodale Mensch-Maschine-Interaktion wäre die bereits im Text angesprochene Situation am Geldautomaten aber auch die Bedienung einer Mikrowelle oder eines Parkautomaten (vgl. hierzu auch Multimodal Interaction Design Die multimodale Wechselwirkung und ihre Bedeutung für den Gestaltungsprozess von Rainer Hirt). Die Wirkung dieses Zusammenspiels wird bereits bei einem grundlegenden Ansatz wie beispielsweise der Entwicklung eines Klanges auf Basis einer visuellen Animation deutlich.

In einigen Bereichen ist ein multimodales Design sogar zwingend notwendig. So beispielsweise im Bereich der Medizintechnik, wo sich der Chirurg im Rahmen eines instrumentellen Eingriffes in einer “Hands-busy-eyes-busy-Situation” (visuelle und haptische Auslastung) befindet. Akustische Signale helfen hierbei den Anwender zu entlasten, indem dieser durch den Einsatz von Sounds den Patienten besser im Blick (oder besser gesagt im Ohr) hat. Dadurch werden Arbeitsabläufe erleichtert und das Stresslevel reduziert. Sowohl in der Medizintechnik als auch im Bereich Automotive oder Luftfahrt sind akustische Signale, die der Sicherheit dienen, von großer Wichtigkeit. Gleichermaßen sind jedoch interdisziplinärer Austausch und Zusammenarbeit unabdingbar.

Akustische Interaktionsgestaltung im Zeitalter der Digitalisierung

Im Zuge der Digitalisierung entstehen in immer kürzeren Intervallen Produkte und Geschäftsfelder, die dazu führen, Designansätze sowie Methoden von Sound-Konzepten neu zu denken. So wird es beispielsweise von Bedeutung sein, durch eine zurückhaltende, subtile Klanggestaltung das Nutzererlebnis zu verbessern, gleichermaßen jedoch die Qualitätswahrnehmung der jeweiligen Anwendungen mittels einer prägnanten akustischen Deutlichkeit zu erhöhen. Man könnte hier auch von einem Dilemma im Sinne von “Reizüberflutung vs. Durchdringung” sprechen.

Insbesondere bei digitalen Produkten entsteht derzeit eine Vielzahl potenzieller Anwendungsbereiche für (markenkonforme) UI/UX-Sounds. So auch im Rahmen von sogenannten Mikrointeraktionen, deren Abläufe meist auf einzelnen respektive sehr kurzen Interaktionen basieren (einen guten Überblick inkl. Soundbeispielen hierzu liefert die Seite microinteractions.com). Auch bei den Mikrointeraktionen von Facebook (beispielsweise das Klicken des “Facebook-Like-Buttons” oder der Hinweis des “Messenger” bei einem Nachrichteneingang) unterstützt der Sound das multimodale Benutzererlebnis. Hier zeichnet sich ein bereits jetzt zu erkennender Trend in Form von “Microsounds” ab. Diese kurzen, kaum wahrnehmbaren Sounds sind so gestaltet, dass sie eher auf geräuschartigen Sounds als auf klassischen Klangmuster basieren. Durch die fehlende Tonalität werden sich häufig wiederholende Sounds (beispielsweise Klicks in der Menüführung oder Nachrichteneingänge) von unserem Gehirn leichter verarbeitet als immer wiederkehrende Melodien. Neben Facebook setzen auch Unternehmen wie Google oder Slack diese Art der Klanggestaltung bereits seit einiger Zeit ein. Derartig unaufdringliche Sounds sind auch im Bereich von E-Commerce-Lösungen oder bei textbasierten Interfaces wie beispielsweise Chatbots denkbar.

Beispiele:

UX-Sound-Design – Klangbeispiel Alarm

UX-Sound-Design – Klangbeispiel Warn

UX-Sound-Design – Klangbeispiel Info

Neben den klassischen Apps stellen vor allem Augmented- und Virtual-Reality-Anwendungen einen sinnvollen Einsatzbereich von Funktionsklängen dar. Neben der Vertonung der virtuellen Umgebung durch Klangflächen als Hintergrund-Atmosphäre (beispielsweise Verkaufs- oder Fertigungs-Situationen), Produktklänge (beispielsweise Fahrzeug-, Werkzeug- oder Geräte-Sounds) oder UI-Sounds (beispielsweise Menüführungs- und Orientierungs-Sounds) lässt sich durch den Einsatz von Sound auch die räumliche Wahrnehmung beeinflussen. So ist es unter Anwendung entsprechender audio-visueller Effekte möglich, bestimmte Bereiche der Umgebung für den Anwender akustisch darzustellen, die er aufgrund seines eingeschränkten Sichtfeldes nicht erkennen könnte.

Auch Sprachassistenten bieten große Potenziale für eine Erweiterung des Soundspektrums von Unternehmen. So ließen sich im Rahmen der Skills nicht nur UI-Sounds, sondern auch ein akustisches Logo implementieren, welches beim Abrufen einer Webseite über die jeweilige App hörbar ist (beispielsweise bei der Tagesschau-App der Tagesschau-Gong). Darüber hinaus wäre es auch denkbar, die sogenannten “Voice Prompts” mit einer “Brand Voice” zu versehen.

Die Art der Ein- und Ausgabe von Informationen wird sich verändern

Seit nunmehr ein paar Jahren zeigt sich, wie die physischen und digitalen Produktwelten (beispielsweise im Smart Home Bereich) zunehmend miteinander verschmelzen und sich nicht mehr völlig getrennt voneinander betrachtet lassen. Durch die Vernetzung der Dinge (Internet of Things) werden nicht nur die Gewohnheiten der Nutzer stark beeinflusst, sondern künftig auch die Art des Informationsaustausches signifikant verändert.

Mit dem aus der Vernetzung resultierenden, zunehmenden Informationsaustausch erhöht sich auch der Komplexitätsgrad der Mensch-Maschine-Interaktion. Dies erfordert benutzerfreundliche Bedien-Interfaces, bei denen UI-Sounds hinsichtlich der Funktionen wie “bestätigen”, “hinweisen” oder “warnen” eine wesentliche Rolle spielen werden. Allerdings könnten visuelle Interfaces vermehrt durch Voice-Interfaces ergänzt werden, sodass in Zukunft ein nicht zu unterschätzender Anteil der Interaktionen über die Stimme erfolgt. Sollte der Informationsaustausch künftig ausschließlich über eine Sprachein- und Ausgabe stattfinden, stellt sich bei kritischer Betrachtung nunmehr die Frage, welche Relevanz den Funktionsklängen im Rahmen der Mensch-Maschine-Interaktion in Zukunft überhaupt noch zugesprochen werden kann.

KI als potenzieller Game Changer

Bereits zu Beginn der 1960er Jahre verfasste der russische Forscher R. Kh. Zaripov die erste Schrift zum Thema der Musikkomposition auf Basis eines Algorithmus mit Hilfe des Computers “Ural-1”. Ungefähr fünf Jahre später stellte Raymond Kurzweil erstmals ein Klavierstück vor, welches von einem Computer komponiert wurde. Kurzweil, der bereits seit vielen Jahren als einer der renommierten Forscher auf dem Gebiet der künstlichen Intelligenz gilt, prophezeit einen bevorstehenden Umbruch in der Soundbranche. So verdeutlicht er beispielsweise, dass “(…) die Musik als Kommunikationsmittel der menschlichen Emotion (…) durch den Sound von Musiker zum Publikum nach wie vor Bestand haben wird, jedoch die Konzepte und der Prozess von Musik sich nochmals verändern werden”.

Ein derartiger Veränderungsprozess könnte nicht nur die Musik im klassischen Sinne, sondern eben auch die Klanggestaltung betreffen. Man könnte bereits jetzt die vage Vermutung anstellen, dass speziell für den Audio-Bereich entwickelte KI-Technologien, auf Basis von produktspezifischen sowie markenkonformen Datensätzen, die benötigten Funktionsklänge in einer hohen Qualität völlig automatisiert generieren können. Tritt dieser Fall ein, so stellt sich die Frage welche Rolle der Sound Designer hierbei spielen wird.

Es kann nicht kategorisch ausgeschlossen werden, dass durch den Einsatz und der Weiterentwicklung KI-basierter Audio-Tools auch der Beruf des Sound Designers einer starken Veränderung unterliegen wird. Nach dem jetzigen Stand ist allerdings davon auszugehen, dass die kreative Leistung eines Menschen in gestalterischer und konzeptioneller Form auch weiterhin Bestand haben wird oder besser gesagt, gerade diese Kreativleistung den Sound Designer an sich auszeichnen wird und wertvoll werden lässt. Wohingegen sich aus Sicht des “Klangschaffenden” bezüglich der Sprachassistenten die Frage stellt, welchen Einfluss man künftig auf der Gestaltungsebene ausüben kann, wird es bei KI-Technologien vielmehr darum gehen, wie diese als Tool sinnvoll genutzt werden können. Denkbar ist daher, dass der Mensch in der Funktion des konzeptionell-denkenden Schaffenden die vorhandenen KI-Technologien als Vehikel für die eigene Kreativität nutzt.

Die Zukunft der Sound Designs

Sounds werden als Hinweis-, Warn- und Alarmierungsreize vermutlich auch in Zukunft von Relevanz sein. Es wird sich jedoch voraussichtlich die Art und Weise ändern, wie Sounds entwickelt und letztendlich in der Produkt- und Markenkommunikation eingesetzt werden.

Laut einer Prognose des britischen Marktforschungs- und Beratungsunternehmen “Canalys” wird die Zahl der eingesetzten Smart Speaker bis Ende 2018 die 100-Millionen-Marke durchbrechen, wobei mehr als 50% des Anteils auf den Amazon Echo fallen werden. Die Relevanz dieses Produktes als auch die Sprachinteraktion an sich wird beispielsweise auch im Gestaltungsbereich deutlich: Adobe verkündete vor kurzem, dass es mit Adobe XD nun möglich sei, im Rahmen des UX-Designs ein Prototyping mittels des Einsatzes der Stimme durchzuführen (für das neue Frontend-Framework von Alexa werden von Adobe bereits vorgefertigte UI-Kits bereitgestellt). Es wäre daher nicht verwunderlich, wenn künftig auch Tech-Konzerne wie Adobe (in Hinblick auf Gestaltungsprozesse von User Experiences) oder Amazon (in Hinblick auf die auditive Wahrnehmung von marktführenden Produkten) einen Einfluss darauf haben könnten, wie die Stimme im Rahmen der Produkt- und der Markenkommunikation klingt und eingesetzt wird. Die derzeitigen Entwicklungen deuten jedenfalls darauf hin, dass die Sprache als eingesetztes Soundelement im Rahmen der User Experience in den kommenden Jahren noch deutlich an Bedeutung gewinnen wird, sodass sich Sound Designer darauf einstellen sollten, auch in diesem Geschäftsfeld entsprechende Kompetenzen aufzubauen.

Unabhängig von den angesprochenen technologischen Entwicklungen (KI und Sprachassistenten) wird sich in unserer produkt- sowie reizüberfluteten Welt auch zunehmend die Frage stellen, in welchem Umfang und in welcher Intensität in Zukunft die User Experience durch UI/UX-Sounds oder dem Einsatz von Sprache bereichert werden sollte, ohne den nicht-unterdrückbaren Sinnesreiz des Hörens zu strapazieren. Letztendlich geht es bei der akustischen Interaktionsgestaltung darum einen Nutzen zu stiften und den Anwendern in Form einer einfachen und guten Gestaltung einen klaren Mehrwert zu bieten. Auch das Schaffen einer bewusst wahrnehmbaren Stille kann als Designelement eingesetzt werden — allerdings nur im Kontext einer konzeptionell-gestalteten Klangwelt.

Rainer Hirt & Aaron Brunsch

Rainer Hirt & Aaron Brunsch

Rainer Hirt ist studierter Kommunikationsdesigner und gründete nach seinem Studium audity, ein Sound-Design-Unternehmen, welches auf Brand- und UX-Sound spezialisiert ist. Er ist aktiv in Lehre, Forschung sowie Mitglied internationaler Fachgremien zu Brand- und UX-Sound.

Aaron Brunsch ist seit 2017 als Brand und UX Sound Consultant für audity tätig. Als Betriebswirt mit musikalischem Hintergrund widmet er sich seit seinem wirtschaftswissenschaftlichen Studium den Zusammenhängen zwischen Klang und Marke.
Rainer Hirt & Aaron Brunsch

Letzte Artikel von Rainer Hirt & Aaron Brunsch (Alle anzeigen)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Die von Ihnen hier erhobenen Daten werden von der Host Europe GmbH zur Veröffentlichung Ihres Beitrags in diesem Blog verarbeitet. Weitere Informationen entnehmen Sie bitte folgendem Link: www.hosteurope.de/AGB/Datenschutzerklaerung/