Oticon vs. Widex: Künstliche Intelligenz in Hörgeräten

Oticon vs. Widex: Künstliche Intelligenz in Hörgeräten

Die Anwendung von KI im Vergleich

Hörgeräte sind längst nicht mehr nur Medizinprodukte – Akkus machen die Nutzung komfortabler, Bluetoothverbindungen hieven das Hörsystem auf den Status eines Lifestyle-Produkts. Auch in der Audiologie hat sich einiges getan. Ein Stichwort, das in Zuge dessen oft fällt: Künstliche Intelligenz. Aktuell spielen vor allem die Hersteller Oticon und Widex mit diesem Begriff. „KI“ klingt überwältigend, beinahe science-fiction-mäßig – also: Buzzword oder richtungsweisend? Diesem Thema gehen wir in einer kleinen Artikelserie nach.

Künstliche Intelligenz ist in verschiedenen Bereichen nützlich. Aktuell spielt sie bei Hörgeräten für eine noch effektivere und treffsichere Situationserkennung eine wesentliche Rolle. Bei den beiden am Markt befindlichen Systemen von Oticon und Widex half künstliche Intelligenz bereits vor der Entwicklung des Chips als Trainingsverfahren.

Nur mithilfe des vom Gehirn inspirierten Deep Neuronal Network (DNN) sind Oticon More Hörsysteme in der Lage, den Klang der Realität 500 Mal pro Sekunde mit den 12 Millionen voreingespielten Klangszenen abzugleichen.
© Oticon

Statisches Trainingsverfahren mit KI als Unterstützung

Oticon wirbt für die aktuelle Oticon Polaris-Plattform damit, 12 Millionen Klangwelten erkennen zu können. Diese 12 Millionen Klangszenen manuell zu analysieren und für den Chip so aufzubereiten, dass er beispielsweise zwischen Sprache und Störlärm unterscheiden kann, wäre eine kaum bewältigbare Aufgabe. Standardisierte Sprachsignale und Parameter wurden festgelegt, anhand welcher die KI lernen konnte, die richtigen Einstellungen zu treffen, um mehr Kontrast zwischen den Signalen zu erzeugen – Mit vereinzelten Stichproben durchlief der Polaris-Chip die rund 12 Millionen Klangszenen automatisch; So lange, bis ein ideales Sprachergebnis für jede Hörsituation feststand. Künstliche Intelligenz wurde hier also für das Trainingsverfahren verwendet, um den Prozess erheblich zu beschleunigen.

Das von Oticon genutzte, vom menschlichen Gehirn inspirierte Deep Neuronal Network (DNN) ist essenziell, um die vorherrschende Hörsituation mit der riesigen Menge an trainierten Klangszenen in kürzester Zeit abgleichen zu können, nämlich 500-mal pro Sekunde (Stichwort MoreSound Intelligence). Präferenzparameter der Hörgeräte-Träger werden hier nicht weiter berücksichtigt – schließlich ist der Fundus der antrainierten Szenen enorm groß.

Dynamisches Training, oder: Lernen mit KI im Alltag.

Hilfe zur Selbsthilfe: Der Widex Moment-Nutzer hat die Möglichkeit, sich in schwierigen Hörsituationen die Klangeinstellungen mithilfe von Künstlicher Intelligenz anpassen zu lassen.
© Widex

Damit auch Widex Moment-Hörgeräte in jeder Situation die richtigen Einstellungen finden, wurden diese im Vorfeld ähnlich trainiert. Mit der Einführung von SoundSense Learn Ende 2018 verfolgte Widex jedoch einen anderen Ansatz. Die durch den Nutzer durchgeführten A/B-Vergleiche von Einstellungen für schwierige Hörsituationen erweiterten das Widex-Klangportfolio um Nutzerpräferenzen aus dem echten Leben.

Mit der Zeit und durch vermehrte Nutzung konnte nicht nur die Anzahl der nötigen A/B-Vergleiche von bis zu 20 auf bis zu 15 gesenkt werden. Auf den weltweit gewonnenen Hörbedürfnissen basiert auch die neue Funktion MySound: Die KI lernt fortlaufend von den nutzerseitig erstellten Programmen, die in die Cloud übertragen wurden, woraufhin MySound einen A/B Vergleich mit passenden Höreinstellungen vorschlägt. Erfahrungsgemäß sind mit einer dieser beiden Einstellungsvorschläge bereits der Nutzer 79 % zufrieden so zufrieden, dass keine weiteren Vergleiche nötig sind.

Eine weitere Besonderheit des KI-Ansatzes von Widex ist der Abgleich mit den individuellen Bedürfnissen in der Situation. Alternativ zur Unterhaltung (Sprachverstehen) können weitere Präferenzen wie Klang genießen, Konzentrieren, oder Musikhören für den Nutzer ausschlaggebend sein.

Künstliche Intelligenz – Eine Gefahr für die Hörakustik-Branche?

Auch wenn diese Technologien heute noch am Anfang stehen, scheint eine Frage berechtigt zu sein: Könnte in Zukunft künstliche Intelligenz nicht die ganze Anpassung übernehmen?

Wir denken nein! Der Hörakustiker reagiert darauf wie der Kunde sich vor, während und nach der Anpassung verhält, geht auf Themen ein, die im Gespräch und bei Terminen stattfinden und kann sich nach den Bedürfnissen des Gegenübers richten, die über die rein messbare audiologische Einschätzung hinausgeht. Künstliche Intelligenz kann eine objektive Ebene bewerten, also beispielsweise, welcher Klang besser ist. Aber es fehlt die Emotionalität.

„KI wird auch in Zukunft nicht das leisten können, was HörakustikerInnen leisten: Mit Intuition auf emotionale Signale der Kunden während der Anpassung reagieren.“
Simon Müller, Leiter Audiologie Widex

Der Einstieg von künstlicher Intelligenz in der audiologischen Weiterentwicklung von Hörgeräten ist von enormem Nutzen. Man kann die Realität viel granularer und zusätzlich – wie bei Widex – bedürfnisorientiert gestalten. Der Unterschied liegt aktuell darin, welche Bedürfnisse in den Fokus gestellt werden und wann die KI eingesetzt wird: Fortwährend oder als abgeschlossenes Training.

Im nächsten Teil: MySound und SoundSense Learn - Die KI hinter Widex



Tags: