Fotos: Foto Rechtnitz/EUHA

Am letzten Tag der Fachausstellung bot die EUHA erstmals ein neues Format an, den auf Zukunftsthemen der Hörtechnologie gerichteten Future Friday. Los ging’s um 9.30 Uhr mit fünfminütigen Fast Tracks, in denen die Referenten – ausnahmslos Vertreter der Industrie – ihre am Nachmittag stattfindenden Vorträge anteasern sollten. Die im Saal Sydney reichlich erschienenen Kongressbesucher hörten interessiert zu.

Den Anfang machte Simon Müller, audiologisch-wissenschaftlicher Leiter bei Widex. Er kündigte an, am Nachmittag über die zukunftsweisende Brennstoffzelle sprechen zu wollen. „Wie sieht dieses komplexe Energiekonzept aus und wie lässt es sich in einem kleinen Hörsystem realisieren?“, stellte Müller die Kernfragen in den Raum. Zudem werde er auf die Geschichte dieser Technologie eingehen – erstmals designt habe Sir William Groove die Brennstoffzelle im Jahr 1839. Angesichts der Zeit, die seitdem vergangen sei, könne man sich vorstellen, dass es einige Hürden bei der Entwicklung gebe. Diese zu überwinden sei eine gesellschaftliche Herausforderung, sagte Simon mit Blick auf die Automobilindustrie. Schließlich könne die Brennstoffzelle zukünftig eine Alternative für Benzin und Diesel darstellen.

Weiter ging es mit Hartmut Richter, Leiter Forschung und Entwicklung bei audifon. Sein Thema war die Teleaudiologie: „Wir machen uns Gedanken darüber, wie wir die Interaktion zwischen Hörakustikern und Kunden durch Dienstleistungsinnovationen verbessern können.“ Grundlage für den späteren Vortrag seien die Zwischenergebnisse des Forschungsprojektes Audio-PSS. Dafür seien bislang 600 Hörakustiker deutschlandweit danach befragt worden, ob sie sich vorstellen könnten, digitale Dienstleistungen in ihren Berufsalltag zu integrieren beziehungsweise wie ihre Kunden wohl auf digitale Angebote reagieren würden. Die teleaudiologische Plattform werde auf drei Ebenen entwickelt. Zum einen gehe es um die Eins-zu-eins-Beziehung des Hörakustikers zum Hörgeschädigten: Welche mobilen datengestützte Services sind möglich und können in der Zukunft entwickelt werden? Zudem stehe die Eins-zu-n-Beziehung im Fokus, wobei mit n die Population aller hörgeschädigten Menschen gemeint ist: Welche Möglichkeiten bestehen, die Daten dieser Community auszuwerten und dem Einzelnen zur Verfügung zu stellen, um die Hörgeräteinstellungen sowohl nach den eigenen Präferenzen als auch auf Basis der Erfahrung einer großen Population zu verbessern? Bleibt die N-zu-n-Beziehung: Lassen sich auf Basis der Erkenntnisse auch Services außerhalb der Audiologie anbieten? Antworten auf diese und weitere Fragen würden Interessierte am Nachmittag erhalten, stellte Richter in Aussicht.

Jörg Ellesser, Leiter der Audiologie Süd bei Oticon, befasste sich in seinem Kurzvortrag mit dem kognitiv gesteuerten Hörsystem. Wichtig in diesem Zusammenhang sei die Frage nach der Höranstrengung. Dafür nutze der dänische Hörgerätehersteller seit Jahren die Pupillometrie, ein anerkanntes und objektives Verfahren, das erfasst, wie angestrengt ein Mensch sei. Wichtig sei außerdem das Thema Big Data. Hier müsse nach Möglichkeiten gesucht werden, wie man Daten, die über eine Cloud, den Kunden oder den Hörakustiker generiert werden, in mathematische Algorithmen einfließen lassen könne, damit zum Beispiel einzelne Sprecher in einer hochkomplexen Umgebung besser zu lokalisieren seien. Ellesser riss zudem den Bereich Brain Hearing an, der sich auf die kognitiven Aspekte Lokalisationsfähigkeit, Trennung von Sprache und Lärm, Fokussierfähigkeit und Decodierung von Eingangsinformationen konzentriere. Darauf basierend entwickele Oticon sein kognitiv gesteuertes Hörsystem ‒ man nutze mehr die Kognition, um das Hörgerät über Biofield Feedback zu schärfen und zu verbessern. Zukünftig sollen Kundendaten nicht nur über die konventionelle Anpassung gewonnen werden, sondern zusätzlich mittels Elektroenzephalogramm (EEG). Über an der Otoplastik angebrachte Elektroden werden die Alphawellen gemessen, die die mentale Steuerung des Kunden widerspiegeln. Um Hörsysteme neu zu entwickeln, um aus der Vision ein klares Bild entstehen zu lassen, sei es notwendig, die Komplexität der auditiven und kognitiven Prozesse mit einzubeziehen, resümierte Ellesser. Hierzu brauche es Visionen, einen freien Geist und Mut, neue Wege zu gehen.

Die Transformation der Hörsysteme gehe rasant weiter, sagte Dave Fabry, Chief Innovation Officer beim US-amerikanischen Hörsystemhersteller Starkey, in seinem Kurzvortrag. Zuerst hatten sich die Systeme vom Einzweck- hin zum Multifunktionsgerät gewandelt durch die Anbindung ans Smartphone ihres Trägers. Eingebaute Sensoren und Signalverarbeitung mithilfe von maschinellem Lernen und künstlicher Intelligenz sorgten seit dem vergangenen Jahr dafür, dass die Systeme nun auch Zugang zu wichtigen Gesundheitsparametern der Träger eröffneten und als virtueller Assistent konkrete Lebenshilfe böten. Zwar müsse die Hörerfahrung ‒ in Bezug auf Störgeräuschunterdrückung, Direktionalität und Sprachhervorhebung ‒ weiter im Fokus stehen, kontinuierlich verbessert werden und besonders bei der Soundqualität des Musikstreamings mit Konkurrenz aus der Unterhaltungselektronik mithalten können. Zusätzlich seien Hörsysteme immer mehr auch wichtige Informationsquellen über den Gesundheitszustand der Patienten. „Kardiologen werden Ihnen bestätigen, dass das Ohr ein Barometer für den Zustand des Herz-Kreislauf-Systems ist“, sagte Fabry. „Hörverlust geht mit einer Vielzahl von Begleiterkrankungen einher, zum Beispiel Herz-Kreislauf-Erkrankungen, Diabetes und kognitiver Verfall.“ Messende und datenaufzeichnende Hörsysteme können ihre Träger dazu motovieren, die Systeme häufiger zu tragen, und dadurch eventuell den Rückgang der kognitiven Leistungsfähigkeit verlangsamen. Dies sei ein Thema, das besonders die Babyboomer interessiere. Angesichts der exponentiell wachsenden Nutzung von Sprachassistenten und der zunehmenden Abhängigkeit der Menschen von solchen Diensten bewege sich die Hörsystemtechnologie mehr und mehr „vom Keyboard über die Maus über den Finger über die Stimme“. Dies geschehe auf beiden Seiten, bei der Ein- und Ausgabe von Information in Verbindung mit dem Internet und dem Internet der Dinge.

Michael Luikenga, Leiter der Vertriebsaudiologie bei Unitron, stimmte sein Publikum in einer Art Stand-up-Comedy gelungen auf die Anamnese 4.0 ein. Aus Kundensicht seien Anamnese und Hörgeräteanpassung „so was von langweilig“, sagte Luigenka. Da müsse sich etwas ändern. Zudem seien die Kunden auf Kassengeräte fixiert, werden sie doch sowohl vom Hals-Nasen-Ohren(HNO)-Arzt als auch von den Nachbarn empfohlen. „Ich fange mal langsam an und nehme zum Einstieg ein Kassengerät“, sei eine typische Aussage bei Beratungsgesprächen. Häufig schieben die Kunden auch Geldnöte vor oder kommen mit dem klassischen BBT-Argument – „bin bald tot“. Manche seien schon nicht mehr in der Lage, ein „s“ zu sprechen, behaupteten aber steif und fest, dass sie noch gut hören und kein Hörgerät brauchen. „Wir müssen uns also eine neue Fragetechnik überlegen sowie die neuen Technologien in die Beratung einbeziehen“, forderte Luikenga. Früher sei es einfach gewesen, Technik zu verkaufen, man habe einfach gefragt: „Möchten Sie analog oder digital haben?“ Die meisten wollten digital, „auch wenn die Geräte rauschten wie Sau“. Heute könnten Hörakustiker ihren Kunden nicht alle Features erklären, aber die Demonstration einiger Features könnte die Anamnese sicherlich viel spannender machen. „Wir sollten einfach Mensch bleiben und die Freude an der Arbeit behalten“, riet Luikenga zum Abschluss.

Adam Schwarz, audiologischer Trainer bei Phonak, setzte die Zuhörer darüber in Kenntnis, „was bei Phonak passiert. Angekommen sind wir auf dem Kongress mit einer beeindruckenden Zahl ‒ bis heute haben wir eine Million Marvel-Hörgeräte angepasst“. 2020 stehe eine Nachversorgungswelle an und Dank des Marvel werden noch mehr Kunden ihre Hörakustiker umarmen, prophezeite Schwarz. Drei Themen hatte er mitgebracht und stellte zunächst die Frage nach noch mehr Hörleistung. Die Lösung dafür sieht er in dem neuen Tischmikrofon Selekt N. In Sachen Konnektivität und App-Funktionen wies Schwarz auf die MyPhonak-App hin, die alle bisherigen Phonak-Apps zusammenfasse. Ferner kündigte er für die Zukunft eine Weiterentwicklung der Marvel-Plattform in Richtung Power-Geräte an. Zum Schluss machte er den Zuhörern Appetit auf eine Marvel-Sounddemo in dem Vortrag am Nachmittag.

Laut Jürgen Brinkmann, Brandmanager bei bruckhoff, fand die Zukunft seines Unternehmens bereits auf dem EUHA-Kongress stand, und zwar in Gestalt des Knochenleitungssystems Junior BC WR. Die Technik sei einfach gehalten. „Bei der Knochenleitung kommt es vielmehr darauf, dass man die Leistung gut auf den Mastoiden bringt. Wir haben eher das Design im Blick“, erklärt Brinkmann. Das neue Gerät verschwinde komplett in einem Stirnband, so wie es sich Kinder und Eltern wünschten. Gegen Ende seines Fast Tracks wagte der Brandmanager dann einen Blick in eine noch fernere Zukunft: Sicherlich sei bald die Entwicklung eines Stirnbandes möglich, mit dem man nicht nur gut hören können, sondern mit dem sich auch biometrische Daten erfassen ließen. Ein solches Stirnband wäre dann ganz unsichtbar. „Schon heute gibt es Stoffe, in die man entsprechende Schaltungen einweben kann – mehr dazu heute Nachmittag“, versprach Brinkmann.

Sebastian Wiesner, Teamleiter Produkttraining bei Bernafon, packte viele Informationen in seinen Kurzvortrag und erläuterte die im Viron-Hörgerät enthaltene Technologie. Das Hörsystem wurde der Öffentlichkeit erstmals im März dieses Jahres vorgestellt. Wiesner begann mit den Worten: „db ist nicht gleich db“. Mit anderen Worten: Selbst wenn Hörverluste relativ ähnlich seien, erhalte man bei der Freifeldmessung unterschiedliche Ergebnisse. „Traditionelle Anpassverfahren schauen sich die quantitative Pegelinformation an – das heißt, aufgrund eines Hörverlustes werden Verstärkungen und Kompressionen berechnet“, so Wiesner. Aber die Individualität und das Verstehen in geräuschvoller Umgebung seien von viel mehr Faktoren abhängig als nur von der Hörschwelle, ergänzte er. Das auditive Wahrnehmungsvermögen unterscheide sich je nach Hörverlust oder Alter, fuhr der Produkttrainer fort. Je höher die Schädigungen der äußeren Haarsinneszellen seien, desto mehr werde die Frequenzauflösung sinken. Um dieses Phänomen besser korrigieren zu können, biete Bernafon in seinen Geräten zum Beispiel die ChannelFree-Signalverarbeitung: Damit könnten die Phoneme 20 000-mal pro Sekunde verstärkt werden. Bei hochgradigen Hörverlusten bringe die Hochauflösung allerdings nicht so viel. Hier komme dann die Speech Cue Priority, eine auf Enveloppen basierende Signalverarbeitung. Weiterhin nannte er Funktionen wie die Dynamic Amplification Control und das Dynamic Noise Management, die am Nachmittag detaillierter besprochen werden sollten.

Sascha Haag, Leiter Audiologie und Training bei Sivantos, tat es seinem Vorredner gleich und versuchte, die komplette Plattform Signia Xperience in fünf Minuten zu erklären. In der neuen Plattform habe Signia zum ersten Mal die Layertechnik umgesetzt, bei der die Eingangssignale in viele Ebenen aufgesplittet werden. Haag demonstrierte das anhand einer Sounddemo und spielte zunächst das ab, was im direktionalen Layer lief: „You give love a bad name“ – von Jon Bon Jovi. Im Hintergrund nahm man noch einen anderen Song wahr, der sich allerdings mit dem bloßen Ohr nicht herausfiltern ließ. Erst als Haag das abspielte, was auf dem Layer für die Hörumgebung passierte, war eindeutig „Heaven is a place on earth“ von Madonna zu hören. Dank eines neuen Algorithmus ließen sich nun diese beiden Signale gut verstehen und auseinanderhalten, erklärte der audiologische Leiter. „Der Algorithmus analysiert und packt nachher die Ebenen so im Ausgang zusammen, dass wir ein ideales Stör-Nutzschall-Verhältnis haben. Als Beweis dafür, dass diese neue Technik funktioniert, drückte Haag noch einmal die Play-Taste und nun waren sowohl Jon Bon Jovi als auch Madonna zu verstehen. Abgesehen von der Layertechnik sei auch der Bewegungssensor neu in der Xperience-Plattform. Diese beiden Funktionen fasst signia in der YourSound Technology zusammen, zu der unter anderem auch die Stimmverarbeitung Own Voice gehört. Weitere Details hob sich Haag für den Nachmittag auf.

Für die Firma Audio Service traten gleich zwei Personen auf die Bühne ‒ Patrick Breitenfeld, Leiter Produktmanagement, und Andreas Eckernkemper, Marketingleiter. Letzterer übernahm den Part Service und setzte den Fokus auf loyale Kundenbeziehungen, die auch in Zukunft ein Erfolgsgarant für Hörakustiker seien. Diese aufzubauen, dabei möchte der Hörgerätehersteller aus Nordrhein-Westfalen seine Kunden unterstützen ‒ und zwar mithilfe einer neuen Marketingplattform. „Damit können Sie ihre Werbemittel komplett individualisieren und wir werden als Herstellermarke de facto gar nicht mehr in Erscheinung stellen“, gab Eckernkemper den Zuhörern einen Vorgeschmack auf seinen ausführlichen Bericht, der ein paar Stunden später folgen sollte. Auch sein Kollege Patrick Breitenfeld wollte beim Thema Audio nicht zu viel verraten. Auf die Spitzentechnologien seines Unternehmens wolle er eingehen und darauf, wie sich diese zur Stärkung der Kundenloyalität und Kundenbindung einsetzen lassen.

Yaser Georgos, audiologischer Verkaufstrainer und Business Coach bei GN Hearing, bildete den Schluss der Eröffnungsveranstaltung zum Future Friday. Er präsentierte dem Publikum die ReSound-Highlights – allen voran das LiNX Quattro, das nun auch das Qualitätsmerkmal Made for Android trage. Zudem sei das LiNX Quattro nun auch als In-dem-Ohr(IdO)-Gerät erhältlich, das ebenfalls Wireless-Streaming biete.

 

Fazit

Hat der Future Friday gehalten, was er versprochen hat? Haben die Redner wirklich Zukunftsweisendes vorgestellt? Die Bilanz fällt eher mau aus, denn viele Unternehmen präsentierten ihre Neuheiten, die sie zum EUHA-Kongress mitgebracht hatten. Nur wenige wagten den Blick über den Tellerrand und stellten Technologien oder Produkte vor, die es so noch nicht gibt. Am Ende des Kongresses, als die Fachausstellung schon längst ihre Pforten geschlossen hatte, konnten die Hersteller also noch einmal die Werbetrommel für sich rühren. Ob das viele Besucher anlockte, erfahren Sie in der „Hörakustik“-Ausgabe 1/2020. Einigen reichten sicherlich die Fast Tracks aus, um sich ein Bild zu machen. Denn die Kunst, die Neugier der Zuhörer zu wecken, ist vielen nicht gelungen, weil in den Fast Tracks bereits vieles Relevante enthalten war.

Nadine Röser und Wiebke Scheurlen

Impressum | Datenschutz | Kontakt | Abonnieren | Mediadaten

© 2018 hoerakustik.net