Foto: Gudrun Porath

Sensoren, Big Data und Künstliche Intelligenz waren auch bei Sivantos die bestimmenden Themen. „Das ganze Thema künstliche Intelligenz (KI) ist keine Nische in der Techworld mehr. Artificial Intelligence (AI) ist real“, zitiert Frank Naumann, Senior Director Global Innovation & Intellectual Property bei Sivantos einen Google-Strategen. Unternehmen müssten darauf achten, dass sie sich diese Technologien aneignen, um im Wettbewerb weiter bestehen zu können. „Das ist ein guter Leitsatz, den wir uns zu Herzen genommen haben“. Digitale Assistenten wie Siri oder Alexa und das Internet of Things seien wichtige Entwicklungsbereiche. Das Zuhause der Kunden werde immer mehr vernetzt. „Wir stellen uns die Frage, welche Rolle das Hörgerät in dieser vernetzten Welt spielen wird“, so Naumann. Vom volldigitalen Hörgerät werde die Entwicklung wenigstens in Teilbereichen zum neuromorphen Processing (Anm. d. Red.: der Funktionsweise des Gehirnes nachempfundenen Verarbeitung von Daten) führen, bei dem die Steuerung der Hörgeräte über Deep Neural Networks, Machine Learning und künstlicher Intelligenz erfolge.

Komplett neuromorphe Hörgeräte wird es laut Naumanns Einschätzung wohl nicht geben. „Wenn wir uns aktuelle Hörgeräte ansehen, haben diese immer noch einen analogen und einen digitalen Teil. Wir denken, dass wir in ein paar Jahren Hörgeräte haben werden, die noch einen dritten Teil haben, das wird der neuromorphe Teil sein.“ Neuronales Processing und Machine Learning als die nächste Revolution nach der Erfindung digitaler Hörgeräte könnte demnach in drei Bereichen zur Anwendung kommen:

  • in den Hörgeräten selbst, um Echtzeitanwendungen zu steuern und die Individualisierung noch deutlich zu verbessern

  • offline in der Entwicklung, um Algorithmen zu trainieren und neue Applikationen zu entwickeln, die später in einer Anpasssoftware oder einem Hörgerät zur Anwendung kommen

  • in der Peripherie, etwa in einem Smartphone oder einer Cloud, die deutlich mehr Prozessorleistung zur Verfügung stellen können als ein Hörgerät und dementsprechend ein größeres Anwendungsspektrum besitzen. Der Nachteil dieser Anwendung: Sie setzt eine Verbindung zwischen Smartphone oder Cloud und Hörgerät voraus, die zu langsam für eine Echtzeitanwendung ist oder, wenn die Verbindung ausfällt, gar nicht mehr zur Verfügung steht.

Um die Funktionsweise eines neuronalen Netzwerkes zu erklären, nutzte Naumann ein Schichtenmodell. Die eingegebenen Variablen teilen sich demnach in Hidden Layer und Output Layer auf. Die Gefahr von neuronalen Netzwerken sei, dass man nicht beeinflussen und kontrollieren könne, was in den versteckten Schichten passiere. „Netzwerke, die nicht gut designt sind, können mit der Zeit komische Sachen machen“, so Naumann. Daher müsse man das Ergebnis des Netzwerkes immer auf Plausibilität hin überprüfen und Kontrollmechanismen einbauen. Es gebe viele Möglichkeiten, an Daten zu kommen, wichtig sei aber vor allem ihre Qualität.

Während Themen wie Cognitive Computing, virtuelle Assistenten, Machine Learning oder Deep Neural Networks bereits weit fortgeschritten seien, fehle es noch an der passenden Hardware. „Wir können nicht einfach in einen Laden gehen und nach einem Chip fragen, auf dem man ein paar neuronale Netzwerke laufen lassen kann. Die Chips müssen sehr klein sein, stromsparend und auch von der Struktur her zu unseren Algorithmen passen.“ Als Hersteller werde man dieses Thema mit den Forschungs- und Entwicklungspartnern sicherlich vorantreiben müssen. Das tut Sivantos übrigens nicht nur in Erlangen, wo die Plattformentwicklung angesiedelt ist, sondern auch in Singapur. In Asien sieht der Konzern nicht nur ein großes Marktpotenzial, hier hat er auch die Fertigung und seine Zulieferketten angesiedelt.     Gudrun Porath

 

Impressum | Datenschutz | Kontakt | Abonnieren | Mediadaten

© 2018 hoerakustik.net