Oticon presenta su red neuronal profunda, todo un universo auditivo
Cuando una persona está en un entorno complejo, reconoce inmediatamente los sonidos, sabe en cuáles centrarse y cuáles ignorar, pero ¿cómo se consigue que un audífono haga lo mismo? Sería muy sencillo si solo se quisiera hablar con la persona que está enfrente sin importar el resto. En este caso, bastaría con que el audífono simplemente se cerrara a lo demás. Sin embargo, esto podría confundir al usuario porque sería consciente de que suceden cosas a su alrededor, pero le costaría oírlas. Por lo tanto, resulta una tarea complicada para un audífono porque los sonidos se mueven constantemente.
Después de años de investigación, en Oticon hemos descubierto que la mejor forma de solucionar este problema es entrenar al audífono con millones de muestras sonoras de la vida real. De esta forma, puede aprender a reconocer cada tipo de sonido y su importancia relativa.
Para hacer esto, utilizamos algo llamado red neuronal profunda, que es un método que se basa en la forma en la que funciona el cerebro, que no aprende con reglas simples, sino a través de la repetición de experiencias.
Una red neuronal profunda consiste en diferentes capas con miles de conexiones. Cada capa proporciona información en una dirección, desde la entrada a la salida. La red neuronal no ve el entorno sonoro como lo vemos nosotros, solo recibe una mezcla complicada de sonidos, como se aprecia en la imagen. En el caso de esta escena sonora, la primera capa extrae elementos sonoros simples y patrones de entrada. Después, la siguiente capa construye esos elementos juntos para reconocer y dar sentido a lo que sucede. Por último, basándose en todo esto, la capa de salida elige cómo balancear la escena sonora.
Después, esto se compara con cómo debería sonar idealmente. Aquí es donde está la clave y lo que hace tan innovadoras a las redes neuronales profundas.
Al principio, la red neuronal no tiene ni idea de qué está escuchando, solo oye la mezcla complicada de sonidos, así que solo responde al azar.
Pero cada vez que balancea la escena sonora de forma incorrecta, la información fluye de vuelta a través de la red indicando que «el balance es incorrecto», así que las conexiones que apoyaban esa decisión se vuelven más débiles.
¿Pero qué sucede cuando hay un balance ideal? Sus conexiones se fortalecen. Hace esto una y otra vez con millones de escenas sonoras y la red neuronal se enseña a sí misma a procesar cualquier entorno que se le presenta.
Hasta ahora, los audífonos se han diseñado utilizando reglas simples que categorizaban todos los sonidos como habla o ruido. Basándose en la claridad del habla en relación con el ruido, el audífono elegía entre dejar entrar a todos los sonidos o apagarlos todos, excepto el que estaba delante de él.
Oticon ha elegido una nueva perspectiva. Salimos del laboratorio para recoger sonidos de situaciones de la vida real con un micrófono especializado de 360 grados. Después de entrenar a nuestra red neuronal profunda con todas estas escenas sonoras, las incorporamos a nuestro nuevo audífono: Oticon More.
Así que, cuando una persona con pérdida auditiva utiliza Oticon More, entra en una escena sonora, el audífono la escanea y después utiliza su red neuronal profunda para reconocerla y asegurarse de que los sonidos son claros y están perfectamente balanceados. Todo esto se realiza teniendo en cuenta la pérdida auditiva del usuario.
Al tener acceso a la escena sonora completa, es mucho más sencillo para las personas con pérdida auditiva oír más y disfrutar de la increíble complejidad de la vida.