El concepto «Internet de las Cosas» (IoT), fue acuñado por primera vez hace más de 20 años, concretamente en 1999, por un profesor del Massachusetts Institute of Technology llamado Kevin Ashton. La idea era utilizar un sistema llamado M2M (Machine to Machine), de forma que dos dispositivos se comunicaran entre sí sin la intervención del ser humano, a través de sensores y chips que llevaban incorporados.
Tras casi 25 años transcurridos el Internet de las Cosas, que puede revelar, activar y procesar diversa información en tiempo real sin la intervención humana, se ha convertido en una herramienta imprescindible en múltiples ámbitos y áreas profesionales por su alto nivel de eficiencia, rapidez y automatización. De hecho, ha contribuido de forma asombrosa al progreso de la humanidad del siglo XXI.
Aunque el concepto de Internet de las Cosas se asocia muy a menudo a sectores como la construcción, las comunicaciones, o las fábricas y almacenes inteligentes del futuro, los beneficios de su aplicación en el área de la salud son incuestionables, ya que, según diversos estudios, mejoran considerablemente los procesos de análisis de datos en exactitud y rapidez, con lo que su aplicación generalizada podría reducir costes en los tratamientos e incluso hacer descender la tasa de mortalidad (Nozari, 2021).
El «Internet de las Cosas» se basa en que dos dispositivos se pueden comunicar entre sí sin la intervención del ser humano, a través de sensores y chips.
Pero para que el tratamiento de esta ingente cantidad de datos sea eficaz, es preciso contar con una herramienta lo suficientemente potente de procesamiento de la información. Aquí es donde entra en juego la Inteligencia Artificial, que permite analizar dichos datos y además tomar las decisiones oportunas en base al análisis, si se precisa. Así, las «cosas» conectadas a Internet, tienen que disponer también de sistemas de Inteligencia Artificial.
El área de la medicina y de la salud tiene un enorme potencial para la aplicación del Internet de las Cosas. Puede utilizarse para sistemas de alerta o de emergencias, sistemas de atención remota al paciente, enfermedades crónicas, seguimientos en dietética y nutrición o cuidado geriátrico. Pueden medirse con precisión parámetros como el ritmo cardíaco, la presión sanguínea, el funcionamiento de los audífonos o, incluso, incorporar marcapasos «artificiales». Asimismo, hay sistemas que permiten analizar la efectividad de un medicamento e ir ajustando su dosificación o monitorizar a los pacientes que son dados de alta con enfermedades crónicas y comunes como dolencias respiratorias y cardíacas o diabetes.
No obstante, podría decirse que la Inteligencia Artificial como herramienta orientada al cuidado de la salud es un hallazgo relativamente reciente y se encuentra todavía en sus primeros años de desarrollo.
Así las cosas… ¿qué aplicaciones tendrá esta innovadora tecnología en el ámbito de la salud auditiva? Parece evidente que la Audiología tiene un enorme potencial para beneficiarse de todos estos avances, en parte porque se sustenta en una teoría mecanicista, de naturaleza numérica, con procedimientos basados en la medición y, por otro lado, porque implica un complejo proceso de toma de decisiones en base a dichas mediciones.
Uno de los ámbitos de aplicación más evidentes en Audiología es el de diagnóstico, que se fundamenta en una serie de pruebas psicométricas, electrofisiológicas y electroacústicas. En general, el especialista dispone de un tiempo reducido para aplicar estas pruebas y además debe tener en cuenta las características particulares de cada paciente. El diagnóstico se realiza mediante la observación y análisis de los resultados de estas pruebas, para lo que se requiere destreza y experiencia, si bien dicha interpretación introduce también un factor de subjetividad e impide un análisis multifactorial más avanzado.
Las limitaciones en el tiempo de prueba dificultan igualmente la obtención de datos multidimensionales de calidad para cada paciente. El Machine Learning, término anglosajón que se emplea para designar una disciplina del campo de la Inteligencia Artificial que, a través de algoritmos, dota a los ordenadores de la capacidad de identificar patrones con datos masivos y elaborar predicciones, puede facilitar herramientas flexibles y eficaces para hacer estimaciones en poco tiempo. Algunas de estas herramientas ya diseñadas y probadas han permitido, por ejemplo, seleccionar para un paciente concreto el estímulo más apropiado para obtener una estimación exacta de sus umbrales auditivos, así como determinar la frecuencia límite de una zona coclear muerta de alta frecuencia o personalizar el ajuste de un audífono.
La Inteligencia Artificial permite analizar gran cantidad de datos con exactitud y rapidez para tomar las decisiones oportunas de la forma más eficiente.

Esta tecnología se ha probado también para el diagnóstico de patologías de oído externo y medio con el desarrollo de una aplicación móvil que permite tomar imágenes otoscópicas y enviarlas al especialista con una fiabilidad de entre el 81 y el 94%.
Otra clara muestra de su potencial de aplicación es el estudio genético. La combinación de datos relativos a las dificultades auditivas experimentadas por los individuos (en forma de cuestionario, por ejemplo) y la información genética, pueden permitir aislar nuevos genes relacionados con la pérdida auditiva. Mediante este procedimiento, Wells cruzó en 2019 los datos de 250.000 personas, lo que permitió identificar 44 nuevos loci o sitios genéticos potencialmente relacionados con la hipoacusia. La extrapolación de toda esta información para generar perfiles auditivos cruzada con otros datos de los pacientes puede permitir a la Inteligencia Artificial constituirse en una potente herramienta de pronóstico.
El desarrollo de herramientas de cribado auditivo mediante aplicaciones móviles puede favorecer el acceso a la salud auditiva de un mayor número de personas, especialmente en aquellos países en los que no se dispone de suficiente equipamiento ni de personal cualificado. Igualmente, puede permitir detectar hipoacusias de transmisión en edad escolar en lugares en los que no se realiza ningún cribado auditivo con posterioridad al neonatal, como es el caso de España.
Como puede apreciarse, la aplicación de la Inteligencia Artificial puede tener beneficios evidentes en el ámbito del diagnóstico audiológico. Podrían mencionarse muchos otros ejemplos, como el diagnóstico y tratamiento de los trastornos vestibulares, la predicción del pronóstico de una hipoacusia neurosensorial, la interpretación de los potenciales evocados, o la generación de algoritmos para el diagnóstico por imagen.
La aplicación de la Inteligencia Artificial al ámbito de la rehabilitación auditiva merece también una mención especial, debido a que la introducción del ya citado Machine Learning está cada vez más generalizada, tanto en implantes cocleares como en audífonos. Las empresas especializadas en el desarrollo de prótesis auditivas siempre han «coqueteado» con las nuevas tecnologías. Ya hace varios años que algunos fabricantes empezaron a incorporar a sus dispositivos el «Internet de las Cosas» y que las prótesis auditivas cuentan con diferentes sistemas y accesorios de conectividad que han mejorado sensiblemente la calidad de vida de los pacientes con deficiencia auditiva.
Si bien, como se ha mencionado, se han hecho importantes avances tecnológicos en estos dispositivos a lo largo de los años, lo cierto es que sigue siendo imperativo mejorar su rendimiento en el mundo auditivo real. Por tanto, quizá la aplicación más apasionante de la Inteligencia Artificial en el campo de la Audiología está relacionada con la investigación de los complejos mecanismos subyacentes a la experiencia auditiva. Esta es también su aplicación más prometedora, ya que las técnicas de Machine Learning pueden conducir a un mejor conocimiento del sistema auditivo, de forma que las prótesis puedan replicar o incluso mejorar funciones que normalmente se atribuyen a este sistema.

Esta tecnología se ha probado para el diagnóstico de patologías de oído externo y medio, ya que permite tomar imágenes otoscópicas y enviarlas al especialista con una fiabilidad del 81 al 94%.


Los fabricantes de dispositivos ya han empezado a introducir, aún con ciertas limitaciones, sistemas predictivos y de análisis de datos procedentes de la Inteligencia Artificial. Así, las prótesis auditivas realizan ajustes automáticamente analizando los entornos auditivos del paciente, de forma que el modelo de amplificación se mantiene siempre actualizado y aprende continuamente de resultados y datos previos. Para ello, puede utilizar básicamente dos sistemas, ambos procedentes de la Inteligencia Artificial. El primero de ellos, utiliza las llamadas redes neuronales profundas (DNNs en inglés), y se ha aplicado para mejorar la inteligibilidad tanto en audífonos como en implantes cocleares. En el caso de los audífonos, el sistema aprende de forma automática a partir del análisis de datos de millones de escenas auditivas de la vida real para organizar, equilibrar y priorizar los estímulos auditivos con vistas a mejorar la sensación sonora y la inteligibilidad, y realiza todo este proceso de forma instantánea.
En cuanto a los implantes, se han implementado sistemas de redes neuronales profundas para mejorar la inteligibilidad en ruido. Para ello, las señales de voz en ruido se descomponen en unidades de tiempo-frecuencia y se configura un conjunto de características verificadas psicofísicamente, que se introducen en una red neuronal profunda para así seleccionar canales de frecuencia con una mejor relación señal/ruido. Este pre-procesamiento de la señal de entrada ha demostrado mejorar significativamente la inteligibilidad con implante coclear, incluso cuando la voz del interlocutor no es familiar. Los desarrolladores de esta red neuronal han limitado la potencia y la memoria requerida para su modelo, de forma que pueda implementarse también en dispositivos móviles.
El segundo de estos sistemas, diseñado en las prótesis para favorecer la inteligibilidad y el confort auditivo partiendo de la Inteligencia Artificial, consiste en un aprendizaje activo con procesos gaussianos para rastrear las preferencias individuales de cada usuario a través del tiempo.
Los estudios más recientes focalizan sus esfuerzos en un modelo que sea capaz de combinar ambos sistemas, es decir, la capacidad de procesamiento de las redes neuronales profundas, con una adaptación personalizada y adaptativa fundamentada en la recogida continua de datos de cada usuario.
Las redes neuronales profundas, diseñadas para la eliminación del ruido, llegarán en poco tiempo a analizar entornos acústicos complejos tal y como lo haría el cerebro, separando las fuentes sonoras y convirtiendo así el habla en ruido en habla en silencio, es decir, convirtiendo en realidad el sueño de todo usuario de prótesis auditivas. Estos sofisticados sistemas de eliminación de ruido ya han sido probados en laboratorio y han demostrado que la inteligibilidad de los usuarios de audífonos puede igualar o incluso mejorar a la de los individuos con audición normal.
No obstante, la eficacia de estos sistemas aún no se ha probado en situaciones acústicas reales. Y aquí aparece uno de los retos principales: conseguir que la Inteligencia Artificial, ejerciendo una especie de «control cognitivo», pueda monitorizar la capacidad del cerebro para desarrollar una atención selectiva a los estímulos.
La aplicación de la Inteligencia Artificial al ámbito de la rehabilitación auditiva a través del Machine Learning está cada vez más generalizada, tanto en implantes cocleares como en audífonos.

Los investigadores consideran esto un reto asumible; en primer lugar, porque parece ser que nuestro cerebro infiere la fuente de sonido que nos interesa, a partir de las relaciones entre nuestra actividad neuronal registrada y nuestros posibles centros de interés. En segundo lugar, porque aparentemente todas estas grabaciones o registros que permiten identificar la fuente sonora de interés podrían obtenerse gracias a un simple electrodo colocado dentro del canal auditivo, que podría integrarse fácilmente en un audífono.
Otros entornos relacionados con la Audiología protésica en los que se están desarrollando investigaciones basadas en la Inteligencia Artificial son, por ejemplo, el tratamiento y pronóstico de las hipoacusias profundas, la traducción automática de la lengua de signos o el tratamiento de los acúfenos a partir de marcadores biológicos fiables.
La inteligencia Artificial abre así todo un abanico de posibilidades de aplicación en dispositivos auditivos que aún no nos atrevemos ni a imaginar.
A la vista de todo lo expuesto, cabe preguntarse cómo se plantean los expertos la Audiología de las próximas décadas. Para ellos, la utilización de nuevas tecnologías basadas en la Inteligencia Artificial conducirá a un modelo de mayor calidad y accesibilidad, en el que el bienestar de cada paciente se determinará a partir de un exhaustivo análisis de datos de diferente procedencia. Para garantizar su éxito, será imprescindible aunar esfuerzos y crear infraestructuras adecuadas, así como desarrollar un código deontológico que incluya todas las consideraciones éticas inherentes a una buena práctica en la era digital (evitar actividades fraudulentas, preservar la privacidad, definir responsabilidades, etc.). Los audiólogos podrán atender a un mayor número de pacientes, desviando ciertos procesos de toma de decisiones a herramientas diseñadas a tal fin y concentrándose en las decisiones más complejas. Se generalizará la utilización de accesorios de soporte, incluidos los smartphones, para la evaluación y el tratamiento, que utilizarán complejos algoritmos para asesoramiento y seguimiento.
Puede que esta sea la Audiología de un futuro no demasiado lejano. De hecho, podríamos imaginar un escenario en el que los vínculos entre la audición artificial y la audición biológica permitieran gestionar una red eficaz de cuidado auditivo a nivel mundial y avanzar en los desafíos más complejos de la investigación sobre el sistema auditivo.
La aplicación más apasionante de la Inteligencia Artificial a la Audiología está relacionada con la investigación de los complejos mecanismos subyacentes a la experiencia auditiva.

Referencias
Aldaz, G, Puria S, Leifer LJ. Smartphone-based system for learning and inferring hearingaid settings. J Am Acad Audiol. 2016;27:732-749. DOI: 10.3766/jaaa.15099.
Barbour DL, Howard RT, Song XD, Metzger N, Sukesan KA, DiLorenzo JC, Snyder BRD, Chen JY, Degen EA, Buchbinder JM, Heisey KL. Online Machine Learning Audiometry. EarHear. 2019 Jul/Aug;40(4):918-926. doi: 10.1097/AUD.0000000000000669. PMID: 30358656; PMCID: PMC6476703.
Bing D, Ying J, Miao J, Lan L, Wang D, Zhao L, Yin Z, Yu L, Guan J, Wang Q. Predicting the hearing out come in sudden sensorineuralhearingloss via machine learning models. Clin Otolaryngol. 2018 Jun;43(3):868-874. doi: 10.1111/coa.13068. Epub 2018 Feb 20. PMID: 29356346.
Exarchos TP, Rigas G, Bibas A, et al. Mining balance disorders’ data for the development of diagnostic decision supportsystems. Comput Biol Med. 2016;77:240-248.DOI:10.1016/j.compbiomed.2016.08.016.
Lai YH, Tsao Y, Lu X, Chen F, Su YT, Chen KC, Chen YH, Chen LC, Po-Hung Li L, Lee CH. Deep Learning-Based Noise Reduction Approach to Improve Speech Intelligibility for Cochlear Implant Recipients. EarHear. 2018 Jul/Aug;39(4):795-809. doi: 10.1097/AUD.0000000000000537.
Lesica, N.A., Mehta, N., Manjaly, J.G. et al.Harnessing the power of artificial intelligence to transform hearing healthcare and research. Nat Mach Intell3, 840–849 (2021). https://doi.org/10.1038/s42256-021-00394-z.
*Las imágenes de este artículo han sido creadas artificialmente usando Lexica® una iA capaz de generar imágenes a partir de lo que escribimos.
CV Autor:

Myriam González
Audióloga / Audioprotesista
Licenciada en Pedagogía y Máster de Logopedia.
Técnico Superior en Audiología Protésica.
Especializada en Audiología Infantil y Evaluación de los trastornos del PAC en RV Alfa Centros Auditivos.
Docente en el Máster de Audiología de la Universidad Europea Miguel de Cervantes.