Home / El experto  / Ver bien para escuchar mejor

Ver bien para escuchar mejor

Artículo científico

portada-post-ilustracion

Ver bien para escuchar mejor

Visión y audición, una unidad funcional en los procesos de aprendizaje

Autor: Marta Fransoy Bel

Escuchar es mucho más que oír porque supone una actitud que involucra también al equilibrio, la postura, la atención, la emoción y la memoria. Sin que seamos plenamente conscientes, la integración de la audición con la visión y otros sistemas del organismo es fundamental para el desarrollo, la comunicación, el aprendizaje y la conducta adaptada. Es importante, por tanto, tender puentes entre las distintas áreas de conocimiento para conquistar un lenguaje común que facilite las intervenciones interdisciplinarias.

La evolución de la optometría durante el último siglo ha permitido descubrir que la visión es mucho más que la vista, entendida como agudeza visual. Una evaluación visual completa debe valorar, además de la refracción y la salud ocular, las habilidades visuales de eficacia, rendimiento, procesamiento de la información visual y la consecuente integración y repercusión de dicha información en la interpretación del espacio y en la coordinación motora. Para poder determinar el impacto de las dificultades visuales en el motivo de una consulta, es necesario también, investigar el grado de sinergia que existe entre el sistema visual y el auditivo, sobre todo en los casos de dificultad de aprendizaje.
El aprendizaje de la lectoescritura, por ejemplo, que es la base de la integración social y profesional, requiere de la sincronización precisa de habilidades vestibulares, auditivas, visuales y motoras.

lobulos
Figura 1
Áreas cerebrales en la corteza y el cráneo.
Corticales (en blanco) y subcorticales (en gris) implicadas en la integración visual-auditiva.

1. El tronco del encéfalo, donde hacen sinapsis los núcleos vestibulares con los pares craneales III, IV y VI que inervan los músculos extraoculares.
2. Los colículos superiores, en el mesencéfalo, donde se procesa la coherencia sensorial, los aspectos espaciales de la visión con los temporales de la escucha. Son una estructura subcortical y, por tanto, se trata de una función no consciente.
3. El lóbulo parietal posterior, en el que convergen aferencias del sistema visual magnocelular (visión periférica) y de la rama vestibular del VIII par craneal. Es el área que procesa la localización y las funciones motoras.
4. El lóbulo temporal inferior, al que llegan aferencias del sistema visual parvocelular (visión central) y de la rama auditiva del VIII par craneal. Es el área encargada de la identificación visual y auditiva, las funciones sensoriales.
5. El lóbulo prefrontal, que es donde reside la conciencia visual y fonológica y los procesos cognitivos ejecutivos como la atención, la memoria y la toma de decisiones.

Investigaciones recientes avalan la relevancia no solo de considerar la integración entre la visión y la escucha, sino de la conveniencia de evaluarla tanto en los exámenes optométricos como en los audiológicos. Entre otras interacciones, se ha descubierto que los tímpanos se mueven con los movimientos oculares, que la estimulación auditiva influye en la dilatación pupilar y que la adaptación de prismas oftálmicos tiene efecto sobre la percepción de variables sensoriales y temporales del estímulo auditivo, como son el tono y la duración del mismo.
Además, tanto el sistema visual como el sistema auditivo y el del equilibrio, ubicado en el oído interno, son receptores de información postural, junto con los demás captores posturales del cuerpo, que son: la articulación temporomandibular, la columna vertebral, las articulaciones, los haces musculares y los pies. Las vías aferentes de estos captores llegan al sistema extrapiramidal, en la corteza premotora del cerebro, que calibra, ordena y sincroniza las distintas informaciones recibidas para el mantenimiento de la postura. El organismo pues, debe considerarse un todo integrado en el que las funciones de los distintos sistemas son interdependientes y donde el cambio en una de las partes del organismo afecta al todo. Un claro ejemplo de ello es la dificultad para mantener el equilibrio y la postura en personas con pérdida auditiva, con implantes cocleares, o en usuarios primerizos de lentes de adición progresiva. Para audiólogos y optometristas, el estudio, evaluación y tratamiento de la repercusión de las dificultades de escucha y visuales en la postura se plantea como un nuevo reto a nivel de formación y de especialización para el enriquecimiento profesional.

«Vista es a visión» como «audición es a escucha»

Al igual que la visión es mucho más que la agudeza visual (vista), escuchar es mucho más que oír. Escuchar es utilizar la audición de forma atenta para extraer un significado relevante a partir de las ondas sonoras que llegan a nuestro tímpano. Para escuchar es imprescindible tener la intención de activar la atención.
Ambos procesos, «visión» y «escucha», tienen en común que empiezan con la recepción de un estímulo en los órganos receptores (retina y cóclea). Este estímulo, ya sea de naturaleza electromagnética como la luz, o de naturaleza mecánica como el sonido, se convierte en impulsos eléctricos que generan actividad neuronal.
Sea cual sea la tarea propuesta, visual o auditiva, siempre hay un receptor sensorial, una vía neuronal aferente de entrada de la información y su procesamiento en el sistema nervioso central, y una vía eferente de la información hacia los órganos efectores encargados de realizar la acción según la planificación
motora prevista. El grado de acierto de la interacción con la realidad que nos rodea depende de la precisión y calidad de este proceso. Cuando la acción no es lo suficientemente precisa, el mecanismo de retroalimentación (feed-back) informa al sistema de la necesidad de rectificación.

La figura 2 ilustra este proceso, que es el mecanismo mediante el cual actúa la terapia visual y la rehabilitación auditiva.

figura-2-art-cientifico
Figura 2
De la información a la acción.

Analogías y diferencias funcionales

La visión y la audición son las principales modalidades sensoriales que proporcionan información del espacio alocéntrico o extrapersonal. Como dos sondas, captan la información que llega desde más allá del espacio egocéntrico o peripersonal, que está delimitado por la zona que abarcan nuestros brazos, en la que el tacto es una fuente de información relevante. Según el filósofo francés Maurice Merleau-Ponty (1908-1961) «la visión es la manera que tiene el cerebro de tocar el mundo». De forma análoga, el sonido se transmite mediante ondas de presión, un estímulo mecánico que «toca» nuestros tímpanos y nuestra piel. No es extraño entonces, que las células de Corti estén presentes tanto en la cóclea como en la piel.
Además de compartir la función de captar información de un entorno lejano, ambas modalidades sensoriales presentan otras analogías remarcables (tabla 1).

tabala1-art-cientifico
Tabla 1
Vista es a visión como audición es a escucha. Analogías funcionales

«Visión» y «escucha» tienen componentes centrales y periféricos. La conciencia visual central permite identificar y centrarse en los detalles, mientras que la visión periférica proporciona claves para la localización del estímulo. En cuanto a la escucha, diferenciamos entre la preferencia del procesamiento auditivo central que permite concentrarse en el mensaje y la del procesamiento auditivo que es más periférico, percibiendo con más facilidad el entorno sonoro. Estos estilos perceptivos tienen una repercusión muy importante en el aprendizaje, puesto que el alumno eficiente es aquel que puede mantener la atención centrada en escuchar al docente mientras mira la pizarra aunque la visión periférica esté captando estímulos en movimiento. Cuando la visión/audición periférica domina sobre la central, la etiqueta del caso suele ser TDA-H, trastorno por déficit de atención, con o sin hiperactividad. Vemos pues, la importancia capital de realizar la evaluación completa de las habilidades visuales y auditivas para una detección diferencial y temprana de la naturaleza de la disfunción.
Por otro lado, entre la «visión» y la «escucha» hay unas diferencias importantes, que los hacen procesos complementarios (tabla2).

tabla2
Tabla 2
Diferencias funcionales entre visión y escucha.

Un claro ejemplo de la integración visual-auditiva es la lectoescritura. Leer y escribir implica asociar una secuencia de grafías (aspecto espacial de la visión) a una secuencia de fonemas (aspecto temporal de la audición). La función de captar imágenes se procesa principalmente en el hemisferio derecho del cerebro, mientras que la discriminación auditiva es función del hemisferio izquierdo. Por esta razón, la integración interhemisférica es un hito fundamental del desarrollo. El pleno funcionamiento del cuerpo calloso y la organización lateral de las funciones del cerebro son imprescindibles para aprender a leer y escribir.
La dislexia es el recurso diagnóstico que se utiliza muchas veces antes de haber hecho un examen exhaustivo de las habilidades visuales, de escucha, de integración visual-auditiva y de la lateralidad, direccionalidad e integración bilateral del niño. Este es uno de los argumentos por los que, sobre todo en el caso de la lectoescritura, la visión y la audición deberían considerarse una unidad funcional en los procesos de aprendizaje.

Referencias

Birnbaum MH. (1994) Behavioral optometry: a historical perspective.
J Am Optom Assoc. Abril 65 (4) 255-64. PMID: 8014367.
Tahran RM, Borish IM. (2012) A Review of Events Leading to the Development of Modern Optometry in the United States. HINDSIGHT Journal of Optometry History. Abril 43 (4) 28-34.
Russoa NM, Nicola TG.Zeckerc SG.(2005) Auditory training improves neural timing in the human brainstem. Behavioral Brain Research 156, 95–103.
Meredith MA, Stein BE. (1986). Visual, auditory, and somatosensory convergence on cells in superior colliculus results in multisensory integration. J. Neurophysiol. 56, 640–662.
Gruters KG, Murphy DLK, Jensen CD, Smith DW, Shera CA, Groh JM.(2018). The Eardrums Move When the Eyes Move: A Multisensory Effect on the Mechanics of Hearing. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1717948115.
Zekveld AA, Koelewijn T, Kramer SE. (2018) The Pupil Dilation Response to Auditory Stimuli: Current State of Knowledge. Trends in Hearing 22, 1-2.
Michael C, Bonnet C, Podor B, Bard P, Poulin-Charronnat B. Wearing prisms to hear differently: After effects of prism adaptation on auditory perception. Cortex 115 (2019) 123-132.
Hasegawaa N, Takedaa K, Sakumaa M, Manic H, Maejimac H, Asakac T. (2017) Learning effects of dynamic postural control by auditory biofeedback versus visual biofeedback training. Gait & Posture 58, 188–193.
De Souza R, Lemos A, da Silva CF, Falcão MC, Ferraz KM. (2015)Postural control assessment in students with normal hearing and sensorineural hearing loss.Brazilian Journal of Otorhinolaryngology July–August 81(4) 431-438. https://doi.org/10.1016/j.bjorl.2014.08.014.
Oikawaa K, Kobayashia Y, Hiraumia H, Yonemoto K, SatoaH.(2018) Body balance function of cochlear implant patients with and without sound conditionsClinical Neurophysiology. Oct 129 (10) 2112-2117https://doi.org/10.1016/j.clinph. 2018.07.018.
Mateo B, Porcar-Seder R, Solaz JS, Dürsteler JC. (2010) Experimental procedure for measuring and comparing head–neck–trunk posture and movements caused by different progressive addition lens designs. Ergonomics 53 (7) 904-913. https://doi.org/10.1080/00140139.2010.489961.
Merleau-Ponty M. (2013) El ojo y el espíritu. Ed Trotta. ISBN:9788498794595.
DeCarlo DK, Bowman E, Monroe C, Kline R, McGwin G Jr, Owsley C. Prevalence of attention-deficit/hyperactivity disorder among children with vision impairment. (2014) JAAPOS.18(1)10-4.
Taitelbaum-Swead R, Kozol Z, Fostick L. (2019) Listening Effort Among Adults With and Without Attention-Deficit/Hyperactivity Disorder. J Speech Lang Hear Res. 62(12) 4554-4563.
Ferré J, Aribau E (2008) El desarrollo neurofuncional del niño y sus trastornos. Lebón. ISBN-10 : 8489963800.
Yang Y, Yang YH, Li J, Xu M, Bi H-Y. An audiovisual integration deficit underlies reading failure in nontransparent writing systems: An fMRI study of Chinese children with dyslexia. (2020) Journal of Neurolinguistics 54-100884.

Autor

marta-fransoy

MARTA FRANSOY
ÓPTICA – OPTOMETRISTA

Diplomada en Óptica y Optometría, UPC.
Profesora titular de la Facultad de Óptica
y Optometría de Terrassa.
Docente en: Máster en Optometría y Ciencias de la Visión, UPC.
Máster en Optometría y Terapia Visual, FPC-ACOTV.
Postgrado en Osteopatía Pediátrica, IASO-UPF.

revistagacetaudio@gmail.com

Revista Gaceta Audio

Puntúa

COMENTAR ARTÍCULO

Política de Confidencialidad y Uso de cookies

Aviso legal. Política de Privacidad y Seguridad. Para continuar es necesario ACEPTAR nuestra Política de Confidencialidad descrita en este AVISO, en vigor desde el 25/05/2018. Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de Confidencialidad y cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies