lunes, 7 de mayo de 2012

Posible estrategia para que la gente con implante coclear distinga las palabras en un entorno ruidoso

Gracias a una nueva investigación, se podría estar abriendo una ventana hacia un conocimiento más profundo sobre cómo el oído interno procesa la estructura temporal del sonido. Y algún día ello podría mejorar el modo en que son diseñadas las prótesis auditivas para ayudar a oír mejor en ambientes ruidosos a las personas que padecen de pérdida auditiva profunda. El sonido se puede dividir en componentes rápidos y lentos. Los implantes cocleares actuales sólo proporcionan los componentes de variación lenta, que ayudan a las personas con pérdida auditiva profunda a entender a su interlocutor durante una conversación en un lugar lo bastante silencioso, pero que no les permiten oír tan bien como la gente con audición normal en sitios como por ejemplo un restaurante lleno de gente parloteando. m_heinz Michael G. Heinz. (Foto: Purdue University/Andrew Hancock) Se había venido considerando que los componentes de variación rápida del sonido, los cuales no puede suministrar la tecnología actual de implantes cocleares, ayudan a oír de manera selectiva en ambientes ruidosos. El equipo de Michael G. Heinz, profesor de ciencias de la audición, el lenguaje y el habla en la Universidad Purdue en West Lafayette, Indiana, Estados Unidos, y especializado en neurociencia auditiva, ha constatado que en realidad los componentes neurales de variación lenta desempeñan el papel principal en ayudar a que el cerebro entienda lo que está diciendo el interlocutor durante una conversación en un ambiente ruidoso, en tanto que, en las personas con audición normal, los componentes acústicos de variación rápida son transformados por la cóclea (caracol, del oído interno) en componentes neurales más lentos para así ayudar a escuchar mejor. Serán necesarios estudios adicionales para explorar cómo se puede adaptar la tecnología actual de implantes cocleares para permitir usar estas transformaciones cocleares. Heinz y Jayaganesh Swaminathan (ahora en el Instituto Tecnológico de Massachusetts, MIT) seguirá estudiando los entresijos del procesamiento de señales neurales, a fin de conocer mejor el mecanismo que permite distinguir lo que alguien dice en un ambiente ruidoso, así como el modo en que lo descubierto en el nuevo estudio podría ser usado para mejorar los implantes cocleares. http://noticiasdelaciencia.com

0 comentarios:

Publicar un comentario

cntador de vistas