miércoles, 1 de febrero de 2012

Descifran ondas cerebrales para espiar lo que pensamos



Los neurocientíficos podrían, algún día, ser capaces de escuchar los monólogos internos constantes que tienen lugar en nuestras mentes, o escuchar el discurso imaginario de un paciente con derrame cerebral o con incapacidad para hablar, según un equipo de investigadores de la Universidad de California, Berkeley. El trabajo, llevado a cabo en los laboratorios de Robert Knight, en Berkeley, y Edward Chang, en la Universidad de California en San Francisco, ha sido publicado en 'PLoS Biology'.
Los científicos han logrado descifrar la actividad eléctrica en una región del sistema auditivo humano llamada circunvolución temporal superior (STG, por sus siglas en inglés); al analizar el patrón de actividad en la STG, fueron capaces de reconstruir las palabras que los sujetos escuchaban en una conversación normal.
"Este estudio es muy importante para los pacientes que tienen daños en los mecanismos del habla a causa de un accidente cerebrovascular o enfermedad de Lou Gehrig", afirma Knight, profesor de Psicología y Neurociencia de la Universidad de California en Berkeley.
"Esta investigación se basa en los sonidos de una persona escucha realmente, pero para usar esto en una prótesis, estos principios deben aplicarse a alguien que está imaginando un discurso", advierte el primer autor, Brian N. Pasley, investigador post-doctoral en la Universidad de California, en Berkeley. Pasley probó dos métodos diferentes para adaptar los sonidos hablados al patrón de actividad de los electrodos. Los pacientes oían una sola palabra y Pasley utilizaba dos diferentes modelos computacionales para predecir la palabra basándose en las grabaciones de los electrodos; el mejor de los dos métodos fue capaz de reproducir un sonido bastante cercano a la palabra original.
El objetivo final del estudio fue explorar cómo el cerebro humano codifica el habla, y determinar qué aspectos del lenguaje son más importantes para la comprensión. "En algún momento, el cerebro tiene que extraer de fuera la información auditiva y mapearla en una palabra, ya que podemos entender el lenguaje y las palabras, independientemente de cómo suenan", dice Pasley, "La gran pregunta es, ¿cuál es la unidad más significativa del discurso, una sílaba o un fonema?".
En el Podcast que acopaña a artículo, el editor de PLoS Biology, Shah Ruchir, se sienta con Brian Knight y Robert Pasley para discutir sus hallazgos principales, las aplicaciones como prótesis neuronales, y las posibles implicaciones éticas de "leer la mente".

No hay comentarios:

Publicar un comentario