jueves, 30 de mayo de 2013

Prosopagnosia



La prosopagnosia (del griego πρόσωπον: aspecto, y de ἀγνωσία: desconocimiento) es una forma específica de agnosia visual, caracterizada por una incapacidad de reconocer los rostros. El término fue acuñado en 1947 por el médico Joachim Bodamer, quien la definió en los siguientes términos: “Es la interrupción selectiva de la percepción de rostros, tanto del propio como del de los demás, los que pueden ser vistos pero no reconocidos como los que son propios de determinada persona” 

La definición sigue siendo vigente, pues sirve para caracterizar el trastorno sin diagnosticarlo o pronosticarlo, no obstante ahora sabemos que puede tener distintas características. 

No obstante, aunque la incapacidad de ver rostros es la característica de este trastorno, en algunos casos se pueden percibir los rostros de familiares o amigos cercanos, siempre y cuando tengan algo que les caracterice extremadamente. 
Por ejemplo, en "El hombre que confundió a su mujer con un sombrero", de Oliver Sacks, se habla de un hombre con prosopagnosia, que únicamente reconocía a tres personas de su trabajo: una de ellas por un llamativo lunar que tenía en la mejilla, otra por ser extremadamente alto y delgado, y la otra por que tenía un tic en un ojo que hacía que lo cerrara constantemente. Por ello, su mujer siempre iba con un gran sombrero llamativo, con el fin de que su marido la reconociera.

El reconocimiento de rostros es una herramienta fundamental para las interacciones sociales entre los seres humanos; sin la capacidad de leer otras caras y sus expresiones sería difícil distinguir a los amigos de los extraños a primera vista, y no podríamos distinguir una persona triste de una feliz.

Neurocientíficos del Instituto de Tecnología de California han descubierto una respuesta novedosa a los rostros humanos observando registros neuronales del cerebro de pacientes neuroquirúrgicos. El hallazgo, ofrece la primera descripción de una serie de neuronas que responden muy bien cuando el paciente ve una cara completa, pero cuya respuesta es menor ante una cara en la que ha sido borrada una región muy pequeña. Según el doctor Ueli Rutishauser de Caltech: 

"las neuronas responden bien a imágenes de caras completas, pero cuando se les muestra sólo una parte del rostro, responden cada vez menos según se les van mostrando más partes de esa cara".

Otro estudio realizado en el Instituto Tecnológico de Massachusetts indica que ambos hemisferios cerebrales tienen que ver en el proceso de reconocimiento facial, pero cada uno cumple una función diferente. Mientras que el giro fusiforme izquierdo informa de lo parecida que es la imagen a una cara, es, sin embargo, el derecho quien ofrece el veredicto final. 
Para demostrar este efecto, los científicos emplearon imágenes por resonancia magnética del cerebro de los participantes en el experimento, a los que se les iban mostrando fotografías de caras, de objetos que lo parecían y de otros que no tenían nada que ver. Observaron que los patrones de actividad del hemisferio izquierdo cambiaban gradualmente según las imágenes se iban pareciendo más o menos a una cara. Por el contrario, en el lado derecho sólo se detectaban cambios si la imagen mostraba un rostro real. Cuando no era así, los patrones de actividad permanecían constantes, sin importar si el objeto se asemejaba más o menos a una cara. Además, la activación de la parte izquierda del giro fusiforme precedía en unos segundos a la de la derecha, por lo que parece que sería el hemisferio izquierdo el que haría el primer trabajo y pasaría la información al derecho.

En una imagen, las frecuencias bajas corresponden a una resolución baja, es decir los cambios suaves en intensidad de esa imagen. Por otro lado, frecuencias altas constituyen los detalles finos en esa imagen. Podemos comprobar que si nos alejamos de ella, percibimos cada vez menos sus detalles, es decir, sus componentes de alta frecuencias espaciales, mientras las frecuencias bajas de esa imagen siguen visibles y son las que desaparecen en último término.
Se sabe que al cerebro humano, para reconocer caras, no le interesan las frecuencias muy altas, a pesar de que estas frecuencias juegan un papel importante a la hora de, por ejemplo, determinar la edad. “Para reconocer una cara en una imagen”, sin embargo “el cerebro se queda siempre con la misma resolución baja, unos 30 x 30 pixeles de oreja a oreja, ignorando la distancia y la resolución original de la imagen. Hasta ahora nadie tenía explicación para este fenómeno peculiar.

El investigador Matthias S. Keil, del departamento de Psicología Básica de la UBK analizó un gran número de caras, en concreto 868 caras de mujeres, y 868 de hombres. Para el investigador, “la idea era encontrar regularidades estadísticas comunes entre las imágenes. Como herramienta de análisis utilizaba un modelo del sistema visual del cerebro, es decir he mirado, en cierto modo, las imágenes tal como el cerebro, pero con una diferencia: No he seleccionado ninguna resolución preferida, he considerado todas las frecuencias espaciales por iguales. Como resultado de este análisis he obtenido una resolución que es óptima en términos de codificación, y la relación señal a ruido, y era además la misma resolución observada en los experimentos psicofísicos”.

De este resultado, por lo tanto, se puede interpretar que las caras son en sí mismas responsables de nuestra preferencia de resolución. De aquí, Keil ha extraído una propiedad del cerebro: 
“El cerebro se ha adaptado de forma óptima para extraer la información más útil de las caras para reconocerlas. Mi modelo también predice esta resolución si consideramos solo los ojos -ignorando nariz y boca- pero también, aunque no tan fiable, al considerar de forma aislada boca o nariz”.

Por tanto, el cerebro extrae la información clave para el reconocimiento facial sobre todo a partir de los ojos y de forma secundaria de la boca y la nariz, según el estudio. Según Keil, si se tiene como ejemplo la fotografía del rostro de un amigo se podría pensar que cada detalle de su rostro es importante para reconocerlo. Sin embargo, numerosos experimentos han mostrado que el cerebro prefiere una resolución tosca, con independencia de la distancia a la que se ve una cara. Hasta ahora, la razón de esto no estaba clara. Este análisis de imágenes podría ayudar a explicar esto.

Los resultados obtenidos por Kiel indican que la información más útil se obtiene de las imágenes si su tamaño es de alrededor de 30 por 30 píxeles. 
“Además, las imágenes de los ojos proporcionan el resultado con menos 'ruido', lo que significa que transmiten información más fiable al cerebro en comparación con las imágenes de la boca y la nariz”
Esto sugiere que los mecanismos de reconocimiento facial en el cerebro están especializados en los ojos

Este trabajo complementa un estudio previo publicado por Keil en PLoS ONE, que ya anticipaba que los sistemas de reconocimiento facial artificial dan mejores resultados cuando procesan imágenes de caras pequeñas, lo que significa que las máquinas podrían comportarse en este sentido como los humanos.



No hay comentarios:

Publicar un comentario