El tamaño de los lóbulos frontales no implica, como se pensaba, la base de las capacidades cognitivas superiores humanas.
Aunque el tamaño absoluto y proporcional de la región frontal del
cerebro aumentó en los humanos a lo largo de la evolución, este cambio
aconteció en estrecha correlación con un crecimiento del tamaño de otras
áreas cerebrales y del encéfalo en su conjunto. Una reciente
investigación indica que no puede tenerse en cuenta el tamaño de los
lóbulos frontales humanos como única peculiaridad de las capacidades
cognitivas superiores humanas, como se solía pensar hasta ahora.
Investigadores de las universidades de Durham y Reading sugieren que
junto a los lóbulos frontales, otras áreas más «primitivas» del
encéfalo, como el cerebelo, son igual de importantes en la expansión de
nuestro cerebro, por lo que desempeñan una función notable en la
cognición y algunas psicopatologías.
Importancia relativa
Robert Barton, del Departamento de Antropología de la Universidad de
Durham y uno de los autores, desmiente a raíz de los resultados que han
obtenido algunos de los supuestos vigentes hasta ahora, entre ellos, que
la expansión del lóbulo frontal resultó particularmente crucial para el
desarrollo del comportamiento, el pensamiento y el lenguaje del hombre
moderno o que los lóbulos frontales protuberantes nos hacen realmente
humanos. «Los lóbulos frontales humanos tienen exactamente el tamaño
esperado para un cerebro no humano reducido hasta el tamaño humano. Ello
significa que las zonas tradicionalmente consideradas como más
primitivas fueron igualmente importantes durante nuestra evolución.
Estas otras áreas deben recibir ahora más atención. De hecho, ya existe
alguna evidencia de que los daños en el cerebelo, por ejemplo, son un
factor a tener en cuenta en trastornos tales como el autismo y la
dislexia», afirma Burton.
Los científicos argumentan que numerosas de nuestras habilidades
cognitivas superiores se llevan a cabo en otras extensas redes
cerebrales que unen áreas diferentes del encéfalo. También sugieren que
en el funcionamiento cognitivo resulta más crítica la estructura de
estas redes extendidas que el tamaño de cualquier región del cerebro
aislado. El análisis de datos de investigaciones previas en humanos y
animales, además de métodos filogenéticos les han permitido obtener
resultados sólidos, explican. Y concluyen: los lóbulos frontales no
evolucionaron especialmente rápido a lo largo del linaje humano después
de que se separara del de los chimpancés.
El reciente estudio señala que no puede atribuirse al tamaño de los lóbulos frontales (en rojo) las capacidades cognitivas superiores de los seres humanos. [Wikimedia Commons / LSDB]
Más información en PNAS
Fuente: psiquiatria.com / PNAS
Este es un espacio para compartir unas serie de temas sobre las ciencias cognitivas y áreas del saber relacionadas
viernes, 21 de junio de 2013
Eye-Tracking Software May Reveal Autism and other Brain Disorders
Eye-tracking has become the tech trend du jour.
Advertisers use data on where you look and when to better capture your
attention. Designers employ it to improve products. Game and phone
developers utilize it to offer the latest in hands-free interaction.
But eye-tracking can do more than help sell products or give your finger a rest while playing Fruit Ninja. Years of research have found that our tiny, rapid eye movements called saccades serve as a window into the brain for psychologists just as for advertisers—but instead of giving clues about our preferred cookie brands (pdf), they elucidate our inner mental functioning. The question is, can capturing such movements help clinicians make diagnoses of mental and neurological disorders, such as autism, attention-deficit hyperactivity disorder, Parkinson’s disease and more? For many researchers in this growing field, the outlook so far looks positive.
“Visual scanning reflects a model of the world that exists inside the brain of each individual,” explains Moshe Eizenman, a leading eye-tracking researcher at the University of Toronto. “People with mental disorders have a model of the world that is slightly different than that of normal people—and by moving their eyes, they provide information about this different model.” Autistic children, for example, tend to avoid social images in favor of abstract ones, and they also more rarely and fleetingly make eye contact when looking at faces in an image or video in comparison with nonautistic kids. Similarly distinct, abnormal eye-movement patterns occur in a number of mental disorders, scientists have found.
Until recently, such insights have remained relegated to the lab setting, where researchers traditionally rely on special tools (like mounted headgear) and instructed tasks (like following a moving target across a computer screen). Now, as the cost of the technology drops and accuracy of more common—and practical—tools improves, eye tracking may find wider use in the clinical setting. “There is going to be a huge growth in the accessibility of eye-tracking devices to clinicians and others,” Eizenman predicts. “It won’t remain the domain of experts.” But technological advancements themselves are not enough to make eye-tracking for mental health monitoring go mainstream. The big challenge ahead, he says, is meaningful analysis of eye movement information.
Laurent Itti of the University of Southern California’s iLab is a part of a team working on this very challenge. Along with a group of researchers from U.S.C. and Queen’s University in Ontario, last year Itti devised a data-heavy, low-cost method of identifying brain disorders via eye-tracking. Subjects in this “free viewing” test sit and naturally watch a video on TV for 15 minutes while their eye-movements are recorded. The result is a deluge of data (the average person makes three to five saccadic eye movements per second), so Itti’s team uses advanced machine learning—algorithms that enable a computer to recognize patterns without explicit human instruction—to parse the results and distinguish deviant eye-movements from normal patterns.
In a small, proof-of-concept study (pdf) Itti’s team found that their algorithm could classify mental disorders through eye-movement patterns: They identified elderly Parkinson’s patients with nearly 90 percent accuracy as well as children with attention deficit hyperactivity disorder (ADHD) or fetal alcohol spectrum disorder with 77 percent accuracy. “This is very different from what people have done before. We’re trying to have completely automated interpretation of the eye movement data,” Itti says. “So you don’t need to have a scientist look at the data to figure out what’s going on; we’re using algorithms and machines to [identify] the linkage between eye-movement and cognition.”
But eye-tracking can do more than help sell products or give your finger a rest while playing Fruit Ninja. Years of research have found that our tiny, rapid eye movements called saccades serve as a window into the brain for psychologists just as for advertisers—but instead of giving clues about our preferred cookie brands (pdf), they elucidate our inner mental functioning. The question is, can capturing such movements help clinicians make diagnoses of mental and neurological disorders, such as autism, attention-deficit hyperactivity disorder, Parkinson’s disease and more? For many researchers in this growing field, the outlook so far looks positive.
“Visual scanning reflects a model of the world that exists inside the brain of each individual,” explains Moshe Eizenman, a leading eye-tracking researcher at the University of Toronto. “People with mental disorders have a model of the world that is slightly different than that of normal people—and by moving their eyes, they provide information about this different model.” Autistic children, for example, tend to avoid social images in favor of abstract ones, and they also more rarely and fleetingly make eye contact when looking at faces in an image or video in comparison with nonautistic kids. Similarly distinct, abnormal eye-movement patterns occur in a number of mental disorders, scientists have found.
Until recently, such insights have remained relegated to the lab setting, where researchers traditionally rely on special tools (like mounted headgear) and instructed tasks (like following a moving target across a computer screen). Now, as the cost of the technology drops and accuracy of more common—and practical—tools improves, eye tracking may find wider use in the clinical setting. “There is going to be a huge growth in the accessibility of eye-tracking devices to clinicians and others,” Eizenman predicts. “It won’t remain the domain of experts.” But technological advancements themselves are not enough to make eye-tracking for mental health monitoring go mainstream. The big challenge ahead, he says, is meaningful analysis of eye movement information.
Laurent Itti of the University of Southern California’s iLab is a part of a team working on this very challenge. Along with a group of researchers from U.S.C. and Queen’s University in Ontario, last year Itti devised a data-heavy, low-cost method of identifying brain disorders via eye-tracking. Subjects in this “free viewing” test sit and naturally watch a video on TV for 15 minutes while their eye-movements are recorded. The result is a deluge of data (the average person makes three to five saccadic eye movements per second), so Itti’s team uses advanced machine learning—algorithms that enable a computer to recognize patterns without explicit human instruction—to parse the results and distinguish deviant eye-movements from normal patterns.
In a small, proof-of-concept study (pdf) Itti’s team found that their algorithm could classify mental disorders through eye-movement patterns: They identified elderly Parkinson’s patients with nearly 90 percent accuracy as well as children with attention deficit hyperactivity disorder (ADHD) or fetal alcohol spectrum disorder with 77 percent accuracy. “This is very different from what people have done before. We’re trying to have completely automated interpretation of the eye movement data,” Itti says. “So you don’t need to have a scientist look at the data to figure out what’s going on; we’re using algorithms and machines to [identify] the linkage between eye-movement and cognition.”
jueves, 20 de junio de 2013
Aprendemos muy pronto el significado de las primeras palabras
Antes se pensaba que hasta los nueve meses los bebés no eran capaces
de entender el significado de ninguna palabra. Pero al parecer, en este
aspecto los seres humanos somos más precoces de lo que se pensaba, pues
recientemente se ha demostrado que ya desde los seis meses de edad somos
capaces de asociar el sonido de ciertas palabras con los objetos a los
que esas palabras denominan.
Esa conclusión se ha alcanzado mediante experimentos en los que a los bebés se les mostraban imágenes de una serie de objetos (partes de la anatomía corporal, facial, o alimentos) en una pantalla a la vez que su padre o su madre pronunciaba la palabra correspondiente a cada objeto. La investigación en cuestión constó de dos experimentos principales con bebés de entre 6 y 9 meses, y otros adicionales con bebés de hasta 20 meses de edad.
En el primer experimento, a cada bebé se le mostraban dos objetos y al mismo tiempo su padre o su madre pronunciaba la palabra que denominaba uno de los dos, y lo hacía siguiendo una pauta y ritmo previamente establecido. Un rastreador de trayectoria de la pupila (eyetracker) colocado frente al bebé y conectado a un ordenador equipado con el software adecuado, permitía determinar la dirección de su mirada y el tiempo en que permanecía fija en cada objeto. En el segundo experimento, a los bebés se les mostraba una fotografía en la que aparecía una escena, que podía ser una persona (vestida y de cuerpo entero), una cara, o una mesa con diferentes alimentos. De nuevo, el padre o la madre pronunciaba la palabra que denominaba, -dependiendo de la escena de que se tratase-, una parte del cuerpo, de la cara, o uno de los alimentos encima de la mesa, y el rastreador registraba la dirección y permanencia de la mirada en unos motivos u otros de la escena. El primer experimento servía para comparar el tiempo en que el bebé fijaba la mirada en cada una de las dos imágenes, de manera que un tiempo más prolongado en la palabra nombrada se interpretaba como indicativo de la comprensión de esa palabra. Y en el segundo se comparaban los tiempos de permanencia de la mirada en el elemento diana, por comparación con el tiempo en que la mirada estaba fijada en ese mismo elemento antes de que el padre o la madre pronunciasen su nombre. De este modo se descartaba que los bebés fijasen la mirada en un elemento determinado simplemente porque les resultaba más llamativo que los demás.
En total, 26 de los 33 bebés presentaron una puntuación media positiva (y estadísticamente significativa) en la identificación de los palabras objeto del experimento; o sea, cuando se les mostraban dos objetos en la pantalla, fijaban su mirada durante más tiempo en los objetos nombrados por sus padres. Y considerados los 33 bebés en conjunto, la diferencia de tiempo en que fijaban la mirada en el objeto nombrado con relación al tiempo durante el que observaban el otro objeto en la misma imagen fue altamente significativa. En el experimento en que se utilizaban escenas, en 22 de los 33 bebés la proporción de tiempo durante el que fijaron su mirada en el objeto resultó positiva y estadísticamente significativa.
Por otro lado, los resultados no eran diferentes en los bebés de menor edad que en los más mayores; esto es, la capacidad para asociar nombres a objetos era la misma en todo el intervalo entre los 6 y los 9 meses. Además, mediante experimentos adicionales a los dos principales, se observó que los bebés de entre 6 y 9 meses tenían una capacidad similar a la de bebés de más edad, de hasta 13 meses. Solo a partir de 14 meses se observaban mejoras significativas en la capacidad para comprender los nombres de los objetos utilizados en este trabajo. Los datos sugieren, de hecho, que hay una cierta discontinuidad en la capacidad de comprensión en torno a esa edad. Es posible, por lo tanto, que a partir de los 14 meses de edad se produzca un especial progreso en la adquisición de conocimiento lingüístico y el desarrollo de habilidades sociales o comunicativas.
La capacidad de los bebés para vincular ciertas palabras con los objetos que expresan es independiente de su experiencia, pues ninguna de las figuras utilizadas en las imágenes representaban objetos que les resultasen conocidos en la forma en que las observaban. Es lógico pensar que algunas de las diferencias observadas fuesen debidas al azar, pero igualmente, es muy posible que los bebés desconociesen algunas de las palabras que pronunciaban sus padres. Y además, en ningún caso se comprobó si las palabras utilizadas en los experimentos formaban parte de la experiencia de los bebés. Por eso, los datos deben ser considerados en su conjunto. Este trabajo no se diseñó para saber qué palabras concretas conocía cada bebé (en ese aso, la metodología, particularmente la estadística, tendría que haber sido diferente), sino para establecer si, en general, eran capaces de vincular palabras y objetos muy comunes. Y lo que indican los datos obtenidos es que, efectivamente, los bebés de seis meses de edad en adelante, tienen la capacidad de asociar a ciertos objetos muy comunes para ellos las palabras que los denominan. Así pues, y de acuerdo con estos experimentos, los bebés aprenden el significado de las palabras antes de lo que suponíamos.
Los niños adquieren el lenguaje muy rápidamente; a la edad de dos años conocen centenares de palabras. Pues bien, parece que, al menos en parte, esa rapidez de aprendizaje se debe al hecho de que empiezan muy temprano a aprender palabras, aunque lo hagan sin que los adultos se percaten de que las están aprendiendo. Antes de que, ni tan siquiera lleguen a balbucear algunos sonidos, ya entienden parte de lo que les dicen.
Fuente: Elika Bergelson y Daniel Swingley (2012): “At 6–9 months, human infants know the meanings of many common nouns” PNAS 109 (9): 3253-3258
Esa conclusión se ha alcanzado mediante experimentos en los que a los bebés se les mostraban imágenes de una serie de objetos (partes de la anatomía corporal, facial, o alimentos) en una pantalla a la vez que su padre o su madre pronunciaba la palabra correspondiente a cada objeto. La investigación en cuestión constó de dos experimentos principales con bebés de entre 6 y 9 meses, y otros adicionales con bebés de hasta 20 meses de edad.
En el primer experimento, a cada bebé se le mostraban dos objetos y al mismo tiempo su padre o su madre pronunciaba la palabra que denominaba uno de los dos, y lo hacía siguiendo una pauta y ritmo previamente establecido. Un rastreador de trayectoria de la pupila (eyetracker) colocado frente al bebé y conectado a un ordenador equipado con el software adecuado, permitía determinar la dirección de su mirada y el tiempo en que permanecía fija en cada objeto. En el segundo experimento, a los bebés se les mostraba una fotografía en la que aparecía una escena, que podía ser una persona (vestida y de cuerpo entero), una cara, o una mesa con diferentes alimentos. De nuevo, el padre o la madre pronunciaba la palabra que denominaba, -dependiendo de la escena de que se tratase-, una parte del cuerpo, de la cara, o uno de los alimentos encima de la mesa, y el rastreador registraba la dirección y permanencia de la mirada en unos motivos u otros de la escena. El primer experimento servía para comparar el tiempo en que el bebé fijaba la mirada en cada una de las dos imágenes, de manera que un tiempo más prolongado en la palabra nombrada se interpretaba como indicativo de la comprensión de esa palabra. Y en el segundo se comparaban los tiempos de permanencia de la mirada en el elemento diana, por comparación con el tiempo en que la mirada estaba fijada en ese mismo elemento antes de que el padre o la madre pronunciasen su nombre. De este modo se descartaba que los bebés fijasen la mirada en un elemento determinado simplemente porque les resultaba más llamativo que los demás.
En total, 26 de los 33 bebés presentaron una puntuación media positiva (y estadísticamente significativa) en la identificación de los palabras objeto del experimento; o sea, cuando se les mostraban dos objetos en la pantalla, fijaban su mirada durante más tiempo en los objetos nombrados por sus padres. Y considerados los 33 bebés en conjunto, la diferencia de tiempo en que fijaban la mirada en el objeto nombrado con relación al tiempo durante el que observaban el otro objeto en la misma imagen fue altamente significativa. En el experimento en que se utilizaban escenas, en 22 de los 33 bebés la proporción de tiempo durante el que fijaron su mirada en el objeto resultó positiva y estadísticamente significativa.
Por otro lado, los resultados no eran diferentes en los bebés de menor edad que en los más mayores; esto es, la capacidad para asociar nombres a objetos era la misma en todo el intervalo entre los 6 y los 9 meses. Además, mediante experimentos adicionales a los dos principales, se observó que los bebés de entre 6 y 9 meses tenían una capacidad similar a la de bebés de más edad, de hasta 13 meses. Solo a partir de 14 meses se observaban mejoras significativas en la capacidad para comprender los nombres de los objetos utilizados en este trabajo. Los datos sugieren, de hecho, que hay una cierta discontinuidad en la capacidad de comprensión en torno a esa edad. Es posible, por lo tanto, que a partir de los 14 meses de edad se produzca un especial progreso en la adquisición de conocimiento lingüístico y el desarrollo de habilidades sociales o comunicativas.
La capacidad de los bebés para vincular ciertas palabras con los objetos que expresan es independiente de su experiencia, pues ninguna de las figuras utilizadas en las imágenes representaban objetos que les resultasen conocidos en la forma en que las observaban. Es lógico pensar que algunas de las diferencias observadas fuesen debidas al azar, pero igualmente, es muy posible que los bebés desconociesen algunas de las palabras que pronunciaban sus padres. Y además, en ningún caso se comprobó si las palabras utilizadas en los experimentos formaban parte de la experiencia de los bebés. Por eso, los datos deben ser considerados en su conjunto. Este trabajo no se diseñó para saber qué palabras concretas conocía cada bebé (en ese aso, la metodología, particularmente la estadística, tendría que haber sido diferente), sino para establecer si, en general, eran capaces de vincular palabras y objetos muy comunes. Y lo que indican los datos obtenidos es que, efectivamente, los bebés de seis meses de edad en adelante, tienen la capacidad de asociar a ciertos objetos muy comunes para ellos las palabras que los denominan. Así pues, y de acuerdo con estos experimentos, los bebés aprenden el significado de las palabras antes de lo que suponíamos.
Los niños adquieren el lenguaje muy rápidamente; a la edad de dos años conocen centenares de palabras. Pues bien, parece que, al menos en parte, esa rapidez de aprendizaje se debe al hecho de que empiezan muy temprano a aprender palabras, aunque lo hagan sin que los adultos se percaten de que las están aprendiendo. Antes de que, ni tan siquiera lleguen a balbucear algunos sonidos, ya entienden parte de lo que les dicen.
Fuente: Elika Bergelson y Daniel Swingley (2012): “At 6–9 months, human infants know the meanings of many common nouns” PNAS 109 (9): 3253-3258
Cultura y evolución humana
El pasado 25 de mayo, Naukas en colaboración con la Cátedra de Cultura
Científica de la UPV/EHU, organizó una sesión de divulgación científica
titulada “El Universo en un día”. En dicha sesión se enmarca la
siguiente charla (de 33 min de duración), titulada “Cultura y evolución
humana”:
Tanganika, 1962: El mayor ataque de risa de la historia
El 30 de enero de 1962 tres niñas, alumnas una residencia femenina de Kashasha, en la costa del Lago Victoria, en el país que entonces se conocía como Tanganika, empezaron a bromear en clase. Sus risas cantarinas contagiaron a sus compañeras, que se pusieron a reír, al principio, divertidas; a las horas, histéricamente. 95 de las 159 alumnas de la escuela cayeron contagiadas por el ataque, que duraba entre 8 horas y 16 días en los casos más graves. Los profesores no se vieron afectados pero no podían concentrarse, de modo que el colegio tuvo que cerrar sus puertas el 18 de marzo.
Lo peor estaba por llegar: una vez cerrada la escuela, las niñas fueron enviadas a sus respectivos hogares, dispersando la epidemia de risas. Diez días después del cierre, el 28 de marzo, llegó al asentamiento de Nshamba, 80 kilómetros al oeste, donde vivían varias de las niñas. Durante los meses siguientes, 217 personas de los 10.000 habitantes sufrían continuos ataques de risa, sumando adultos de ambos sexos y las mismas niñas que llevaron la risa.
Entre tanto, la epidemia de risa llegó a otra escuela secundaria en las afueras de Bukoba, en las proximidades de la primera. En esta ocasión fueron 48 las niñas afectadas de un total de 154. Una vez más, la escuela se vio obligada a cerrar y las alumnas enviadas a sus respectivos hogares, con el consiguiente contagio de los habitantes de los pueblos de Kanyangereka, Ramashenye y otros pueblos del área. El ataque de risa traspasó las fronteras de lo que hoy es Tanzania para penetrar en Uganda.
Risueñas niñas ugandesas.
Si, llegados a este punto, crees que los afectados se lo estaban pasando bucanero con sus risas, estás muy equivocado. Los síntomas de los ataques -según el prolijo relato de los hechos realizado por dos médicos que analizaron los hechos- consistían en “ataques de risa y llanto durante unos minutos o unas horas, seguidos por períodos de descanso y vuelta a empezar”. Algunos de los afectados empezaron a pensar que alguien les perseguía. Unas cuantas alumnas no pudieron acabar el curso, por los efectos secundarios del ataque.
¿Qué causó la risa? ¿Un virus, una histeria colectiva o un chiste extraordinariamente gracioso? “No lo sabemos”, dice el psiquiatra Kroeber Rugenetinu, que tuvo ocasión de investigar los acontecimientos en directo, en el documental “Laughology”, que se interesó por el caso. Los médicos tomaron muestras de sangre de los afectos y los enviaron a Europa para analizar.
El diagnóstico, según Rugenetinu: “N.A.D.: Nada Anormal Detectado”. El estudio original de los doctores Philip y Rankin, apunta una posible histeria colectiva en la que “el contagio se produce simplemente por ver reír a otra persona, independientemente de si el motivo original de la risa ha desaparecido”.
Los habitantes de Bukoba sospecharon que la harina de maíz había sido envenenada (existían precedentes, aunque entonces no se sabía: el envenenamiento con LSD de los habitantes de Point-Saint-Esprit que realizó la CIA en 1951), o incluso que la atmósfera había sido contaminada por las explosiones nucleares que se estaban llevado a cabo en el mundo.
-“Epidemia de risas en el distrito de Bukoba en Tanganyika”. La epidemia, en la Wikipedia.
Y además:
-El tarantismo de 1375 o la primera rave de la historia.
Epidemia de la risa de Tanganica
El rumor de que en 1962 habría ocurrido un brote de histeria en masa, o la enfermedad psicogénica masiva (MPI)(siglas en inglés) en, o cerca, de la aldea de Kashasha en la costa occidental del Lago Victoria en la moderna nación de Tanzania (antiguamente denominada Tanganica), cerca de la frontera de Kenia dio origen a La epidemia de risa de Tanganica
El incidente
La epidemia de risa comenzó el 30 de enero de 1962 en una escuela misionera para niñas pupilas en Kashasha. La risa comenzó con 3 muchachas y se expandió caprichosamente a lo largo de toda la escuela, afectando a 95 de 1as 159 alumnas de entre 12 y 18 años.[2][3]. Los síntomas duraron entre unas pocas horas a 16 días en las afectadas. El cuerpo docente no fue afectado pero informó que las estudiantes eran incapaces de concentrarse en sus clases. La escuela se vio obligada a cerrar el 18 Marzo de 1962.Luego de que la escuela cerrara y que las alumnas fueran enviadas a sus casas, la epidemia se extendió a Nshamba, un pueblo que hospedaba a varias de las chicas. En abril y mayo, 217 personas tuvieron ataques de risa en el pueblo, la mayoría de ellos niños en edad escolares y adultos jóvenes. La escuela de Kashasha reabrió el 21 de mayo para cerrar nuevamente a finales de junio. En junio, la epidemia de risa se extendió a la escuela media para mujeres de Ramashenye, cerca de Bukoba, afectando a 47 muchachas. Otro brote tuvo lugar en Kanyangereka y dos escuelas para niños cercanas fueron cerradas.
La epidemia de la risa de Tanganica a veces es entendida en el sentido de que miles de personas se ríen continuamente durante meses. Sin embargo, este podría no haber sido el caso. Otros informes dicen que la epidemia consistió en ocasionales ataques de risa entre grupos de personas, que se produjeron en toda la vecindad de la aldea de Kashasha a intervalos irregulares. De acuerdo a los informes, la risa causaba incapacidad cuando atacaba.[se necesita cita]. Los científicos confirman que la risa puede ser contagiosa.
La escuela de la que surgió la epidemia se cerró, los niños y los padres la transmitieron a los alrededores. Otras escuelas, la propia Kashasha, y otro pueblo, integrado por miles de personas, fueron afectados en cierta medida. Entre seis a dieciocho meses después de su inicio, el fenómeno se extinguió. Se han informado síntomas similares, a los de la risa, ocurridos a escala masiva: dolor, desmayos, problemas respiratorios, erupciones cutáneas, ataques de llanto y gritos histéricos sin sentido. En total cerraron 14 escuelas y 1000 personas se vieron afectadas.[se necesita la cita]
Fuentes
- Hempelmann, Christian F. (March 2007). «The Laughter of the 1962 Tanganyika Laughter Epidemic» (abstract). HUMOR - International Journal of Humor Research 20 (1): pp. 49–71. doi:10.1515/HUMOR.2007.003. http://www.atypon-link.com/WDG/doi/abs/10.1515/HUMOR.2007.003.
- Rankin, A.M.; Philip, P.J. (May 1963). «An epidemic of laughing in the Bukoba district of Tanganyika». Central African Journal of Medicine 9: pp. 167–170. http://www.ncbi.nlm.nih.gov/sites/entrez?cmd=Retrieve&db=PubMed&list_uids=13973013. (Only citation information available through Pubmed; the text of this article is available here.)
Enlaces externos
martes, 18 de junio de 2013
Los seres humanos destruimos una neurona por segundo
Santiago de Compostela. (Efe).- Los seres humanos destruimos una neurona por segundo, 86.400 al día, y aún así, una persona que viva 80 años tan solo habrá destruido, si no ha padecido una enfermedad neurodegenerativa, sobre un 3% de las neuronas que tiene en el cerebro.
El neurocientífico Xurxo Mariño (Lugo, 1969) utiliza, entre otros, este dato para tratar de hacer entender el inabarcable número de neuronas en el cerebro humano, unos 86.000 millones, de las que, asegura en una entrevista con Efe, se usan "todas".
Mariño es doctor en Biología por la Universidad de Santiago, profesor del departamento de Medicina de la Universidad de A Coruña, en donde participa en el grupo Neurocom y además ha estado dos años colaborando en el Massachussets Institute of Technology (MIT), en donde realizó experimentos en el departamento del encéfalo y ciencias cognitivas.
Acaba de publicar el libro Neurociencia para Julia, (ed. Laetoli), que se presenta el viernes 22 en la Domus de A Coruña y que contará con la participación del periodista especializado Antonio Martínez Ron. Se trata de un volumen "para todos los públicos" y que se diferencia de otras obras sobre el sistema nervioso en que se ha limitado a escribir "conocimientos sólidos sobre neurociencia", afirma.
"No divago, no es un ensayo. Procuré ir a lo sólido, sin irme por las ramas", asegura sobre esta obra divulgativa y de "educación científica", ya que el conocimiento científico básico es una herramienta "fundamental para actuar como ciudadano".
Mariño explica paso a paso el funcionamiento del sistema nervioso, con el encéfalo como gran protagonista, donde el cerebro es el órgano más conocido, y analiza con un lenguaje ameno y dibujos hechos por él mismo cómo a partir de impulsos eléctricos y reacciones bioquímicas entre las neuronas se va configurando la mente consciente.
Es un proceso apasionante, asegura Mariño, que no obvia las limitaciones de los estudios hasta ahora sobre la neurociencia y también el "solapamiento clarísimo" de esta disciplina con la filosofía. De hecho, asegura, hay una "frontera" entre estas áreas de conocimiento que se está moviendo y, por primera vez, "la neurociencia está respondiendo preguntas tradicionales de la filosofía".
Mariño advierte en su conversación con Efe de que el funcionamiento del sistema nervioso de los seres humanos ayuda a comprender que estamos "inventando gran parte del mundo que percibimos". Así, indica que los sonidos, los olores o los sabores "no existen más que en la mente de un ser humano", ya que fuera de ella solo hay perturbaciones del aire y sustancias químicas que son percibidas por las personas porque les han resultado "interesantes" durante su evolución como seres vivos.
Mariño también da una explicación en el libro de por qué no recordamos algo tras un golpe fuerte, e incluso justo antes, o tras un estado de ebriedad intenso y por qué se queda "la mente en blanco" o se ven algo parecido a "estrellitas", como en los dibujos animados e incluso de por qué 9 de cada 10 personas en todo el mundo son diestros.
También le gusta combatir el "mito" de que las personas no usan todas las neuronas o toda la capacidad del cerebro, ya que todas las neuronas deben tener actividad o de lo contrario "degeneran y desaparecen".
"Lo que pasa es que se les pueden dar distintos usos a través de una actividad cognitiva más intensa; lecturas reflexivas, ejercicios matemáticos y otros", asegura el investigador gallego, que sostiene que "cuando se les da más caña aumenta el número de conexiones, sinapsis, y esto genera mentes más eficaces, con más capacidad de almacenar conceptos".
Se muestra receloso de los resultados concretos que puedan obtener "proyectos hipercaros" -se habla de mil millones de dólares en diez años- sobre el estudio del cerebro impulsados a ambos lados del Atlántico como el Brain Activity Map o el Human Brain Project ya que "no parten de una hipótesis" concreta que se pueda comprobar mediante la experimentación, sino que recopilarán datos y al final, señala, a lo mejor, "no sabes nada".
¿La altura geográfica influye en cómo hablamos?
Un nuevo estudio publicado en la revista PLOS ONE revela que existe un vínculo entre la altitud geográfica de un lugar y el modo de hablar de sus habitantes. Concretamente, las poblaciones que habitan en regiones más elevadas suelen hablar idiomas en los que predominan las consonantes eyectivas, es decir, que se producen cuando una abertura brusca de la glotis expulsa el aire previamente acumulado. Hay consonantes eyectivas en el 20% de las lenguas del mundo, entre ellos el zulú. Y el 87% de los idiomas con este tipo de consonantes están en las zonas más elevadas de los continentes, situadas por encima de los 1.500 metros sobre el nivel del mar.
Por otra parte, el estudio revela cuanto más aumenta la altitud sobre el nivel del mar, más probabilidad hay de que las consonantes se pronuncien emitiendo un fuerte chorro de aire. "La geografía influye en la fonología", concluye el antropólogo Caleb Everett, de la Universidad de Miami (EE UU), que ha encontrado evidencias de esto en la cordillera norteamericana, los Andes, el rift africano y las tierras altas etíopes, así como en las montañas del Cáucaso.
"Las consonantes eyectivas se producen creando una bolsa de aire comprimido en la faringe por el doble cierre, de la boca y de la glotis, que luego se expulsa", expone Everett. Dado que la presión del aire desciende con la altitud y cuesta menos trabajo comprimir dicho aire, el investigador especula "que es más fácil producir estos sonidos por encima de los 1.500 metros sobre el nivel del mar". Además, el estudio subraya que hay que tener en cuenta que estos sonidos se generan con un mecanismo de articulación no pulmonar. Y que eso reduce la cantidad de aire exhalado por los pulmones, y evita la deshidratación en zonas elevadas del planeta.
lunes, 17 de junio de 2013
Nuevas hipótesis para averiguar el origen de las primeras poblaciones humanas de Eurasia
CGP/DICYT Durante las últimas décadas equipos
interdisciplinares de Asia y Europa han llevado a cabo trabajos sobre
yacimientos antiguos de Eurasia con el objetivo de avanzar en el
conocimiento de las primeras poblaciones humanas que acogió. Los
descubrimientos llevados a cabo tanto por parte del Equipo de
Investigación de Atapuerca (EIA) como por otros grupos de en Europa y
Asia han permitido obtener datos muy significativos en diferentes
ámbitos como son el contexto geológico, paleontológico y paleocológico
en que se desarrollaron, la evolución biológica y la paleobiología
humana, así como la evolución tecnológica y la paleoeconomía.
Estos fueron los aspectos principales que se analizaron en el workshop internacional que se llevó a cabo en octubre de 2010 en Shanghai con motivo de la EXPO, en el que el pabellón español tuvo una presencia relevante. Ahora, la prestigiosa revista Quaternary International ha publicado un número especial sobre las primeras poblaciones humanes en Eurasia con el título de East meets west: First settlements and human evolution in Eurasia, fruto de aquel Workshops, según la información del IPHES recogida por DiCYT.
Entre los editores del volumen hay tres miembros del IPHES (Instituto Catalán de Palecología Humana y Evolución Social): Ethel Allué, Carlos Lorenzo y Eudald Carbonell, tarea que han llevado a cabo junto con Ya-Mei Hou (IVPP Institute of Vertebrate Paleontology and Paleoanthropology), Ana Mateos (CENIEH, Centro Nacional de Investigación sobre la Evolución Humana), Juan Luis Arsuaga (Universidad Complutense de Madrid-Instituto de Salud Carlos III) y José María Bermúdez de Castro (CENIEH).
Tanto el workshop como la publicación de sus resultados ha sido posible gracias al apoyo de la SEEI (Sociedad Estatal para Exposiciones Internacionales), la Fundación Atapuerca y la Universidad de Fudan. De la coordinación se han encargo el IPHES, el IVPP y CENIEH.
Investigación multidisciplinaria
"Uno de los intereses principales del workshop y que se constatan en el Quaternary International es el hecho de poder disfrutar de una doble perspectiva de la cuestión, con las visiones europeas y las asiáticas. De esta manera se ha podido dar un paso más en los estudios para el desarrollo de la investigación multidisciplinaria. Las evidencias sobre los diferentes temas tratados, la discusión sobre los aspectos más controvertidos contribuyen a la propuesta de nuevas hipótesis sobre las primeras poblaciones humanes de Eurasia ", apunta la investigadora Ethel Allué.
Estos fueron los aspectos principales que se analizaron en el workshop internacional que se llevó a cabo en octubre de 2010 en Shanghai con motivo de la EXPO, en el que el pabellón español tuvo una presencia relevante. Ahora, la prestigiosa revista Quaternary International ha publicado un número especial sobre las primeras poblaciones humanes en Eurasia con el título de East meets west: First settlements and human evolution in Eurasia, fruto de aquel Workshops, según la información del IPHES recogida por DiCYT.
Entre los editores del volumen hay tres miembros del IPHES (Instituto Catalán de Palecología Humana y Evolución Social): Ethel Allué, Carlos Lorenzo y Eudald Carbonell, tarea que han llevado a cabo junto con Ya-Mei Hou (IVPP Institute of Vertebrate Paleontology and Paleoanthropology), Ana Mateos (CENIEH, Centro Nacional de Investigación sobre la Evolución Humana), Juan Luis Arsuaga (Universidad Complutense de Madrid-Instituto de Salud Carlos III) y José María Bermúdez de Castro (CENIEH).
Tanto el workshop como la publicación de sus resultados ha sido posible gracias al apoyo de la SEEI (Sociedad Estatal para Exposiciones Internacionales), la Fundación Atapuerca y la Universidad de Fudan. De la coordinación se han encargo el IPHES, el IVPP y CENIEH.
Investigación multidisciplinaria
"Uno de los intereses principales del workshop y que se constatan en el Quaternary International es el hecho de poder disfrutar de una doble perspectiva de la cuestión, con las visiones europeas y las asiáticas. De esta manera se ha podido dar un paso más en los estudios para el desarrollo de la investigación multidisciplinaria. Las evidencias sobre los diferentes temas tratados, la discusión sobre los aspectos más controvertidos contribuyen a la propuesta de nuevas hipótesis sobre las primeras poblaciones humanes de Eurasia ", apunta la investigadora Ethel Allué.
Suscribirse a:
Entradas (Atom)