viernes, 5 de diciembre de 2014

Ventajas de la torpeza

Ya se trate de aprender a escribir, de dominar el revés en el tenis o de tocar la guitarra, los errores inevitables pueden desesperar incluso a los aprendices más voluntariosos. Hasta ahora se pensaba que estos desaciertos se debían al ruido neuronal que presentan las regiones cerebrales responsables del control de los movimientos. Un fenómeno que, por otra parte, puede superarse con unas buenas dosis de práctica. Sin embargo, tales inconsistencias no siempre representan un obstáculo, puesto que pueden resultar un ingrediente clave para el aprendizaje, según recalca un estudio publicado en enero en Nature ­Neuroscience.
Los investigadores mostraron a una serie de probandos una curva que debían copiar sin ver la figura que trazaba su mano. Al principio, todos dibujaron la curva mal, aunque algunos bastante peor que los demás. Durante la fase de aprendizaje se puntuó cada trazado según su parecido con el modelo. Tras cientos de repeticiones y de forma gradual, los sujetos reprodujeron curvas cada vez más acertadas. Ahora bien, quienes en un inicio se habían desviado más del modelo original consiguieron curvas más precisas que los que habían mostrado una menor irregularidad inicial. Otro experimento reforzó este resultado: cuando los experimentadores provocaron cierta variabilidad en el movimiento, mediante un campo de fuerzas que hacía desviar la mano del objetivo, los sujetos aprendían el movimiento con mayor rapidez.
Unas fluctuaciones más grandes podrían deberse a que el cerebro explora el espectro completo de acciones posibles, de manera que estas convergen hacia movimientos precisos más rápidamente que si lo hace a través de una búsqueda restringida. Maurice Smith, de la Universidad Harvard, propone que la creación de un perfil del repertorio de movimientos podría facilitar la rehabilitación de las personas que han sufrido un infarto cerebral. «A partir de la variabilidad de movimientos podríamos centrarnos en el tipo de tareas que estos pacientes pueden aprender mejor», señala. Los resultados sugieren, asimismo, que no debemos desesperarnos si al aprender una actividad cometemos errores: esa torpeza puede ser clave para mejorar con presteza.

lunes, 20 de octubre de 2014


jueves, 18 de septiembre de 2014

Esta diferencia es el principal rasgo distintivo de nuestra especie, según un estudio de genómica

  Las caras humanas son mucho más variadas que las de los animales en general. Fuente: UC Berkeley.
 Las caras humanas son mucho más variadas que las de los animales, lo que significa que evolutivamente es el elemento del cuerpo que hemos preferido para distinguirnos unos de otros. Un estudio del genoma de seres humanos de varios continentes demuestra que las partes del mismo asociadas con los rasgos faciales son mucho más diversas que las de otros rasgos, como la longitud de las extremidades.
 
 La gran variedad de los rostros humanos no tiene comparación en el reino animal. Que la cara de cada persona sea única e irrepetible es el resultado de presiones evolutivas que han conseguido evitar el caos en la identidad dentro de grupos sociales complejos, según un nuevo estudio publicado en la revista Nature Communications.

Un equipo de científicos, liderado por la Universidad de California en Berkeley (EE UU), midió los rasgos faciales y corporales humanos para mostrar que los rostros de las personas son mucho más variables en su forma y diseño que en otros animales.

“Se analizaron los datos genéticos de poblaciones de África, Europa y Asia del proyecto 1.000 Genomas para buscar firmas de la selección natural en las regiones del genoma asociadas con la variación en la morfología facial humana”, explica a Sinc Michael Joseph Sheehan, autor principal del trabajo e investigador de la Universidad de California.

Los científicos se preguntaron si los humanos tienen caras inusualmente únicas –en comparación con otros animales– porque la selección ha propiciado que sean fácilmente reconocibles. “Si este fuera el caso", añade el experto, "las zonas del genoma asociadas con patrones faciales tendrían niveles elevados de diversidad genética dentro de las poblaciones. El resultado es que esa es la realidad”.

Los investigadores encontraron que los rasgos faciales son mucho más variables que los corporales, tales como la longitud de la mano. Las personas con brazos más largos, por ejemplo, suelen tener las piernas más largas, mientras que los humanos con narices más anchas o de ojos muy separados no tienen por qué lucir narices largas.

Asimismo, el hallazgo significa que las presiones evolutivas han intervenido para mantener altos niveles de diversidad en los rostros.

“Muchas otras especies utilizan las caras para el reconocimiento individual. Este tipo de identificación está presente en muchos primates e incluso se ha demostrado su papel en algunas avispas. Otras especies sin variaciones en sus caras pueden utilizar otros rasgos tales como vocalizaciones o marcas olfativas para el reconocimiento. Sin embargo, no hay evidencias de que este tipo de rasgos también sean seleccionados para ser más diferentes entre sí”, apunta el investigador. La gran variedad de los rostros humanos no tiene comparación en el reino animal. Que la cara de cada persona sea única e irrepetible es el resultado de presiones evolutivas que han conseguido evitar el caos en la identidad dentro de grupos sociales complejos, según un nuevo estudio publicado en la revista Nature Communications.

Un equipo de científicos, liderado por la Universidad de California en Berkeley (EE UU), midió los rasgos faciales y corporales humanos para mostrar que los rostros de las personas son mucho más variables en su forma y diseño que en otros animales.

“Se analizaron los datos genéticos de poblaciones de África, Europa y Asia del proyecto 1.000 Genomas para buscar firmas de la selección natural en las regiones del genoma asociadas con la variación en la morfología facial humana”, explica a Sinc Michael Joseph Sheehan, autor principal del trabajo e investigador de la Universidad de California.

Los científicos se preguntaron si los humanos tienen caras inusualmente únicas –en comparación con otros animales– porque la selección ha propiciado que sean fácilmente reconocibles. “Si este fuera el caso", añade el experto, "las zonas del genoma asociadas con patrones faciales tendrían niveles elevados de diversidad genética dentro de las poblaciones. El resultado es que esa es la realidad”.

Los investigadores encontraron que los rasgos faciales son mucho más variables que los corporales, tales como la longitud de la mano. Las personas con brazos más largos, por ejemplo, suelen tener las piernas más largas, mientras que los humanos con narices más anchas o de ojos muy separados no tienen por qué lucir narices largas.

Asimismo, el hallazgo significa que las presiones evolutivas han intervenido para mantener altos niveles de diversidad en los rostros.

“Muchas otras especies utilizan las caras para el reconocimiento individual. Este tipo de identificación está presente en muchos primates e incluso se ha demostrado su papel en algunas avispas. Otras especies sin variaciones en sus caras pueden utilizar otros rasgos tales como vocalizaciones o marcas olfativas para el reconocimiento. Sin embargo, no hay evidencias de que este tipo de rasgos también sean seleccionados para ser más diferentes entre sí”, apunta el investigador.
 
Ya en los neandertales

Este es el primer estudio en animales que ha proporcionado pruebas de selección de señales de identidad mediante el análisis de la variación genética.

"Está claro que reconocemos a la gente por muchos rasgos –por ejemplo, su altura o su modo de andar– pero nuestros hallazgos sostienen que pero las facciones de la cara son las más determinantes", concluye Sheehan.

Las similitudes en estas regiones específicas del genoma, en comparación con las secuencias de los neandertales, también indican que esta variación puede incluso preceder al origen de los humanos modernos.

“Al comparar la variación genética que se encuentra en los humanos modernos con las secuencias del genoma de los neandertales y los homínidos de Denisova (otro homínido arcaico) encontramos que las secuencias de los individuos antiguos se encuentran dentro de la diversidad humana moderna. Esto significa que la variación que vemos en los humanos modernos debe haberse originado antes de la división entre los linajes humanos y neandertales”, asegura el científico.

jueves, 4 de septiembre de 2014

Los simios líderes y sus súbditos tienen cerebros diferentes


Un estudio publicado en la revista Plos Biology, y realizado por investigadores de la Universidad de Oxford, ha demostrado que los simios que ejercen de líderes y sus súbditos muestran patrones cerebrales diferentes. Los expertos estudiaron los cerebros de macacos que vivían en grupos de cinco individuos, con lo que resultaba bastante fácil diferenciar que ejemplar ejercía el rol dominante. Y lo que observaron es que en aquellos que mostraban liderazgo, tenían más desarrolladas tres regiones cerebrales, concretamente la amígdala, el hipotálamo y el núcleo del rafe. Mientras que sus seguidores, tenían más desarrollada el área concoida como cuerpo estriado.
"Es revelador que las tres áreas que los macacos líderes tienen más desarrolladas sean aquellas involucradas en cuestiones como la negociación", explica la doctora Mary Ann Noonan, directora del estudio.
La trascendencia de este descubrimiento reside en que apunta a la posibilidad de que el rol dominante en el mundo animal (al menos en lo que se refiere a los primates) no depende únicamente del tamaño físico del individuo y en lo amenazador que pueda resultar a los demás. "Es probable que sean ambas cuestiones las que influyan en el liderazgo de los primates, su fuerza física y su disposición cerebral para dominar al resto", explica Noonan. "Igual que sus cuepros y sus músculos han evolucionado para daptarse a ese rol, sus cerebros también lo han hecho".
Pero, ¿son extrapolables estas conslusiones al ser humano? "Hay que comprobarlo, pero en principio es factible que sea así", asegura la experta. "Poseemos las mismas áreas cerebrales que los macacos, involucradas además en funciones idénticas".

martes, 12 de agosto de 2014

Exceso de estrés borrará tu memoria


Descubren que la producción de cortisol reduce la materia gris en la zona del hipocampo.










El daño causado por el exceso de la hormona del estrés es irreversible. Investigadores españoles han demostrado en un ensayo realizado por primera vez en humanos que la hormona del estrés, denominada cortisol, provoca una pérdida de la memoria.
El estudio fue elaborado por el Centro de Investigación Biomédica en Red de Enfermedades Raras (Ciberer), organismo público español, y el Hospital de Sant Pau de Barcelona (este de España).
La investigadora Eugenia Resmini explicó que el trabajo se basó en resonancias magnéticas a pacientes con síndrome de Cushing, una enfermedad rara en la que el propio cuerpo genera un exceso de cortisol.

Aunque en principio los pacientes ya estaban curados, los investigadores descubrieron que se había reducido la materia gris en la zona del hipocampo del cerebro, lo que provocaba las pérdidas de memoria.

Esta disfunción neuronal se explica porque, por un lado, disminuye el metabolito N-acetilaspartato, lo que indica que la materia gris está dañada, al tiempo que aumentan las sustancias glutamato y glutamina, que demuestran que, en cambio, crece la materia blanca del cerebro, como un mecanismo compensatorio.
El hecho de que los pacientes estuviesen ya curados demuestra que el daño causado por el exceso de la hormona del estrés es irreversible, explicó Resmimi, quien apuntó que el estudio abre nuevas vías de investigación como, por ejemplo, comprobar los daños que genera el estrés crónico diario.
También señaló que sería útil hacer un seguimiento de los pacientes que se tratan con altas dosis de fármacos glucocorticoides, como la cortisona, ya que son antiinflamatorios que imitan la acción del cortisol, la hormona del estrés.
El trabajo, que se presentó en el Congreso Europeo de Endocrinología celebrado del 27 de abril al 1 de mayo, se ha basado en el estudio de 18 pacientes con síndrome de Cushing y 18 personas sanas como grupo de control.
La relación entre la hormona del estrés y la pérdida de memoria se había estudiado en animales, pero hasta ahora no había ninguna investigación basada en humanos que probase esta relación.

viernes, 1 de agosto de 2014

La oscuridad hizo más listo al ser humano



























Según una investigación reciente de la Universidad Libre de Ámsterdam, los esquemas almacenados en el cerebro hacen que interpretemos los datos visuales de una u otra manera.

Este mecanismo se exacerbaría en la oscuridad: psicólogos como Richard Wiseman han hecho notar que las visiones espectrales se manifiestan casi siempre durante las horas en las que se producen claroscuros.

El estudio mencionado explica que, por ejemplo, solemos deducir cuál es la reflectancia –cantidad de luz reflejada por la superficie– de los objetos a partir de sus sombras, que sirven de base para componer toda la figura.


Evidentemente, este proceso produce muchos fallos, pero también estimula nuestra psique. El antropólogo británico Chris Stringer nos recuerda que el cerebro del Homo sapiens, menos voluminoso que el de los neandertales, tiene más desarrollados los lóbulos temporales y la corteza orbitofrontal, áreas relacionadas con la capacidad de anticiparse y desentrañar aquello que desconocemos.


La profesora de la Universidad de Oxford Eiluned Pearce completa esa idea. En un estudio publicado en la revista Proceedings of the Royal Society B Journal llegaba a la conclusión de que la extraordinaria agudeza visual del Homo neanderthalensis fue en realidad su perdición, pues esa ventaja con respecto a nuestra especie redujo sus lóbulos frontales.

De algún modo, fue en detrimento de su capacidad para imaginar y adentrarse en los límites del pensamiento. Quizá somos los descendientes de quienes supieron adaptarse a la noche: su cerebro era más apto para descifrar los misterios de las tinieblas.

miércoles, 30 de julio de 2014

¿Cómo influyen los genes en la percepción del dolor?



Como-influyen-los-genes-en-la-percepcion-del-dolor-1.jpg Wavebreakmedia Ltd/Wavebreak Media/Thinkstock
Aunque la sensación de dolor no sea algo placentero y de vez en cuando hubiéramos deseado no tenerla en lo absoluto, lo cierto es que esta cumple una función crucial en nuestras vida: la de alejarnos de aquellas cosas dañinas para el organismo. Pero, al parecer, ni todos sentimos de la misma manera ni todos tenemos esta capacidad. Los científicos se han preguntado en los últimos tiempos cuál es el rol de los genes en la percepción del dolor. He aquí qué se sabe acerca de ello.
Ver también: 5 curiosidades sobre el dolor

¿Todos sentimos dolor?

Los responsables de percibir el dolor en el cuerpo humano son los llamados nervios sensitivos del dolor o nociceptores, quienes envían señales a la médula espinal, que a su vez se interconectan con varias partes del cerebro. Pero a lo largo de este proceso de transmisión participan determinadas proteínas que son sintetizadas en los códigos genéticos. ¿Pero es posible que no todos sintamos dolor?
La insensibilidad congénita al dolor es una afección que aparece muy rara vez en la población. Las personas que la padecen no sienten dolor. Es una condición genética que afecta solo la percepción del dolor, no el sentido del tacto.
Como-influyen-los-genes-en-la-percepcion-del-dolor.jpg moodboard/moodboard/Thinkstock
Los niños que sufren esta enfermedad están siempre en peligro, pues el desafío propio de la infancia y la adolescencia los coloca en situaciones de riesgo. Justamente, el dolor nos previene de cometer acciones que podrían ser fatales para nuestras vidas.
Ver también: ¿Cómo actúa la morfina para calmar el dolor?

Genes que influyen en la percepción del dolor

Como decíamos, el proceso de percepción del dolor es complejo e involucra las cadenas de ADN. Cualquier mutación puede romper estos enlaces y afectar los nervios de la sensibilidad. Las personas que padecen insensibilidad congénita al dolor tienen afectados algunos genes responsables de esta tarea.
Cuando esto sucede, estos genes dejan de codificar las proteínas necesarias. Los científicos han encontrados dos tipos principales de genes involucrados en la percepción dolorosa.
Como-influyen-los-genes-en-la-percepcion-del-dolor-2.jpg Purestock/Thinkstock
Primero, los que garantizan las proteínas encargadas del desarrollo y la cantidad de noniceptores. Segundo, los que codifican las proteínas responsables de la actividad propiamente de los nervios sensitivos del dolor. Es un sistema de señales eléctricas que permite la sensibilidad al dolor.
Este grupo de genes incluyen códigos para unas estructuras llamadas canales de iones, encargados químicamente de detectar y transmitir información relacionada con el dolor.
Finalmente, es importante decir que, si establecemos que los cambios genéticos influyen en cómo sentimos dolor, es lógico que estas respuestas del cuerpo sean distintas para cada persona en dependencia de sus propias cadenas genéticas. Ante la más sutil alteración de los códigos pudiera haber una variación el comportamiento del organismo. Y esto ocurre justamente por la función central que ocupan los genes en la percepción del dolor.

miércoles, 23 de julio de 2014

La complejidad

Dirigido por Charles H. Lineweaver, Paul C. W. Davis y Michael Ruse. Cambridge University Press; Cambridge, 2013.

Existe una idea muy extendida de que el universo en general, y la vida en particular, se van haciendo cada vez más complejos con el tiempo. Para admitir que el mundo físico es extraordinariamente complejo basta con mirar a nuestro alrededor. De las moléculas a los cúmulos galácticos, se observa una superposición de capas de estructuras y de procesos complejos. El éxito de la empresa científica a lo largo de los últimos 300 años parte en buena medida del supuesto de que, en el universo, más allá de la complejidad que reina en la superficie, existe una elegante simplicidad matemática. Desde hace unos años, favorecido por la disponibilidad de una computación rápida y poderosa, la ciencia ha buscado principios generales que gobiernen la complejidad. Se han abordado diferentes formas de complejidad, desde el apilamiento caótico de rocas hasta la organización exquisita de un ser vivo.
El progreso espectacular registrado en física de partículas o atómica se debe a que se deja de lado la complejidad de los materiales para centrarse en sus últimos componentes, bastante más sencillos. Los adelantos en cosmología dejan en buena medida de lado las complicaciones de la estructura galáctica y abordan el universo desde un enfoque simplificado. Las técnicas aplicadas a la física de partículas y a la cosmología no sirven para descubrir la naturaleza y el origen de la complejidad biológica, que parece emerger sin cesar. La evolución darwinista explica cómo apareció la complejidad biológica, pero no aporta ningún principio general de por qué surgió. La supervivencia del mejor adaptado no es necesariamente la supervivencia del más complejo. Los físicos se esfuerzan por alcanzar una definición unificada de complejidad, mientras que los biólogos y científicos de la complejidad describen su naturaleza.
Pero ¿qué es la complejidad? ¿Por qué aumenta? A este concepto interdisciplinar se han asociado otros: entropía, orden, información, computación, emergencia o energía libre. Pero no es fácil extender nociones que tienen un significado propio en una disciplina a otra. La energía libre posee un sentido propio en física y química, de difícil encaje en biología; dígase lo propio de la entropía, la información y la computación. Sobre los conceptos orden y emergencia reina una enorme confusión por su vaguedad. Incluso conceptos que creemos unívocos y asentados carecen de límites precisos. Tal el concepto de gen.
Decenios de análisis han desembocado en la creencia común de que el gen constituye una entidad perfectamente definida, que se expresa en una función nítida. En medios científicos, médicos sobre todo, se supone que se trata de una secuencia específica de información genética que, cuando se convierte en ARN mensajero, codifica una proteína. Solo habría que vincular enfermedades con sus genes subyacentes. Entre los genetistas, sin embargo, la noción de gen se ha tornado harto borrosa. Allí donde antaño se veían genes acotados e individualizados, que producían transcriptos de ARN, perciben ahora una masa caótica de ARN. Se pone en cuestión la vieja esperanza de la reducción de problemas biológicos complejos a una interpretación mecanicista del ADN. Ni siquiera se ponen de acuerdo los expertos en centrar en los genes la atención principal con sacrificio de otras partes del genoma, las proteínas o la interacción mutua en distintos tejidos.
Los cosmólogos sostienen que un segundo después de la gran explosión (big bang), hace 13.800 millones de años, el universo era una sopa uniforme de protones, neutrones, electrones y neutrinos, partículas subatómicas bañadas en una radiación uniforme. De la misma surgieron, andando el tiempo, múltiples niveles de complejidad que jalonaron la evolución del universo. A medida que el universo se enfriaba y expandía, la materia no solo se agregaba en estructuras, sino que empezó un proceso de diferenciación progresiva que continúa hasta hoy. El primer estadio fue la formación de helio (He) durante los tres primeros minutos, de modo que la composición química del material cosmológico constaba de hidrógeno (H) y He. Con la formación de las galaxias, unos 400 millones de años más tarde, nacieron las primeras estrellas y se añadieron elementos más pesados que el H y el He; y se diseminaron en las regiones interestelares por explosiones de supernova. Se liberó así el potencial para una variedad casi ilimitada de formas materiales sólidas, que iban de granos finísimos a los planetas.
Con la aparición de los planetas con superficies sólidas, el camino quedaba expedito para el enriquecimiento ulterior de formas materiales a través de cristalización y formación de sustancias amorfas. Las posibilidades fueron astronómicas. La historia de la materia es la historia de una complejidad creciente. Quedémonos en el humilde copo de nieve para comprobar que incluso una población de cristales de hielo puede combinarse en múltiples patrones de filigranas hexagonales, pues quizá no haya habido dos copos de nieve iguales en la historia de la Tierra. Una historia similar cabe aplicar a casi todas las estructuras sólidas; no hay dos rocas de idéntica composición interna o forma externa. La distribución de los objetos no conoce límites. Sin embargo, el futuro del universo será de simplicidad incesante como resultado de la expansión acelerada.
Otro tanto puede aplicarse a los fluidos: no hay dos nubes iguales, ni dos océanos con idéntico patrón de flujo, ni hay dos pautas de convección planetarias iguales (ni, por tanto, dos pautas de campos magnéticos), ni dos patrones de viento estelar, ni dos lluvias de rayos cósmicos, ni... El principio de esa explosión de diversidad puede buscarse en la ruptura de la simetría.
Una de las predicciones principales de todos los tiempos fue realizada en 1852 por el físico William Thomson (lord Kelvin). A partir de las leyes de la termodinámica y la naturaleza de la entropía, Thomson llegó a la conclusión de que el universo se estaba muriendo. La segunda ley de la termodinámica, que había sido formulada años antes por Clausius, Maxwell, Boltzmann y otros, establece que, en un sistema físico aislado, la entropía total (la medida del desorden) no puede disminuir nunca. Todos los procesos físicos, mientras pueden producir una caída de entropía en una región local, entrañan siempre una subida de entropía en cualquier otro lugar que compense lo anterior, de suerte que el resultado neto sea un aumento de la entropía total. Aplicado al universo en su totalidad, la segunda ley predice un crecimiento inexorable de la entropía global con el tiempo y un crecimiento concomitante del desorden. El aumento de entropía debe ahora definirse en referencia a un volumen en expansión del espacio. Una visión simple de la segunda ley de la termodinámica es que el universo comenzó en un estado bajo de entropía, entropía que ha ido en aumento desde entonces y seguirá creciendo en el futuro.
La creciente complejidad del universo se realiza a costa de un aumento de la entropía del campo gravitatorio: mientras la materia y la radiación disfrutan de una energía libre sostenida en virtud del campo para promover procesos complicados, el propio campo gravitatorio paga el precio en su ser desordenado. De modo que la entropía total del universo aumenta incluso cuando crece la riqueza, complejidad y diversidad de sus contenidos. Un campo gravitatorio de baja entropía presenta una forma simple, mientras que un campo de entropía elevada es complejo.
La complejidad no puede aumentar en el tiempo sin una fuente de energía libre para generarla o transferirla. Ello solo es posible si el universo no se encuentra en un estado de equilibrio termodinámico (de muerte térmica). Ejemplo bien conocido de la emergencia de la complejidad y del concomitante incremento de la entropía (o caída de energía libre) que hay que pagar por ello es la estructura organizada de un huracán, que solo es posible por la existencia (y baja entropía) de gradientes de presión, temperatura y humedad. También ofrece otro ejemplo el origen de la vida instado por la explotación de alguna forma de potencial químico redox. La entropía constituye el grado de desorden de un sistema; ello implica que es el orden, y no la complejidad, lo que desempeña un papel inverso. No hay, pues, incompatibilidad entre avanzar en complejidad y avanzar en entropía.
Puesto que la complejidad física requiere la explotación de gradientes de energía libre, el desarrollo de cualquier tipo de complejidad está vinculado a la disminución de energía libre y al incremento de entropía, en conformidad con la segunda ley de la termodinámica. Ahora bien, que el desarrollo de la complejidad sea coherente con la segunda ley no significa que sea explicado por ella. Numerosos autores han reconocido que la entropía y la segunda ley guardan un nexo fundamental con la complejidad. Pero no se trata de una simple relación inversa.
Con la formación de planetas, se abre la puerta a la formación de la vida y el desarrollo de la complejidad biológica. Parece incuestionable que la biosfera es hoy mucho más compleja que cuando la vida apareció sobre la Tierra. (Nadie sabe cuándo ocurrió, pero existe un acuerdo general en fijar esa época hace algo más de 3500 millones de años.) No podemos separar la complejidad de los organismos de la complejidad de su entorno. Un individuo humano es más complejo que una bacteria y una pluviselva más compleja que una colonia de bacterias. Darwin adoptó la metáfora del árbol para describir la evolución, con sus ramas y puntos de separación. Un árbol evolutivo es manifiestamente asimétrico con el tiempo: resulta completamente distinto si lo miramos de arriba abajo. Las mutaciones pueden causar que una especie se divida en dos por divergencia genómica, pero no encontraremos nunca dos especies que se fundan en una (salvo en el exclusivo caso de la endosimbiosis), por la sencilla razón de que es infinitésima la probabilidad de que diferentes secuencias genómicas que representan dos especies acometan las mutaciones requeridas para convertirse en una idéntica.
No existe una ley absoluta sobre la complejidad biológica, aunque se han documentado dos tendencias en la escala de la historia de la vida: el tamaño corporal y la jerarquía (célula procariota, célula eucariota, individuo multicelular, colonia). Si el Sol explotara mañana y destruyera toda la vida, habría que partir de cero para la emergencia de esta. Y por lo que se refiere a la biosfera en su globalidad, la evolución de la complejidad no es vía de dirección única.
La complejidad biológica puede hallarse en una especialización incrementada de partes corporales tales como la duplicación y subsiguiente diferenciación de extremidades animales, en las relaciones entre especies y en las redes de ecosistemas. Aunque el grado de especialización parece un criterio razonable de complejidad biológica, existen numerosos ejemplos en la historia de la vida sobre la Tierra en los que la especialización ha conducido a la extinción, mientras que la simplificación ha conducido a un éxito adaptativo y a la supervivencia. Con otras palabras, la macroevolución exhibe tendencias en una doble dirección: hacia la complejidad y hacia la simplicidad.
Cabe la posibilidad de que la vida haya encontrado y refinado las principales soluciones operativas de los problemas de supervivencia y reproducción, de que la diversidad de la vida tenga saturado el espacio de complejidad y que la complejidad se esté acercando a sus límites. Salvo la complejidad neural, que podría no haber alcanzado su apoteosis en los humanos. Aunque el cerebro de los vertebrados conoció varios incrementos de tamaño, la encefalización rampante se inició en los últimos 20 millones de años. Los datos actuales dan 18 millones de años para el cerebro del delfín, 7 millones de años para los homínidos y quizá la misma cifra para los cuervos de Nueva Caledonia. El cerebro humano constituye la entidad más compleja del universo. Cuando la información suministrada por el entorno cambia con una celeridad que impide ser incorporada en los genes (es decir, cambios en el medio a una escala temporal inferior a una generación), puede incorporarse en las capacidades de información biológica del cerebro. Igual que la complejidad biológica, la complejidad cultural dependería, en última instancia, de la complejidad física.

¿Pueden los animales seguir el ritmo?

Pueden-los-animales-seguir-el-ritmo.jpg 
Si bien seguir el compás de la música cuando está sonando es algo que los seres humanos hacemos casi de manera espontánea, lo cierto es que muy pocos organismos lo consiguen. La rareza de esta habilidad ha hecho que los científicos se pregunten si los animales pueden seguir el ritmo. Veamos qué se sabe al respecto.
Ver también: 7 problemas que la música puede solucionar

El cerebro humano y el ritmo

Los científicos llaman seguir el ritmo a lograr una sincronización rítmica con un compás externo a través de movimientos corporales. Algunos animales, como los monos, o aves domésticas, pueden moverse con la música y hasta tocar instrumentos, pero seguir el ritmo según se define no parece ser una habilidad del reino animal.
No es hasta los 4 años que se produce el desarrollo rítmico en el ser humano. Los niños menores pueden escuchar el ritmo pero no sincronizar. Esta habilidad se adquiere en un proceso de socialización, cuando el pequeño interactúa con los otros seres humanos, lo que señala un origen evolutivo.
Pueden-los-animales-seguir-el-ritmo-1.jpg Mike Watson Images/moodboard/Thinkstock
Durante el proceso de sincronización musical, casi todas las regiones del cerebro humano se activan poniendo a funcionar el área de los movimientos y el de la audición, lo que eventualmente conduce al baile. A partir de ese momento todas las redes neuronales se intercomunican en sincronización rítmica.

El ritmo de los bonobos

Los bonobos son un tipo de chimpancés que tienen facilidad para responder al lenguaje. Con estos se han hecho diversos estudios sobre el seguimiento del ritmo. Al parecer, algunos pueden repetir el tiempo de los instrumentos y mover los pies al ritmo de la música.
Pueden-los-animales-seguir-el-ritmo-2.jpg Eric IsselTe/Hemera/Thinkstock
Claro que, como ya se ha comprobado, los bonobos poseen una característica extraordinaria: comparten más del 98% del genoma humano. ¿Coincidencias? Los expertos consideran que en estos chimpancés habría una analogía con los niños, que aún no han desarrollado la habilidad de sincronizar, pero sí pueden escuchar el ritmo.
Ver también: El efecto de la música en los animales

¿Por qué solo los humanos siguen el ritmo?

Hasta la fecha no se sabe con exactitud por qué solo los humanos siguen el ritmo. Sin embargo, se manejan algunas teorías. La idea más extendida es que en la evolución de la capacidad rítmica existe un fuerte componente social. Se cree que la habilidad de repetir sonidos era importante para crear unidad grupal y lazos entre sus miembros.
Pueden-los-animales-seguir-el-ritmo-3.jpg mira33/iStock/Thinkstock
La sincronización rítmica estaría pues relacionada, de manera mímica, con la capacidad de estar unidos grupalmente, de ser como uno solo: un mismo tiempo, acciones coordinadas.
Justamente como la unidad social es compleja y requiere el desarrollo conjunto de varias habilidades, la resultante de esa sincronización –poder seguir el ritmo– es una rareza, alcanzada solamente en los seres humanos y en muy excepcionales animales.

La cooperación entre humanos es una cuestión de edad



Un equipo de científicos de las universidades de Barcelona, Carlos III de Madrid y de Zaragoza (España) ha realizado un estudio para averiguar cómo evoluciona la actitud cooperativa de las personas según su edad.
Para ello, realizaron un experimento con 168 personas elegidas aleatoriamente de entre 10 y 87 años, que se presentaba a sus participantes como un juego a través de una interfaz web; concretamente una versión virtual del dilema del prisionero. Durante 25 tandas consecutivas debían elegir entre cooperar o no hacerlo con sus compañeros de grupo, con diferentes recompensas según cada acción. El experimento se realizó en el marco de la plataforma Barcelona Lab impulsada por la Dirección de Creatividad e Innovación del Institut de Cultura de Barcelona (ICUB) y fue repetido posteriormente para contrastar resultados.

Del experimento se extrae que los jóvenes de entre 10 y 16 años tienen un comportamiento más voluble a la hora de cooperar que el resto de franjas de edad y que los mayores de 66 años son los que muestran una mayor inclinación a cooperar.

“Estos resultados invitan a pensar que hay un componente evolutivo y cultural a lo largo del ciclo de la vida y que ser más proclives a cooperar es una cualidad que se puede aprender”, afirma Carlos Gracia-Lázaro, coautor del estudio.

“En general, a la hora de colaborar la gente tiene en cuenta lo que han hecho los demás, lo cual se conoce como cooperación condicional, pero nuestros experimentos demuestran que los adultos también consideran sus propias acciones pasadas; es decir, su manera de actuar es más predecible y ayuda un poco a mantener la cooperación”, afirmaYamir Moreno, coautor del estudio.

Los resultados del estudio han sido publicados en la revista Nature Communications.

lunes, 21 de julio de 2014

El sistema nervioso más antiguo

Sobre estas líneas aparece el sistema nervioso más antiguo que los científicos han conseguido reconstruir casi por completo hasta ahora. Tiene 520 millones de años y pertenece a un artrópodo del género Alalcomenaeus, cuyos restos fósiles (derecha) se descubrieron en un yacimiento del suroeste de China. Para hacer visibles las fibras nerviosas del animal, de apenas tres centímetros de largo, Nicholas Strausfeld, de la Universidad de Arizona en Tucson, y su equipo usaron diversas técnicas de neuroimagen. Con ayuda de un escáner de tomografía computarizada reconstruyeron primero las estructuras del interior del fósil (verde) en formato tridimensional. Además, determinaron la distribución del hierro que se había depositado de manera selectiva en el sistema nervioso (lila) durante el proceso de fosilización. En los lugares en los que los depósitos de hierro y las estructuras de la tomografía computarizada se cruzaban debían transcurrir, hace millones de años, las vías neurales del organismo.

La reconstrucción del sistema nervioso de Alalcomenaeus ha aportado nuevos datos sobre la evolución de los antrópodos: se ha visto que el plano de construcción neural de estos antiguos animales se asemeja al de los arácnidos actuales, grupo al que pertenecen las arañas, los escorpiones y los ácaros, entre otros.

Tomado de: Mente y cerebro

Encuentran ADN no humano en Ötzi, 'el hombre de hielo'

Conservado en los Alpes
Un equipo de científicos del Instituto EURAC en Bolzano (Italia), así como varios investigadores de la Universidad de Viena (Austria) han descubierto ADN no humano en la muestra de hueso de la cadera que se extrajo de la momia de 5.300 años de edad encontrada en un glaciar de los Alpes y bautizada como Ötzi, el hombre de hielo.

Los expertos han encontrado evidencias de una bacteria, concretamente de Treponema denticola, un patógeno relacionado con la enfermedad periodontal, concluyendo, tras un escáner realizado a los restos mediante tomografía computarizada, que el hombre de hielo habría sufrido de periodontitis. Los investigadores ven sorprendente cómo la muestra de un hueso tan pequeño y con tanta antigüedad sea capaz de proporcionarnos datos sobre esta bacteria que se movió desde la boca, a través del torrente sanguíneo, hasta llegar al hueso de la cadera.

Este ADN no humano se deriva principalmente de bacterias que normalmente viven sobre y dentro de nuestro cuerpo. Sólo la interacción entre ciertas bacterias o un desequilibrio dentro de esta comunidad bacteriana puede causar ciertas enfermedades. Por lo tanto es muy importante reconstruir y comprender la composición de la comunidad bacteriana mediante el análisis de esta mezcla de ADN”, afirma Thomas Rattei, coautor del estudio.

Las conclusiones del estudio han sido publicadas en la revista Plos One.

miércoles, 16 de julio de 2014

Altruismo intergeneracional


¿Cómo lograr que una comunidad no agote un recurso y deje algo para las generaciones futuras?

Un nuevo experimento ha puesto a prueba la disponibilidad de las personas para no agotar un recurso y permitir que otras generaciones puedan también disfrutarlo. Los mecanismos democráticos de toma de decisiones (arriba) pueden impedir que una minoría explote por completo un bien común (abajo). [De: «Cooperating with the future»; O. P. Hauser et al. en Nature 511, 10 de julio de 2014.]
Matemáticos, economistas y biólogos evolutivos llevan años preguntándose por el origen de la cooperación. ¿Qué hace que una bacteria, un insecto o una persona sacrifique un beneficio propio en favor de los demás? Aunque muy variados y en buena parte desconocidos, los mecanismos que se han propuesto para explicar la emergencia del comportamiento altruista suelen implicar siempre algún tipo de reciprocidad: en general, un individuo puede optar por no aprovecharse del grupo al que pertenece si cuenta con alguna garantía de que los demás harán lo mismo. De esta manera, el resultado será beneficioso para la comunidad y, por tanto, también para cada uno de sus integrantes.
En un artículo publicado la semana pasada en Nature, Oliver P. Hauser, de Harvard, y otros investigadores se han planteado una interesante pregunta: ¿hasta qué punto estamos dispuestos a cooperar «con el futuro»? ¿Somos capaces de renunciar a parte de un recurso a fin de que este no se agote y pase a las generaciones venideras? La diferencia con los dilemas sociales al uso es notoria, ya que, en este caso, las generaciones futuras ni participan de las decisiones presentes ni pueden corresponder de ninguna manera a quienes las toman.
Para analizar la cuestión, los autores llevaron a cabo un experimento con cientos de participantes distribuidos en grupos de cinco personas, o «generaciones». Cada grupo tenía a su disposición un fondo de 100 unidades en Amazon Mechanical Turk, un mercado de trabajo colaborativo en línea. A los sujetos se les informó de que cada uno podría extraer para sí un monto comprendido entre 0 y 20 unidades. Si, al final de cada ronda, en el fondo común quedaba más de cierta cantidad (51 unidades o más, por ejemplo), este se rellenaría de nuevo hasta 100 y pasaría a la siguiente generación. En caso contrario, el fondo se vaciaría y no quedaría nada para los grupos venideros, lo que pondría fin al juego.
Hauser y sus colaboradores observaron que, cuando cada jugador obraba de manera individual, el fondo se agotaba en muy pocas generaciones. Sin embargo, cuando el resultado se decidía de manera democrática (cada participante votaba cuánto debería llevarse cada uno y el resultado mediano se aplicaba a todos por igual), el fondo sobrevivía durante muchas generaciones más. En todos los casos, siempre había una mayoría de individuos dispuestos a que el fondo sobreviviese; no obstante, si no se aplicaba ningún mecanismo regulador, una minoría de participantes egoístas bastaba para agotar el recurso común.
Anxo Sánchez, investigador de sistemas complejos y comportamiento cooperativo de la Universidad Carlos III de Madrid, opina que se trata de un diseño interesante: «La idea central es muy ingeniosa. Los resultados son también provocadores y deberían suscitar mucho más trabajo». El investigador considera, sin embargo, que el marco experimental escogido (trabajadores de Amazon Mechanical Turk) tal vez no sea el óptimo. «La gente que participa se autoselecciona y la paga es muy baja, entre otros problemas. Parece difícil, pero no imposible, hacerlo de manera controlada en un laboratorio, y me encantaría ver qué sale en ese caso», apunta el investigador.
Los resultados podrían ser de utilidad en teoría de decisiones públicas. A modo de conclusión, los autores observan en su artículo que el uso sostenible de los recursos solo parece surgir cuando el resultado de los votos fuerza a todos los participantes a hacer lo mismo. «Los votos que solo vinculan de manera parcial, como ocurre en el protocolo de Kyoto, tienen poco poder», concluyen los investigadores.
Más información en Nature (reseña y artículo técnico).

viernes, 11 de julio de 2014

jueves, 10 de julio de 2014

Las 10 pesadillas más comunes y sus significados desde la ciencia.


Las-10-pesadillas-mas-comunes-y-sus-significados.jpg iStock/Thinkstock
Todos hemos tenido una pesadilla alguna vez y generalmente, en mayor o menor medida, despertamos con una extraña sensación que resulta en una mezcla de angustia, miedo y curiosidad. Al despertar, instantáneamente nos preguntamos qué significan esas terroríficas escenas, por qué se nos representó esto en los sueños y otras cosas por el estilo.
Bueno, como podrás imaginar, la interpretación y explicación de las pesadillas, lejos de ser algo sencillo, implica gran controversia, subjetividad y varias otras complicaciones (no faltarán los niñitos lloriqueando y hablando de pseudociencia). Lo cierto es que se trata de una cuestión sumamente interesante y que por más dificultades que represente su estudio, desde la psicología, la neurociencia y varias ramas de la medicina, se han desarrollado numerosas investigaciones al respecto.
Sabiendo que las pesadillas son un tipo de parasomnia y una parte esencial de nuestra actividad onírica que se desarrolla en la etapa del sueño MOR (REM), que tienen una explicación tanto fisiológica como psicológica y que entre otras cosas, suelen ser concisas manifestaciones que la mente nos figura mientras dormimos ante excesos de estrés y ansiedad, hoy voy a enseñarte el significado de las pesadillas más comunes de acuerdo a las interpretaciones más habituales desde las ciencias. Échale un vistazo a esta interesante lista...

10. Soñar con desastres naturales

Las-10-pesadillas-mas-comunes-y-sus-significados-1.jpgSoñar con un terremoto, un tsunami, una tormenta de grandes proporciones o cualquier otro desastre natural es más común de lo que uno pueda pensar y es la pesadilla que da comienzo a esta lista. Los desastres o catástrofes naturales representan un miedo inminente en el inconsciente, un fuerte sentimiento de ansiedad. Los expertos señalan que también puede manifestar situaciones que, como ocurre con el clima, no pueden controlarse y que implican leves crisis nerviosas. También es un signo de un problema de relacionamiento social y emocional.

9. Soñar con un fallecido

Las-10-pesadillas-mas-comunes-y-sus-significados-2.jpgLa aparición de un difunto o un ser querido que falleció en nuestra actividad onírica también es muy frecuente. La explicación a este tipo de pesadillas está directamente relacionada con las luchas emocionales que todos tenemos ante la pérdida de un ser querido, además, en estos sueños es determinante la forma en que el difunto pereció.

8. Soñar perderse un evento importante

Las-10-pesadillas-mas-comunes-y-sus-significados-3.jpgMuchas personas sueñan que se pierden eventos importantes como pueden ser una boda, una cita importante, un viaje, un vuelo, etc. Comúnmente, la interpretación de esta pesadilla, como la de muchas otras, se vincula con sentimientos de ansiedad y miedo ante la posibilidad de fallar o ser incapaz de cumplir con las expectativas de una persona que represente cierto tipo de poder. Está fuertemente ligado al concepto de responsabilidad, la negatividad y el pesimismo.

7. Soñar estar desnudo en público

Las-10-pesadillas-mas-comunes-y-sus-significados-4.jpgLa desnudez es más bien una cuestión de tabú y estar desnudo en público en los sueños es una pesadilla recurrente sobre todo en adolescentes. Sin embargo, los expertos aseguran que su significación puede estar dando cuenta de un problema serio, directamente relacionado con la baja autoestima, la falta de comunicación y los problemas de relacionamiento con el grupo de pares.

6. Soñar que se caen los dientes

Las-10-pesadillas-mas-comunes-y-sus-significados-5.jpgUna pesadilla que también se asocia especialmente con problemas de autoestima, inseguridad y conflictos en la personalidad es la de soñar que los dientes se desprenden. También es una pesadilla común entre los adolescentes y es muy similar a la de estar desnudo en público, aunque ésta es más recurrente que la anterior mencionada. El miedo a ser juzgados por el vulgo, la ansiedad y la fuerte preocupación por la forma en la que otros individuos consideran el aspecto físico de la persona, son puntos claves detrás de esta pesadilla.

5. Soñar que nos lastiman o nos provocan una herida

Las-10-pesadillas-mas-comunes-y-sus-significados-6.jpgLas capacidades de nuestro cerebro durante la actividad onírica es de lo más fascinante y los sueños pueden resultarnos muy, pero muy reales, sobre todo cuando soñamos que nos lastimamos, nos dan un golpe o alguien nos inflige una herida en el cuerpo. Es una pesadilla común y su interpretación sugiere la vulnerabilidad o la debilidad que está sintiendo quien sueña con esto. Está especialmente relacionado con problemas en el desarrollo del carácter y la personalidad.

4. Soñar que pierdes a tu pareja u otro ser querido

Las-10-pesadillas-mas-comunes-y-sus-significados-7.jpgOtra pesadilla común y especialmente relacionada con la inseguridad, la ansiedad y sobre todo, el miedo a la soledad. Esta se caracteriza por la partida de un ser querido, que puede ser tanto una pareja como un amigo, un familiar o alguien muy cercano y se interpreta como un sentimiento de inferioridad, falta de confianza en sí mismo y dependencia de otra persona.

3. Soñar con estar atrapado o encerrado en un sitio

Las-10-pesadillas-mas-comunes-y-sus-significados-8.jpgEsta es la peor pesadilla de quienes sufren trastornos relacionados con la claustrofobia o que han sufrido de experiencias traumáticas relacionadas con el encierro y justamente, es una pesadilla que suelen experimentar víctimas de secuestros. Existe también una interpretación más simbólica que sugiere que este tipo de pesadilla a menudo la sufren tambień quienes inconscientemente se sienten atrapados en situaciones de la cotidianidad, con problemas financieros, laborales, rutinarios y también emocionales.

2. Soñar que nos caemos

Las-10-pesadillas-mas-comunes-y-sus-significados-9.jpg¿Cuántas veces soñaste que te estabas cayendo y despertaste con la violenta sacudida de tu cuerpo al reaccionar? Pues es la segunda pesadilla más común y según varias interpretaciones, es una manifestación del exceso de estrés y ansiedad que siente un individuo ante la incapacidad para controlar un problema en su vida personal.

1. Soñar que nos persiguen

Las-10-pesadillas-mas-comunes-y-sus-significados-10.jpgSoñar que nos están persiguiendo es la pesadilla más frecuente. Generalmente se sueña que un animal considerablemente peligroso, una persona con malas intenciones o un ser ficticio y de tipo paranormal, nos persigue o intenta atacarnos. Según los expertos, esta pesadilla se da cuando sentimos miedo frente a una confrontación, puede ser contra el jefe del empleo, un profesor, un padre abusivo o una relación emocional que peligra su continuidad. También se ha notado que este sueño es más intenso y recurrente cuando la persona ha sufrido un abuso de cualquier tipo.
Sin lugar a dudas, la mente y nuestra capacidad para soñar, así como para entender nuestros sueños e interpretarlos desde las ciencias, es un amplio y desolado terreno en el cual aún nos queda mucho por recorrer. Desde ámbitos como el la neurociencia y gracias al desarrollo de las terapias psicológicas, se ha determinado que éstas son las actividades oníricas desagradables más comunes y sus posibles explicaciones. ¿Qué opinas tú al respecto? ¿Qué otra pesadilla has tenido y cómo crees que podrías explicarla?

El tamaño del pene: que dice la ciencia.


El-tama%C3%B1o-importa-mito-o-realidad-3.jpg AndreyPopov/iStock/Thinkstock
La pregunta de si el tamaño del pene importa ha estado en las conversaciones populares por muchos años. Algunos dicen que no importa para nada, y otros que es un factor muy importante. Es difícil saber hasta dónde las respuestas femeninas son sinceras o no al respecto de que las atrae más, y para esto los investigadores han decidido estudiar el tema.
El problema de muchos de los estudios hasta el momento es que las preguntas hacia las mujeres son directas, dificultando la espontaneidad en las decisiones, o se les pide que califiquen como atractivos o no a figuras masculinas que solo varían en el tamaño del pene. ¿Pero no es esto aislar un factor por sobre otros también importantes?
Ver también: ¿Por qué los científicos prefieren estudiar penes?

Factores que influyen en la atracción

El-tama%C3%B1o-importa-mito-o-realidad.jpg Fuse/Fuse/Thinkstock
Actualmente, los científicos se han dado cuenta de que la atracción física depende de por lo menos tres factores: la altura, la forma del cuerpo y el tamaño del pene. Si lo analizamos de esta manera, podemos decir que el tamaño sí importa, pero no podemos tomarlo como el único atractivo, sino que otras cuestiones físicas también inciden.
Así puede saberse que el pene influye solamente en los hombres que ya son atractivos en otros sentidos, pero si ponemos a un hombre alto y masculino, al lado de otro bajo y sin fortaleza física, el primero siempre tendrá prevalencia, no importa el tamaño de sus miembros sexuales.
Ver también: La ciencia de una erección

Evolución y tamaño del pene

El-tama%C3%B1o-importa-mito-o-realidad-2.jpg BONNINSTUDIO/iStock/Thinkstock
Es probable que el tamaño del pene haya aumentado en el correr del tiempo con la evolución humana, debido a que las mujeres los deben haber preferido por la satisfacción sexual. Aunque los hombres atractivos no necesitan preocuparse por el tamaño, esto no implica que las mujeres hayan preferido los penes más grandes en los hombres de menor altura y complexión física, predeterminando a la especie a un mayor tamaño. Esto explica porque los miembros sexuales masculinos de los humanos son más grandes que en nuestros parientes simios.
Ver también: Las 10 cosas que no sabías del sexo
El estudio tampoco establece si las mujeres los prefieren para el acto sexual en sí, sino que habla simplemente de si los hayan atractivos. Generalmente, la atracción a primera vista no suele influenciar completamente la posibilidad de coito, sino que existen otros factores, muchos de ellos establecidos en el acto mismo, o también provenientes del contexto social en que estamos inmersos.
Así que los hombres no deben preocuparse completamente, debido a que el tamaño no lo es todo para la atracción física, sino que otros factores también se ponen en juego. Dentro de las interacciones humanas, la complejidad siempre está implícita cuando se trata de preferencias.

Sexo oral y la ciencia


Sexo-oral-e-infidelidad-lo-que-hombres-y-mujeres-deben-saber.jpg Creatas Images/Creatas/Thinkstock
El sexo oral ha estado en boca de todos, incluso de los científicos, quienes se han dedicado a estudiar algunos de los fundamentos psicológicos y conductuales detrás de esta práctica.
Por ejemplo, el experto en psicología Michael N. Pham, de la Universidad de Oakland, en Rochester, ha esbozado una teoría respecto a por qué los hombres practican sexo oral a las mujeres.
De acuerdo al estudio de Pham, el hombre lo hace para asegurarse de que la mujer no le sea infiel, siempre en el contexto de una pareja estable. Estamos de acuerdo, este estudio puede resultar un tanto polémico, pero veamos qué más tiene para decir Michael N. Pham sobr el sexo oral.
Ver también: 7 cosas sobre el sexo oral que no sabías

El estudio sobre el sexo oral y la infidelidad

Los responsables del estudio sobre infidelidad y sexo oral tomaron como referencia investigaciones previas que decían que si una mujer tiene sexo con dos hombres o más en un período breve de tiempo, el esperma de ellos competirá por reproducir el óvulo, al permanecer dentro del tracto del aparato reproductor femenino. Asimismo, tomaron en cuenta la idea de que la competencia de semen ocurre en un contexto de infidelidad.
Sexo-oral-e-infidelidad-lo-que-hombres-y-mujeres-deben-saber-1.jpg Fuse/Thinkstock
Entonces, los investigadores partieron de dos hipótesis. Una de ellas es la que mencionamos, el hombre practica cunnilingus a la mujer para minimizar el riesgo de infidelidad. Pero también se especuló con una segunda hipótesis, que luego fue descartada, y que sostenía que la capacidad de la mujer de retener el semen del hombre sería mayor si la mujer alcanza un orgasmo por sexo oral, en el período de tiempo cercano a la eyaculación del hombre. Expliquemos esto con un poco más de detalle.
Ver también: 10 interesantes curiosidades sobre el clítoris

¿El sexo oral hace más fiel a la mujer?

La segunda hipótesis que mencionamos antes sostenía que si la mujer tiene un orgasmo por cunnilingus un minuto antes de que el hombre eyacule dentro de ella–¿alguien dijo eyaculación precoz?– o en los 45 minutos posteriores, entonces tendrá una mayor capacidad de retención del esperma. De todas maneras, esta hipótesis no se sostuvo por mucho tiempo.
Al volcarse por la primera hipótesis, los responsables del estudio sostuvieron que los hombres en riesgo de competencia de esperma (léase infidelidad), son más proclives a practicar sexo oral a su pareja femenina para que esta alcance el orgasmo.
Así, el estudio apunta a que el empeño del hombre en hacer que la mujer alcance el orgasmo mediante el cunnilinugs debe ser tomado como una parte de una estrategia masculina de retención de su pareja más amplia.
Sexo-oral-e-infidelidad-lo-que-hombres-y-mujeres-deben-saber-2.jpg Wavebreakmedia Ltd/Wavebreak Media/Thinkstock
Ver también: 5 mitos del sexo derrumbados por la neurociencia
Pero también es bueno saber que los autores de esta investigación intentaron conocer la óptica femenina. Entonces, en un nuevo estudio, reunieron a un grupo de 200 mujeres para saber si el riesgo de infidelidad de su pareja las llevaba a interesarse más en practicar sexo oral al hombre (fellatio). La conclusión fue que el riesgo de infidelidad no afecta el interés ni el tiempo usado en esta práctica sexual.
Estas explicaciones o intentos de explicar el interés en el sexo oral no parece satisfacer a todos por igual. Uno de los aspectos que más se cuestionan a la ciencia cuando intenta buscar una explicación a determinados comportamientos y conductas sexuales es la necesidad reproductiva que parece sostener todo el andamiaje especulativo y deja de lado el simple gusto por las sensaciones placenteras.
¿Tú qué piensas al respecto? ¿Crees que hay un vínculo entre el sexo oral y la infidelidad?

lunes, 7 de julio de 2014

Comer insectos influyó en desarrollo cerebral de humanos

 Investigadores de la Universidad de Calgary, Canadá, realizaron el estudio con monos carablanca en  Santa Rosa, Guanacaste.   | PABLO MONTIEL

POR Monserrath Vargas L.
Es posible que su cerebro sea hoy más desarrollado que el de otras especies porque sus ancestros comían hormigas y otros insectos cuando el alimento escaseaba.
Así lo sugiere un estudio hecho por investigadoras de la Universidad de Calgary, Canadá, y publicado en la edición de junio del Journal of Human Evolution.
Las científicas observaron a monos carablanca ( Cebus capucinus ) durante cinco años en Santa Rosa, en el Área de Conservación Guanacaste (ACG).
Para la investigación, se enfocaron en cuatro grupos de monos, cada uno de los cuales estaba integrado por entre ocho y 35 miembros.
Los sujetos estudiados fueron monos adultos o con al menos tres años de edad pues los más jóvenes son menos hábiles en la recolección de insectos. Para identificarlos se usaron características distintivas de sus rostros, su tamaño o bien cicatrices.
Amanda Melin, autora principal del estudio, afirmó en una publicación de la Universidad Washington en San Luis, Misuri, que estos primates tienen cerebros grandes, por lo que facilitan los estudios relacionados con el tamaño cerebral y la inteligencia.
El análisis tomó en cuenta factores como precipitación, temperatura y abundancia de frutas, para determinar en qué momentos los monos carablanca, también conocidos como capuchinos, recurrían a alimentos de reserva. Entre ellos están las larvas, chinches, termitas, abejas, hormigas, avispas y caracoles.
Así se encontró que los sujetos estudiados comen insectos durante todo el año, pero el consumo aumenta según las estaciones, sobre todo cuando su alimento preferido ( la fruta madura) escasea.
“Estos resultados sugieren que los insectos son un importante alimento de reserva”, aseguró Melin.
Hallazgo. La labor de excavar en busca de insectos cuando la comida era escasa pudo haber “contribuido a la evolución cognitiva de los homínidos y también a sentar las bases para lo que más tarde sería el uso de herramientas avanzadas”, comentó Amanda Melin.
La experta aseguró que este es uno de los primeros estudios que da cuenta de cómo la no disponibilidad de alimento debido a la época influye en la alimentación de los monos carablanca.
Además, dijo que los antepasados del humano actual también se vieron obligados a variar su dieta y consumir insectos cuando el alimento era menos abundante, lo que a la larga pudo haber estimulado el crecimiento de su cerebro o aportado al desarrollo de sus funciones cognitivas.
¿Por qué? Porque las búsquedas de alimento son capaces de aumentar la destreza manual, el uso de herramientas e incluso incentivar la solución innovadora de problemas, ante el reto de obtener los insectos en lugares poco accesibles, tal como sucede a los monos estudiados.
“Acceder a los insectos ocultos y bien protegidos que viven en las ramas y bajo las cortezas de los árboles es una tarea cognitivamente exigente, pero ofrece una recompensa de alta calidad: la grasa y la proteína que se necesitan para alimentar grandes cerebros”, manifestó la investigadora.
Incógnita. Así como hay semejanzas entre los monos y los ancentros de los humanos, los científicos también han tratado de establecer lo que nos diferencia de ellos.
La Universidad de Oxford publicó recientemente un estudio en el que analizó la corteza frontal del cerebro de de 25 humanos y su equivalente en 25 chimpancés.
El estudio determinó: “Hay un área en la corteza frontal humana que no parece tener un equivalente en el mono, en absoluto. Esta zona ha sido identificada como la responsable de planificación estratégica y la toma de decisiones”, según el investigador principal del estudio, Franz-Xaver Neubert.

tibetanos y antiguo gen


¿Cómo pueden los tibetanos vivir a grandes alturas, en condiciones de poco oxígeno, que a otros harían desvanecerse? En realidad han recibido un poco de ayuda de una fuente inesperada.
Unos científicos dijeron el miércoles que muchos tibetanos poseen una variante rara de un gen involucrado en el transporte de oxígeno en la sangre que probablemente han heredado de un enigmático grupo de humanos extinguido que se cruzaron con nuestra especie hace decenas de miles de años.
Esto permite a los tibetanos desenvolverse bien en niveles bajos de oxígeno a alturas de 4.500 metros como en el vasto altiplano del suroeste de China. Las personas sin esta variante podrían desarrollar sangre espesa, provocando subidas de tensión, ataques al corazón, derrames, recién nacidos con poco peso y mortalidad infantil más alta.
Esta versión del gen EPAS1 es casi idéntica a una encontrada en el homínido de Denísova, una estirpe pariente de los neandertales, pero muy diferente al de las personas en la actualidad.
Los homínidos de Denísova son conocidos gracias a un único hueso de dedo y dos dientes encontrados en una cueva de Siberia. Las pruebas de ADN del hueso de hace 41.000 años indicaron que estos homínidos fueron diferentes a nuestra especie y a los neandertales.
"Nuestro descubrimiento podría sugerir que el intercambio de genes a través del apareamiento con otras especies podría ser más importante en la evolución humana de lo que se había pensado previamente", dijo Rasmus Nielsen, profesor de biología computacional en la Universidad de California, Berkeley y en la Universidad de Copenhague, cuyo estudio aparece en la revista Nature.
Nuestro genoma contiene fragmentos residuales genéticos de otros organismos como virus al igual que de especies como los neandertales con lo que los primeros humanos modernos se cruzaron. Los investigadores dijeron que su estudio fue el primero en mostrar que un gen de una especie humana arcaica ha ayudado a humanos modernos a adaptarse a diferentes condiciones de vida.
"Este intercambio de genes con otras especies podría de hecho haber ayudado a los humanos a adaptarse a nuevos entornos encontrados, como en la expansión por África y por el resto del mundo", dijo Nielsen.
Los estudios genéticos mostraron que el 90 por ciento de los tibetanos tienen la variante genética de la gran altitud, junto con un pequeño porcentaje de chinos Han, que comparten un ancestro común con los tibetanos. No se ha encontrado en otras personas.
El gen regula la producción de hemoglobina, una proteína en los glóbulos rojos de la sangre que transportan el oxígeno. Se enciende cuando los niveles de oxígeno en sangre caen, estimulando una mayor producción de hemoglobina.

jueves, 26 de junio de 2014

Diferentes teorías sobre la evolución del rostro humano

Nadie sabe con exactitud cuál será el aspecto del ser humano dentro de miles de años, aunque si se manejan varias teorías al respecto. Enteráte de cuales son.

 
El diario "New York Tribune" publicó en su portada en 1910 un retrato de un hombre que mostraba qué aspecto tendría un estadounidense en el futuro. La imagen fue creada a partir de 24 retratos de hombres de diferentes nacionalidades que habían emigrado a Estados Unidos desde 1820 o vivían en el país en el momento de la publicación del artículo.



Doce de ellos aparecen en la portada del periódico, donde se aprecian inmigrantes estadounidenses procedentes de Italia, Polonia, Alemania, Eslovaquia, Croacia, Irlanda, Noruega, Escocia, Inglaterra, Holanda, Hungría y un estadounidense de origen judío, pero nacido ya en EE.UU.



El flujo de la inmigración a Estados Unidos en 1910 crecía a pasos agigantados llegando a su máximo histórico, por lo que varios periodistas decidieron crear un retrato hipotético a partir de la mezcla de diferentes nacionalidades - de Italia, Polonia, Alemania, Eslovaquia, Croacia, Irlanda, Noruega, Escocia, Inglaterra, Holanda, Hungría y un estadounidense de origen judío-. Este fue uno de los primeros intentos tecnológicos de crear un retrato del futuro.


Más de 100 años después, en 2013, la revista "National Geographic" publicó una serie de fotografías bajo el nombre "El rostro cambiante de Estados Unidos", en la que el fotógrafo estadounidense Martin Schoeller retrató caras de todos los matices, tonalidades, color de ojos y tipo de pelo. Allí se intenta mostrar cómo será el aspecto típico de una persona en el año 2050.



Por otro lado, para Nickolay Lamm, investigador y diseñador estadounidense, el aspecto de los humanos dentro de 100.000 años será una frente ancha, ojos grandes y piel pigmentada.



Según su hipótesis, dentro de 20.000 años los hombres tendrán un cráneo más alargado para acomodar el cerebro, de un tamaño superior al actual. Dentro de 60.000 año tendrán el cráneo todavía más grande, y los ojos también habrán aumentado de tamaño, ya que habremos colonizado el Sistema Solar y las personas que habiten en las colonias más alejadas del Sol tendrán que adaptarse a medios más oscuros. Los siguientes 40.000 años estarán marcados por un dominio total sobre la genética.

viernes, 6 de junio de 2014

A Learning Secret: Don’t Take Notes with a Laptop

Students who used longhand remembered more and had a deeper understanding of the material
hand writing


The old fashioned way works better.
Credit: Szepy via iStock
“More is better.”  From the number of gigs in a cellular data plan to the horsepower in a pickup truck, this mantra is ubiquitous in American culture.  When it comes to college students, the belief that more is better may underlie their widely-held view that laptops in the classroom enhance their academic performance.  Laptops do in fact allow students to do more, like engage in online activities and demonstrations, collaborate more easily on papers and projects, access information from the internet, and take more notes.  Indeed, because students can type significantly faster than they can write, those who use laptops in the classroom tend to take more notes than those who write out their notes by hand.  Moreover, when students take notes using laptops they tend to take notes verbatim, writing down every last word uttered by their professor.
Obviously it is advantageous to draft more complete notes that precisely capture the course content and allow for a verbatim review of the material at a later date.  Only it isn’t.  New research by Pam Mueller and Daniel Oppenheimer demonstrates that students who write out their notes on paper actually learn more.  Across three experiments, Mueller and Oppenheimer had students take notes in a classroom setting and then tested students on their memory for factual detail, their conceptual understanding of the material, and their ability to synthesize and generalize the information.  Half of the students were instructed to take notes with a laptop, and the other half were instructed to write the notes out by hand.  As in other studies, students who used laptops took more notes.  In each study, however, those who wrote out their notes by hand had a stronger conceptual understanding and were more successful in applying and integrating the material than those who used took notes with their laptops.
What drives this paradoxical finding?  Mueller and Oppenheimer postulate that taking notes by hand requires different types of cognitive processing than taking notes on a laptop, and these different processes have consequences for learning.  Writing by hand is slower and more cumbersome than typing, and students cannot possibly write down every word in a lecture.  Instead, they listen, digest, and summarize so that they can succinctly capture the essence of the information.  Thus, taking notes by hand forces the brain to engage in some heavy “mental lifting,” and these efforts foster comprehension and retention.  By contrast, when typing students can easily produce a written record of the lecture without processing its meaning, as faster typing speeds allow students to transcribe a lecture word for word without devoting much thought to the content.
To evaluate this theory, Mueller and Oppenheimer assessed the content of notes taken by hand versus laptop.  Their studies included hundreds of students from Princeton and UCLA, and the lecture topics ranged from bats, bread, and algorithms to faith, respiration, and economics.  Content analysis of the notes consistently showed that students who used laptops had more verbatim transcription of the lecture material than those who wrote notes by hand.  Moreover, high verbatim note content was associated with lower retention of the lecture material.  It appears that students who use laptops can take notes in a fairly mindless, rote fashion, with little analysis or synthesis by the brain.  This kind of shallow transcription fails to promote a meaningful understanding or application of the information.
If the source of the advantage for longhand notes derives from the conceptual processes they evoke, perhaps instructing laptop users to draft summative rather than verbatim notes will boost performance.  Mueller and Oppenheimer explored this idea by warning laptop note takers against the tendency to transcribe information without thinking, and explicitly instructed them to think about the information and type notes in their own words.  Despite these instructions, students using laptops showed the same level of verbatim content and were no better in synthesizing material than students who received no such warning.  It is possible these direct instructions to improve the quality of laptop notes failed because it is so easy to rely on less demanding, mindless processes when typing.
It’s important to note that most of the studies that have compared note taking by hand versus laptop have used immediate memory tests administered very shortly (typically less than an hour) after the learning session.  In real classroom settings, however, students are often assessed days if not weeks after learning new material.  Thus, although laptop users may not encode as much during the lecture and thus may be disadvantaged on immediate assessments, it seems reasonable to expect that the additional information they record will give them an advantage when reviewing material after a long delay.
Wrong again.  Mueller and Oppenheimer included a study in which participants were asked to take notes by hand or by laptop, and were told they would be tested on the material in a week.  When participants were given an opportunity to study with their notes before the final assessment, once again those who took longhand notes outperformed laptop participants.  Because longhand notes contain students’ own words and handwriting, they may serve as more effective memory cues by recreating the context (e.g., thought processes, emotions, conclusions) as well as content (e.g., individual facts) from the original learning session.
These findings hold important implications for students who use their laptops to access lecture outlines and notes that have been posted by professors before class.  Because students can use these posted materials to access lecture content with a mere click, there is no need to organize, synthesize or summarize in their own words.  Indeed, students may take very minimal notes or not take notes at all, and may consequently forego the opportunity to engage in the mental work that supports learning.
Beyond altering students’ cognitive processes and thereby reducing learning, laptops pose other threats in the classroom.  In the Mueller and Oppenheimer studies, all laptops were disconnected from the internet, thus eliminating any disruption from email, instant messaging, surfing, or other online distractions.  In most typical college settings, however, internet access is available, and evidence suggests that when college students use laptops, they spend 40% of class time using applications unrelated to coursework, are more likely to fall off task, and are less satisfied with their education.  In one study with law school students, nearly 90% of laptop users engaged in online activities unrelated to coursework for at least five minutes, and roughly 60% were distracted for half the class.
Technology offers innovative tools that are shaping educational experiences for students, often in positive and dynamic ways.  The research by Mueller and Oppenheimer serves as a reminder, however, that even when technology allows us to do more in less time, it does not always foster learning.  Learning involves more than the receipt and the regurgitation of information.  If we want students to synthesize material, draw inferences, see new connections, evaluate evidence, and apply concepts in novel situations, we need to encourage the deep, effortful cognitive processes that underlie these abilities.  When it comes to taking notes, students need fewer gigs, more brain power.
Are you a scientist who specializes in neuroscience, cognitive science, or psychology? And have you read a recent peer-reviewed paper that you would like to write about? Please send suggestions to Mind Matters editor Gareth Cook, a Pulitzer prize-winning journalist and regular contributor to NewYorker.com. Gareth is also the series editor of Best American Infographics, and can be reached at garethideas AT gmail dot com or Twitter @garethideas.