miércoles, 22 de febrero de 2017

Why Facts Don’t Change Our Minds


In 1975, researchers at Stanford invited a group of undergraduates to take part in a study about suicide. They were presented with pairs of suicide notes. In each pair, one note had been composed by a random individual, the other by a person who had subsequently taken his own life. The students were then asked to distinguish between the genuine notes and the fake ones.

Some students discovered that they had a genius for the task. Out of twenty-five pairs of notes, they correctly identified the real one twenty-four times. Others discovered that they were hopeless. They identified the real note in only ten instances.
As is often the case with psychological studies, the whole setup was a put-on. Though half the notes were indeed genuine—they’d been obtained from the Los Angeles County coroner’s office—the scores were fictitious. The students who’d been told they were almost always right were, on average, no more discerning than those who had been told they were mostly wrong.
In the second phase of the study, the deception was revealed. The students were told that the real point of the experiment was to gauge their responses to thinking they were right or wrong. (This, it turned out, was also a deception.) Finally, the students were asked to estimate how many suicide notes they had actually categorized correctly, and how many they thought an average student would get right. At this point, something curious happened. The students in the high-score group said that they thought they had, in fact, done quite well—significantly better than the average student—even though, as they’d just been told, they had zero grounds for believing this. Conversely, those who’d been assigned to the low-score group said that they thought they had done significantly worse than the average student—a conclusion that was equally unfounded.
“Once formed,” the researchers observed dryly, “impressions are remarkably perseverant.”
A few years later, a new set of Stanford students was recruited for a related study. The students were handed packets of information about a pair of firefighters, Frank K. and George H. Frank’s bio noted that, among other things, he had a baby daughter and he liked to scuba dive. George had a small son and played golf. The packets also included the men’s responses on what the researchers called the Risky-Conservative Choice Test. According to one version of the packet, Frank was a successful firefighter who, on the test, almost always went with the safest option. In the other version, Frank also chose the safest option, but he was a lousy firefighter who’d been put “on report” by his supervisors several times. Once again, midway through the study, the students were informed that they’d been misled, and that the information they’d received was entirely fictitious. The students were then asked to describe their own beliefs. What sort of attitude toward risk did they think a successful firefighter would have? The students who’d received the first packet thought that he would avoid it. The students in the second group thought he’d embrace it.
Even after the evidence “for their beliefs has been totally refuted, people fail to make appropriate revisions in those beliefs,” the researchers noted. In this case, the failure was “particularly impressive,” since two data points would never have been enough information to generalize from.
The Stanford studies became famous. Coming from a group of academics in the nineteen-seventies, the contention that people can’t think straight was shocking. It isn’t any longer. Thousands of subsequent experiments have confirmed (and elaborated on) this finding. As everyone who’s followed the research—or even occasionally picked up a copy of Psychology Today—knows, any graduate student with a clipboard can demonstrate that reasonable-seeming people are often totally irrational. Rarely has this insight seemed more relevant than it does right now. Still, an essential puzzle remains: How did we come to be this way?
In a new book, “The Enigma of Reason” (Harvard), the cognitive scientists Hugo Mercier and Dan Sperber take a stab at answering this question. Mercier, who works at a French research institute in Lyon, and Sperber, now based at the Central European University, in Budapest, point out that reason is an evolved trait, like bipedalism or three-color vision. It emerged on the savannas of Africa, and has to be understood in that context.
Stripped of a lot of what might be called cognitive-science-ese, Mercier and Sperber’s argument runs, more or less, as follows: Humans’ biggest advantage over other species is our ability to coöperate. Coöperation is difficult to establish and almost as difficult to sustain. For any individual, freeloading is always the best course of action. Reason developed not to enable us to solve abstract, logical problems or even to help us draw conclusions from unfamiliar data; rather, it developed to resolve the problems posed by living in collaborative groups.
“Reason is an adaptation to the hypersocial niche humans have evolved for themselves,” Mercier and Sperber write. Habits of mind that seem weird or goofy or just plain dumb from an “intellectualist” point of view prove shrewd when seen from a social “interactionist” perspective.
Consider what’s become known as “confirmation bias,” the tendency people have to embrace information that supports their beliefs and reject information that contradicts them. Of the many forms of faulty thinking that have been identified, confirmation bias is among the best catalogued; it’s the subject of entire textbooks’ worth of experiments. One of the most famous of these was conducted, again, at Stanford. For this experiment, researchers rounded up a group of students who had opposing opinions about capital punishment. Half the students were in favor of it and thought that it deterred crime; the other half were against it and thought that it had no effect on crime.
The students were asked to respond to two studies. One provided data in support of the deterrence argument, and the other provided data that called it into question. Both studies—you guessed it—were made up, and had been designed to present what were, objectively speaking, equally compelling statistics. The students who had originally supported capital punishment rated the pro-deterrence data highly credible and the anti-deterrence data unconvincing; the students who’d originally opposed capital punishment did the reverse. At the end of the experiment, the students were asked once again about their views. Those who’d started out pro-capital punishment were now even more in favor of it; those who’d opposed it were even more hostile.
If reason is designed to generate sound judgments, then it’s hard to conceive of a more serious design flaw than confirmation bias. Imagine, Mercier and Sperber suggest, a mouse that thinks the way we do. Such a mouse, “bent on confirming its belief that there are no cats around,” would soon be dinner. To the extent that confirmation bias leads people to dismiss evidence of new or underappreciated threats—the human equivalent of the cat around the corner—it’s a trait that should have been selected against. The fact that both we and it survive, Mercier and Sperber argue, proves that it must have some adaptive function, and that function, they maintain, is related to our “hypersociability.”
Mercier and Sperber prefer the term “myside bias.” Humans, they point out, aren’t randomly credulous. Presented with someone else’s argument, we’re quite adept at spotting the weaknesses. Almost invariably, the positions we’re blind about are our own.
A recent experiment performed by Mercier and some European colleagues neatly demonstrates this asymmetry. Participants were asked to answer a series of simple reasoning problems. They were then asked to explain their responses, and were given a chance to modify them if they identified mistakes. The majority were satisfied with their original choices; fewer than fifteen per cent changed their minds in step two.
In step three, participants were shown one of the same problems, along with their answer and the answer of another participant, who’d come to a different conclusion. Once again, they were given the chance to change their responses. But a trick had been played: the answers presented to them as someone else’s were actually their own, and vice versa. About half the participants realized what was going on. Among the other half, suddenly people became a lot more critical. Nearly sixty per cent now rejected the responses that they’d earlier been satisfied with.
This lopsidedness, according to Mercier and Sperber, reflects the task that reason evolved to perform, which is to prevent us from getting screwed by the other members of our group. Living in small bands of hunter-gatherers, our ancestors were primarily concerned with their social standing, and with making sure that they weren’t the ones risking their lives on the hunt while others loafed around in the cave. There was little advantage in reasoning clearly, while much was to be gained from winning arguments.
Among the many, many issues our forebears didn’t worry about were the deterrent effects of capital punishment and the ideal attributes of a firefighter. Nor did they have to contend with fabricated studies, or fake news, or Twitter. It’s no wonder, then, that today reason often seems to fail us. As Mercier and Sperber write, “This is one of many cases in which the environment changed too quickly for natural selection to catch up.”
Steven Sloman, a professor at Brown, and Philip Fernbach, a professor at the University of Colorado, are also cognitive scientists. They, too, believe sociability is the key to how the human mind functions or, perhaps more pertinently, malfunctions. They begin their book, “The Knowledge Illusion: Why We Never Think Alone” (Riverhead), with a look at toilets.
Virtually everyone in the United States, and indeed throughout the developed world, is familiar with toilets. A typical flush toilet has a ceramic bowl filled with water. When the handle is depressed, or the button pushed, the water—and everything that’s been deposited in it—gets sucked into a pipe and from there into the sewage system. But how does this actually happen?
In a study conducted at Yale, graduate students were asked to rate their understanding of everyday devices, including toilets, zippers, and cylinder locks. They were then asked to write detailed, step-by-step explanations of how the devices work, and to rate their understanding again. Apparently, the effort revealed to the students their own ignorance, because their self-assessments dropped. (Toilets, it turns out, are more complicated than they appear.)
Sloman and Fernbach see this effect, which they call the “illusion of explanatory depth,” just about everywhere. People believe that they know way more than they actually do. What allows us to persist in this belief is other people. In the case of my toilet, someone else designed it so that I can operate it easily. This is something humans are very good at. We’ve been relying on one another’s expertise ever since we figured out how to hunt together, which was probably a key development in our evolutionary history. So well do we collaborate, Sloman and Fernbach argue, that we can hardly tell where our own understanding ends and others’ begins.
“One implication of the naturalness with which we divide cognitive labor,” they write, is that there’s “no sharp boundary between one person’s ideas and knowledge” and “those of other members” of the group.
This borderlessness, or, if you prefer, confusion, is also crucial to what we consider progress. As people invented new tools for new ways of living, they simultaneously created new realms of ignorance; if everyone had insisted on, say, mastering the principles of metalworking before picking up a knife, the Bronze Age wouldn’t have amounted to much. When it comes to new technologies, incomplete understanding is empowering.
Where it gets us into trouble, according to Sloman and Fernbach, is in the political domain. It’s one thing for me to flush a toilet without knowing how it operates, and another for me to favor (or oppose) an immigration ban without knowing what I’m talking about. Sloman and Fernbach cite a survey conducted in 2014, not long after Russia annexed the Ukrainian territory of Crimea. Respondents were asked how they thought the U.S. should react, and also whether they could identify Ukraine on a map. The farther off base they were about the geography, the more likely they were to favor military intervention. (Respondents were so unsure of Ukraine’s location that the median guess was wrong by eighteen hundred miles, roughly the distance from Kiev to Madrid.)
Surveys on many other issues have yielded similarly dismaying results. “As a rule, strong feelings about issues do not emerge from deep understanding,” Sloman and Fernbach write. And here our dependence on other minds reinforces the problem. If your position on, say, the Affordable Care Act is baseless and I rely on it, then my opinion is also baseless. When I talk to Tom and he decides he agrees with me, his opinion is also baseless, but now that the three of us concur we feel that much more smug about our views. If we all now dismiss as unconvincing any information that contradicts our opinion, you get, well, the Trump Administration.
“This is how a community of knowledge can become dangerous,” Sloman and Fernbach observe. The two have performed their own version of the toilet experiment, substituting public policy for household gadgets. In a study conducted in 2012, they asked people for their stance on questions like: Should there be a single-payer health-care system? Or merit-based pay for teachers? Participants were asked to rate their positions depending on how strongly they agreed or disagreed with the proposals. Next, they were instructed to explain, in as much detail as they could, the impacts of implementing each one. Most people at this point ran into trouble. Asked once again to rate their views, they ratcheted down the intensity, so that they either agreed or disagreed less vehemently.
Sloman and Fernbach see in this result a little candle for a dark world. If we—or our friends or the pundits on CNN—spent less time pontificating and more trying to work through the implications of policy proposals, we’d realize how clueless we are and moderate our views. This, they write, “may be the only form of thinking that will shatter the illusion of explanatory depth and change people’s attitudes.”
One way to look at science is as a system that corrects for people’s natural inclinations. In a well-run laboratory, there’s no room for myside bias; the results have to be reproducible in other laboratories, by researchers who have no motive to confirm them. And this, it could be argued, is why the system has proved so successful. At any given moment, a field may be dominated by squabbles, but, in the end, the methodology prevails. Science moves forward, even as we remain stuck in place.
In “Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, a psychiatrist, and his daughter, Sara Gorman, a public-health specialist, probe the gap between what science tells us and what we tell ourselves. Their concern is with those persistent beliefs which are not just demonstrably false but also potentially deadly, like the conviction that vaccines are hazardous. Of course, what’s hazardous is not being vaccinated; that’s why vaccines were created in the first place. “Immunization is one of the triumphs of modern medicine,” the Gormans note. But no matter how many scientific studies conclude that vaccines are safe, and that there’s no link between immunizations and autism, anti-vaxxers remain unmoved. (They can now count on their side—sort of—Donald Trump, who has said that, although he and his wife had their son, Barron, vaccinated, they refused to do so on the timetable recommended by pediatricians.)
The Gormans, too, argue that ways of thinking that now seem self-destructive must at some point have been adaptive. And they, too, dedicate many pages to confirmation bias, which, they claim, has a physiological component. They cite research suggesting that people experience genuine pleasure—a rush of dopamine—when processing information that supports their beliefs. “It feels good to ‘stick to our guns’ even if we are wrong,” they observe.
The Gormans don’t just want to catalogue the ways we go wrong; they want to correct for them. There must be some way, they maintain, to convince people that vaccines are good for kids, and handguns are dangerous. (Another widespread but statistically insupportable belief they’d like to discredit is that owning a gun makes you safer.) But here they encounter the very problems they have enumerated. Providing people with accurate information doesn’t seem to help; they simply discount it. Appealing to their emotions may work better, but doing so is obviously antithetical to the goal of promoting sound science. “The challenge that remains,” they write toward the end of their book, “is to figure out how to address the tendencies that lead to false scientific belief.”
“The Enigma of Reason,” “The Knowledge Illusion,” and “Denying to the Grave” were all written before the November election. And yet they anticipate Kellyanne Conway and the rise of “alternative facts.” These days, it can feel as if the entire country has been given over to a vast psychological experiment being run either by no one or by Steve Bannon. Rational agents would be able to think their way to a solution. But, on this matter, the literature is not reassuring. 

jueves, 13 de octubre de 2016

En la empatía, vale más la reflexión que la intuición

Las personas que piensan analíticamente reconocen mejor los sentimientos de los demás que las que se fían de su intuición, señala la reciente investigación. 
Ponerse en la piel de los demás, ser sensible, reconocer los sentimientos de alegría, dolor o pena ajenos. En definitiva, ser empático. ¿De qué depende? Según la creencia popular, es una cuestión de intuición más que de reflexión. Un estudio reciente revela, sin embargo, que las personas podemos percibir y entender mejor las emociones de nuestros congéneres, es decir, empatizar con ellos, si pensamos de manera sistemática y sopesamos toda la información que si nos fiamos de nuestra intuición.
«Tener éxito en las relaciones personales y profesionales requiere la capacidad de inferir con precisión los sentimientos de los demás, es decir, de ser empáticamente certeros. Algunas personas son mejores que otras en eso, una diferencia que puede explicarse en parte por el tipo de pensamiento», explica Jennifer Lerner, de la Universidad Harvard y autora principal del estudio. «No obstante, hasta ahora poco se sabía acerca de qué modo de pensamiento, si el intuitivo o el sistemático, ofrece una mayor precisión a la hora de percibir de los sentimientos del otro», señala.
Cuestión de cabeza
Los investigadores evaluaron la empatía de más de 900 participantes a partir de cuatro experimentos. En primer lugar, averiguaron qué capacidad relacionaban los propios probandos con la habilidad de percibir los sentimientos de otra persona: ¿la reflexión o la intuición? La mayoría de los encuestados se decantaron por la intuición.
En una segunda prueba, los experimentadores pidieron a los participantes que mantuvieran, por parejas, una entrevista de trabajo ficticia. Los roles de jefe y de candidato se adjudicaron al azar. Después de la conversación, se pidió a los sujetos que indicasen, mediante un cuestionario, cómo se habían sentido ellos mismos y cómo creían que se había sentido su interlocutor durante la entrevista. Además, evaluaron, a partir de una prueba cognitiva, si los probandos pensaban de manera sistemática o, por el contrario, tendían a confiar en su intuición. En un experimento final, los investigadores examinaron las estrategias de pensamiento de los participantes. También en este caso constataron que los que pensaban de manera reflexiva presentaban una mejor capacidad para comprender los sentimientos de los demás.
Según concluye Lerner, los hallazgos de este estudio resultan de interés para las personas que ocupan puestos directivos, puesto que sugieren que se debe utilizar más la cabeza y menos la intuición para ponerse en la piel de los empleados.
Más información en American Psychological Association
Fuentes: Spektrum.de / Daniela Zeibig y APA

martes, 30 de agosto de 2016

Internet es el universo de la máscara

David Le Breton 


Belleza, delgadez, juventud, imagen. El cuerpo está en el centro de las preocupaciones de una sociedad que, paradójicamente, está sentada en el auto y en la oficina, frente a la computadora; de una sociedad que por momentos actúa como si el cuerpo fuera "un accesorio prescindible". El sociólogo y antropólogo francés David Le Breton ha estudiado esa relación de "amor-odio" durante más de dos décadas desde su cátedra en la Facultad de Ciencias Sociales de la Universidad de Estrasburgo, y la ha plasmado en libros tales como Antropología del cuerpo y modernidad (1990), Adiós al cuerpo (1999), La sociología de cuerpo (2002) y El sabor del mundo (2007), entre otros títulos traducidos al español. Ahora la profundiza en Rostros, un ensayo de antropología que editaron en la Argentina Letra Viva y el Instituto de la Máscara (ver recuadro), donde el académico recibió a LN R durante su última visita a Buenos Aires. El rostro "nos deja desnudos frente a la mirada de los otros", reflexiona Le Breton; en la sociedad occidental "somos juzgados, reconocidos, amados o detestados" a partir de la apariencia. Como contracara, dice, Internet y las redes sociales plantean un universo de máscaras, donde las emociones se simplifican como los rostros en "emoticones" y "caritas felices", y las relaciones se deshumanizan.
-¿Qué nos dice sobre nuestra sociedad el papel que le asignamos al cuerpo?
*Para mí, el cuerpo está en el centro de las preocupaciones de innumerables occidentales. En los últimos años se desarrolló un mercado del cuerpo que alimenta una preocupación por la apariencia, la juventud, la seducción, la belleza, la delgadez... Y también el cuerpo está en el centro de las preocupaciones en términos de salud, por las actividades físicas y deportivas que muchos de nuestros contemporáneos practican para mantenerse en forma. Creo que el cuerpo se convirtió en un elemento importante de nuestras preocupaciones, en la medida en que es cada vez menos utilizado en el desarrollo de la vida cotidiana y de la vida profesional. Yo he hablado del tema de la "humanidad sentada", es decir que, para muchos de nuestros contemporáneos, el cuerpo en la actualidad no sirve para nada. Muchos de nuestros contemporáneos están sentados durante todo el día en el auto y en la oficina, y en los edificios urbanos vemos el auge de las escaleras mecánicas, que hacen que la gente se detenga, no se mueva; como si el cuerpo ya no sirviera. En ese contexto de subutilización del cuerpo nace el sentimiento de no sentirse bien en el propio pellejo. Esa subutilización del cuerpo provoca una fatiga nerviosa.

Identidad. "No hay una verdad sobre el ser, no hay una verdadera persona, sino innumerables versiones de la misma persona", dice Le Breton. Foto: Daniel Pessah
-El auge de los cosméticos, las dietas, los ejercicios y las cirugías para modificar la imagen presuponen un culto al cuerpo. Sin embargo, usted señala el advenimiento de una era en la que el cuerpo es visto como un accesorio prescindible...
-Hay un culto ambivalente del cuerpo: por un lado hay un odio por el cuerpo y por el otro una pasión por el cuerpo. Lo que usted menciona como el culto del cuerpo es la voluntad de modelar el cuerpo, de "trabajarlo". El cuerpo que no fue "trabajado" no resulta un cuerpo interesante. La sociedad convirtió el cuerpo en un accesorio, una suerte de materia prima con la que podemos construir un personaje. Por medio del fisicoculturismo, de las dietas, nos volvemos en cierto modo ingenieros de nuestro propio cuerpo. La gente que no trabaja su cuerpo es señalada como aquella que se deja estar, y es excluida. Tienen mala reputación. Como si fueran personas moralmente cuestionables porque no juegan el juego del marketing, de los cosméticos...
-Si el cuerpo es un accesorio, ¿a quién pertenece? ¿Cuál es entonces el verdadero ser?
-No hay una verdad sobre el ser, no hay una verdadera persona, sino innumerables versiones de la misma persona. Lo que nos transforma son los contextos, que fabrican lo que somos. Hay en nosotros miles y miles de personajes posibles que quizá no conoceremos nunca, porque sólo determinadas circunstancias podrían hacerlos aparecer. Somos una presencia humana. Para mí no existe el espíritu por un lado y el cuerpo por otro. La condición humana es una condición corporal. Hay una inteligencia del cuerpo así como hay una corporalidad del pensamiento.
-¿El rostro sería la máxima expresión de esto que nos pasa con el cuerpo? ¿Lo odiamos más porque se ve más?
-Los únicos lugares desnudos del cuerpo son las manos y el rostro. A partir de nuestro rostro somos juzgados, reconocidos, amados, detestados. Por nuestro rostro se nos asigna un sexo, una edad, se nos juzga como bellos o feos. El rostro es un lugar de alta vulnerabilidad en el vínculo social, porque nos deja desnudos frente a la mirada de los otros. Lo que detestamos sobre todo es el rostro de la vejez, el rostro de la enfermedad, el rostro de la desfiguración. Yo creo que ahí tenemos que librar batalla, para subrayar el hecho de que la dignidad y la equidad de los hombres y las mujeres es también la dignidad del rostro, ya sea el rostro de un niño o el de un anciano. Usted tiene razón cuando dice que a veces el rostro es el lugar del odio y, de manera particular, lo es del racismo. Podríamos calificar al racismo como la liquidación del rostro. Para el racista hay tipos, razas, etnias. Se habla de portación de rostro, la cara pasa a ser una prueba de culpabilidad. Para el racista, el otro no existe en su singularidad. Todos son iguales, según la típica expresión del racista.
-Detestamos en los otros esa uniformidad desde el racismo, y sin embargo nos uniformamos con cirugías estéticas, medidas, dietas...
-Sí, sobre todo en el caso de las mujeres. Es la cuestión de la tiranía de la apariencia, que se da con mucha más frecuencia en los Estados Unidos y aquí, en América latina, donde la mujer sólo vale por lo que es su cuerpo, está asignada a su cuerpo. El hombre rara vez es juzgado por su cuerpo, si bien el mercado se está ampliando para alcanzarlo en determinados cuidados estéticos. No obstante, la proporción aún es mayor entre las mujeres, que sobre todo en sociedades cultural y económicamente más pobres sólo ven la salvación a través de sus cuerpo, ven su cuerpo como el único medio para un ascenso social. Una estudiante colombiana que hizo su tesis conmigo trabajó sobre las cirugías estéticas en mujeres colombianas cuyo sueño era convertirse en amantes o esposas de los narcotraficantes, con la convicción de que para serlo debían tener una buena figura, pechos de determinada medida. Se operan buscando dinero y poder, aunque eso implique incluso prostituirse, para seguir operándose cuando lo obtienen. Sólo el cuerpo las puede salvar.
-Parece una paradoja que mientras llevamos una vida sedentaria en la que el cuerpo pareciera no importarnos, nos obsesionemos por la delgadez, la belleza y la juventud eterna... ¿O una cosa es consecuencia de la otra?
-Creo que esa preocupación por el cuerpo proviene del hecho de que nos sentimos cada vez menos dentro de nuestro cuerpo. El cuerpo plantea problemas y por eso no dejamos de hablar y de preocuparnos por él. Durante los años 60 y 70 no hablábamos del cuerpo, porque el cuerpo era una evidencia. Hoy nos plantea problemas; por eso tratamos de controlarlo y nos planteamos preguntas respecto de él. El mercado del cuerpo que floreció en los años 90 y 2000 multiplica esa obsesión por sentirse bien dentro del propio cuerpo: tener buenas medidas, el peso correcto, preocuparse por la salud, hacer footing. Las nuevas generaciones desarrollan actividades deportivas extremas, que son un síntoma del querer volver a encontrar la sensación de lo real. Las conductas de riesgo, el alcoholismo, los trastornos alimentarios como la anorexia y la bulimia, el exceso de velocidad en las rutas: todo es una búsqueda de la realidad, de encontrar límites físicos, de encontrar la sensación de lo real que nos está faltando.
-En ese sentido, pensando en esa necesidad de reencontrarse con lo real que se evidencia más en los jóvenes, ¿se puede vislumbrar un futuro positivo, de reencuentro con el cuerpo?
-Sí, hay una dimensión positiva y feliz de encuentro con el cuerpo. Un ejemplo es el auge del caminar. Yo escribí un libro que se llama Elogio de la caminata . Vemos en Europa y en los Estados Unidos cada vez más decenas de millones de personas que caminan, no desde el culto obsesivo del cuerpo, sino desde el reencuentro con el placer de existir. Es una manera de usar todos los recursos corporales, sensoriales: la persona que camina encuentra la plenitud del sentido de su existencia. Me gusta analizar la caminata como una forma de resistencia: es ponerse por encima de esa pesadez que concierne al cuerpo hoy.
-En El sabor del mundo , usted dice que "somos corporalmente", que no hay un vínculo con el mundo que no pase primero por los sentidos. Pensaba en el uso de Internet, y en cómo en cierto modo los sentidos tienden a desvanecerse en el mundo virtual, salvo por la vista, que se exalta... ¿eso tiene relación con la importancia que le damos a la imagen?
-Hay dos sentidos que se encuentran privilegiados en el mundo contemporáneo. Uno es la vista; estamos en una sociedad del look, de la imagen, del espectáculo; una sociedad donde todo tiene que estar a la vista, donde todo es visual. Otro sentido muy presente es el del oído: en particular por la importancia que ha cobrado la utilización permanente del teléfono celular, la importancia que aún tiene la televisión, la radio, pero también del ruido que nos rodea, del tránsito, de la ciudad. El tacto es un sentido olvidado en nuestras sociedades: en un principio no hay que tocar a los otros y cuando se hace es de una manera muy ritualizada.
-Con Internet, ni siquiera para el sexo el tacto es una condición necesaria...
-Claro, y la cibersexualidad es una prolongación de lo que pasa con la procreación asistida en laboratorios. Los niños se pueden producir sin intervención, sin sexualidad, sin cuerpo. Y hasta existe ese fantasma que se ha desarrollado en la mente de algunos científicos: que el cuerpo ya no es necesario para que se engendren chicos. Se podrían hacer chicos de una manera limpia, aséptica, sin cuerpos, sin mujeres. Estamos en un universo donde se plantea un cierto odio del cuerpo. Es un universo puritano, porque también está el odio del deseo. El universo de Internet es un universo autista.
-Internet ha incorporado en la vida cotidiana el uso de "emoticones", íconos que representan estados de ánimo a través de expresiones estereotipadas del rostro. Las "caritas felices", ¿no hablan de una simplificación de nuestra existencia, de relaciones más superficiales y menos comprometidas?
-Sí, porque en la medida en que el rostro vivo del otro ya no está presente, se lo transforma en figura en el sentido geométrico del término; es una suerte de simulacro que muestra una deshumanización. Y, al mismo tiempo, crece el simplismo en los intercambios que tienen lugar. Alguien que cuenta por Internet un chiste pone una cara sonriente como si el otro fuera tan estúpido que no pudiese reír solo.
-Las redes sociales, como Facebook o Twitter, en las que los internautas se relacionan a partir de un rostro y un nombre propio, ¿no representan un quiebre con respecto a lo que ocurría hasta hace unos años en Internet, cuando las relaciones virtuales se amparaban en el anonimato?
-Yo creo que Internet es el universo de la máscara, aun cuando esté presente una foto del rostro del otro, porque no es una presencia viva del otro. Y por eso podemos hacerle creer cualquier cosa. No sabemos bien a quién está representando esa foto. Se sabe que las nuevas generaciones suelen multiplicar sus seudónimos en las redes y en los sitios de chateo: van probando personajes para saber quiénes son. Se hacen pasar por mujeres, por gente mayor o más joven... Como dicen los norteamericanos, "en Internet nadie sabe que usted es un perro".
-¿Aun en las redes sociales con nombre y apellido? Porque en Facebook usted es David Le Breton, escribe con su nombre, con una cara, una foto que elige, pero que es suya...
-Pero, ¿es realmente mi foto o no lo es? Y finalmente, ¿soy yo? En Internet uno no es más que quien dice ser, uno se construye un personaje y es un relato que hace sobre sí mismo. Y eso tiene que ver con el universo de las máscaras. Hay una construcción ficticia del mundo. Cuando en Facebook una persona dice "tengo 300 amigos", eso basta para mostrar que hay un cierto ridículo allí, una degradación de la amistad, porque se clasifica como "amigos" a todos los que se inscribieron en su sitio, y por otra parte es gente a la que casi con seguridad no vamos a ver nunca.
-Hay fantasías, como las de la película Avatar , que juegan con la posibilidad de transmigrar de un cuerpo a otro para vivir otra vida. ¿Por qué eso nos fascina tanto?
-Creo que es una consecuencia de ese odio por el cuerpo. Es un odio absoluto, radical. El personaje de Avatar es un hombre discapacitado, pero cuando está en el universo virtual cumple proezas físicas extraordinarias. Lo que nos dice Avatar es que el cuerpo nos hace echar raíces sobre la muerte o sobre la enfermedad o la discapacidad. Habla de la fragilidad y de límites muy estrechos, mientras que en el universo de lo virtual no hay límites. En el universo de Avatar lo único que importa para nuestra esencia son aquellas informaciones que permanecen en nuestro cerebro: el cuerpo es percibido como algo molesto, como un obstáculo. Porque es el lugar del límite, del envejecimiento, de la fragilidad. Pero esa fragilidad, esa vulnerabilidad del cuerpo, el hecho de que el cuerpo nos limite, el hecho de que existan las enfermedades y la propia muerte, es la condición del sabor del mundo. El hecho de no ser inmortales nos hace vivir con fervor. Si perdemos nuestro cuerpo, está claro que perdemos toda la sensorialidad del mundo, todo el sabor del mundo... ¿Cuáles podrían ser las sensaciones del hombre virtual? Ninguna. Sería un universo de pura racionalidad, de un puritanismo absoluto; es el universo de la información. Y la información no tiene sabor, ni tacto, ni deseo, ni nada. Sería un universo sin humanidad.
Por Mercedes Funes mfunes@lanacion.com.ar

El enigma del rostro

"Los rostros son enigmas que esconden pasiones y emociones, verdades y mentiras que a veces lava una sonrisa. Son el poder de la mirada fija en la mirada del otro, que es su doble, su cómplice o enemigo." Eso sostienen la Lic. Elina Matoso y el Dr. Mario Buchbinder, directores del Instituto de la Máscara, en el prólogo de la versión castellana de Rostros , el libro de David Le Breton recientemente editado en la Argentina por esa entidad y Letra Viva , en el que recorre las paradojas de la historia del rostro humano.

martes, 5 de julio de 2016

¿Los bebés imitan realmente a los adultos?

La reciente investigación pone en duda que los humanos nazcamos con la capacidad de imitar. La probabilidad de que los bebés del estudio reprodujeran los gestos de sus progenitores eran las mismas de que no lo hicieran.
Ya en las primeras semanas de vida, los bebés empiezan a imitar los sonidos, los gestos y las expresiones faciales de otras personas, sugieren numerosos estudios llevados a cabo en los últimos decenios. Por el contrario, investigadores de la Universidad de Queensland han demostrado en fecha reciente que, al parecer, los bebés no son imitadores natos.
Según argumentan los autores, las investigaciones que han revelado hasta ahora la capacidad innata de imitar de los humanos se limitan al hecho de que los niños sacan la lengua o abren la boca al igual que sus padres cuando ven que estos últimos lo hacen. Un comportamiento de este tipo podría deberse a una reacción del bebé ante la percepción de que mamá o papá hace algo interesante, indican.
Aprender a imitar
Los investigadores mostraron a 106 bebés 11 gestos o expresiones faciales diferentes a la edad de una, dos, seis y nueve semanas con el fin de comprobar, en un estudio longitudinal, si reproducían esos patrones gestuales. Descubrieron que, en conjunto, la probabilidad de que imitaran a sus padres era tan grande como la posibilidad de que hicieran cualquier otra cosa. Según Virgnia Slaughter, autora principal del trabajo, ello demuestra que los bebés aprenden a imitar, bien observando cómo una persona imita a otra o bien viendo cómo los imitan a ellos mismos. Al principio, los padres reproducen los gestos de su hijo cada dos minutos, señala la investigadora.
«Los resultados demuestran que ciertas conductas humanas no son innatas», afirma Slaughter. Hasta ahora, la capacidad de imitar se había considerado, junto con la del lenguaje, una característica de los humanos.
El equipo prevé estudiar el fenómeno en niños de hasta dos años, con el fin de averiguar a qué edad se empieza a imitar a los demás. «En etapas posteriores, los niños copian las acciones de otros, pero la hipótesis controvertida de que ello ocurre desde el momento del nacimiento debe replantearse», concluye Slaughter.
Más información en Current Biology
Fuentes: Spektrum.de/ Daniela Zeibig y Universidad de Queensland

jueves, 2 de junio de 2016

Los humanos no son únicos: las orcas también evolucionan gracias a la cultura

Un estudio publicado esta semana ofrece uno de los primeros ejemplos más allá del Homo sapiens de cómo la cultura puede modelar la evolución de una especie hasta diferenciarla de otros grupos, tanto como se diferencian un esquimal de un japonés o un cazador y recolector de un agricultor. Los humanos, viene a concluir el trabajo, no somos los únicos capaces de cambiar nuestra biología gracias a comportamientos aprendidos de nuestros mayores.
El estudio, publicado en Nature Communications, se centra en las orcas, el mayor de los delfines y uno de los mamíferos más inteligentes y sociales. Investigadores de siete países han analizado el genoma de 50 individuos de cinco poblaciones repartidas por el Pacífico, el Ártico y Antártico. Las orcas son cazadores versátiles y especializados en nichos muy concretos. Algunos grupos han aprendido a vivir solo de peces en un territorio bastante limitado del Pacífico Norte mientras otros recorren zonas mucho más amplias del mismo océano atrapando solo otros mamíferos marinos, sin apenas interactuar o competir un grupo con otro.También hay orcas especializadas en aves y otras en reptiles. Cerca del estrecho, en Gibraltar, viven dos grupos fascinantes de estos animales. Uno lleva cazando atunes durante generaciones sin prestar atención a los humanos que faenan en esas aguas. El otro ha aprendido a seguirlos y comerse solo los que atrapan los pescadores de palangre. Ninguno de los dos grupos cambia su estrategia.
Los resultados del estudio apuntan a que el ancestro de todas las orcas vivió hace unos 250.000 años. Desde entonces estos mamíferos se han extendido por todos los océanos, del Ártico a la Antártida, adaptándose a cada entorno, “una diversificación muy rápida en una escala temporal comparable a la de los humanos modernos”, dice el estudio. El trabajo apunta a que los diferentes grupos de orcas actuales, bien diferenciados genéticamente, provienen de un grupo fundador de unos pocos cientos de individuos. La separación comenzó justo después de un episodio de reducción de la población, un cuello de botella que les obligó a buscar nuevas formas de sobrevivir. Y desde entonces, esas nuevas especializaciones han surgido en varias ocasiones.
En Gibraltar viven dos grupos fascinantes de estos animales. Uno lleva cazando atunes durante generaciones sin prestar atención a los humanos que faenan en esas aguas. El otro ha aprendido a seguirlos y comerse solo los que atrapan los pescadores de palangre
Los autores del trabajo definen la cultura como una información que modifica el comportamiento y se puede transmitir de “unos individuos a otros por o el aprendizaje”. Su conclusión es que, al igual que en los humanos, las orcas han creado su propia cultura, la han transmitido de generación en generación y eso ha acabado por cambiar sus genes aportándoles nuevas adaptaciones a su entorno, ya sean aguas gélidas o una nueva dieta.
“Este es uno de los primeros casos en los que hemos descubierto cómo el comportamiento aprendido determina la evolución y no al revés”, explica a Materia Jochen Wolf, biólogo evolutivo de la Universidad de Uppsala (Suecia) y autor principal del estudio. “Esto es muy comparable a los humanos y nos muestra que nos somos el único animal que evoluciona gracias a la cultura”, resalta.


Se sabe que los primeros agricultores desarrollaron adaptaciones genéticas para tolerar la lactosa por el consumo continuado de productos lácteos. También que los inuit de Groenlandia eran gentes del Este de Asia que conquistaron el Ártico gracias a su capacidad para transmitir culturalmente nuevas técnicas de caza y supervivencia. Esa adaptación cultural provocó nuevas adaptaciones genéticas, como digerir mejor las grasas y aguantar las gélidas temperaturas del Ártico. En su estudio, Wolf y el resto de su equipo señalan varias adaptaciones similares que habrían surgido en las orcas y que les ayudan a vivir en aguas más frías o consumir solo un tipo de presas frente a otras.
El estudio resalta que, al igual que los humanos, las orcas también tienen un largo periodo de aprendizaje en el que la cría no se separa de la madre u otras hembras del grupo. Son ellas las que transmiten la cultura en esta especie, en parte porque viven mucho tiempo después de haber perdido la capacidad reproductora (las abuelas también enseñan). Para Wolf, hasta ahora la ciencia se ha centrado casi en exclusiva en los humanos en este tipo de estudios. En trabajo resalta que resultados como este invitan a buscar nuevas especies en las que la transmisión cultural haya impulsado la evolución.

martes, 29 de marzo de 2016

Neandertales, denisovanos y sapiens: sexo y adaptación local

Localización geográfica de las 159 poblaciones estudiadas.
Estamos tan acostumbrados a ser los únicos humanos sobre la Tierra que casi no podemos imaginar un pasado en que, viajando desde África hacia un mundo desconocido, lo más fácil era encontrar por ahí a otros de los nuestros, otras especies del género Homoque compartían con nosotros un pasado olvidado, y con las que, según sabemos ahora, no nos importaba compartir el sueño de una noche de verano. Sin considerarlo animalismo, y sin que nuestra lógica más profunda, la genética, lo viera inconveniente tampoco, puesto que de aquellos polvos han venido estos lodos que la ciencia revela ahora en nuestro genoma.
Según la última investigación de 1.523 genomas de personas de todo el mundo, incluidos por primera vez los de 35 melanesios, los neandertales se cruzaron no una, sino tres veces (en tres épocas distintas), con diversas poblaciones de humanos modernos. Solo se libraron los africanos, por la sencilla razón de que los neandertales no estaban allí. Los melanesios actuales llevan ADN de otra especie arcaica, los misteriosos denisovanos que vivían en Siberia hace 50.000 años, pero ni por esas se libraron de la promiscuidad neandertal: sus genomas actuales llevan las marcas inconfundibles tanto de neandertales como de denisovanos.
Y un premio de consolación: los genes de la evolución del córtex, la sede de la mente humana, son enteramente nuestros, de los Homo sapiens. Lo demás parecen ser adaptaciones al clima local. Son los resultados que 17 científicos de la Universidad de Washington en Seattle, la Universidad de Ferrara, el Instituto Max Planck de Antropología Evolutiva en Leipzig y el Instituto de Investigación Médica de Goroka, en Papúa Nueva Guinea, entre otros, han presentado en Science.

Según la última investigación, los neandertales se cruzaron no una, sino tres veces (en tres épocas distintas), con diversas poblaciones de humanos modernos

Los genomas se suelen medir en megabases, o millones de bases (las letrasdel ADN, gatacca…). El genoma humano tiene 3.235 megabases. De ellas, 51 megabases son arcaicas en los europeos, 55 en los surasiáticos y 65 en los asiáticos orientales. Casi todas esas secuencias arcaicas son de origen neandertal en estas poblaciones. En contraste, los melanesios presentan un promedio de 104 megabases arcaicas, de las que 49 son neandertales, y 43 son denisovanas (las 12 restantes son ambiguas de momento). Son solo números, aunque dan una idea del grado de precisión que ha alcanzado la genómica humana.
Pero el diablo mora en los detalles. Las secuencias arcaicas no están distribuidas de manera homogénea por el genoma, ni mucho menos. Hay zonas donde están muy poco representadas, es decir, donde hay tramos de 8 megabases o más sin una sola letra neandertal o denisovana. Estos tramos de puro ADN moderno, o sapiens, son ricas en genes implicados en el desarrollo del córtex cerebral –la sede de la mente humana— y el cuerpo estriado (o núcleo estriado), una región interior del cerebro responsable de los mecanismos de recompensa, y por tanto implicada a fondo en planear acciones y tomar decisiones.
Que los genes implicados en estas altas funciones mentales estén limpios de secuencias neandertales o denisovanas no puede ser casual, según los análisis estadísticos de los autores. El hecho implica, probablemente, que la presencia de ADN arcaico allí ha resultado desventajosa durante los últimos 50 milenios, y por tanto ha resultado barrida por la selección natural.
Entre los genes modernos se encuentra el famoso gen del lenguaje, FOXP2, lo que vuelve a plantear dudas sobre la capacidad de lenguaje de los neandertales. Que la secuencia de este gen sea idéntica en neandertales y sapiens se ha considerado una evidencia de que los neandertales hablaban, pero los genes son más que su secuencia de código (la que se traduce a proteínas): hay además zonas reguladoras esenciales, las que le dicen al gen dónde, cuándo y cuánto activarse. Otros genes puramente modernos son los implicados, cuando mutan, en el autismo.

Entre los genes modernos se encuentra el famoso gen del lenguaje, FOXP2, lo que vuelve a plantear dudas sobre la capacidad de lenguaje de los neandertales 

También son interesantes las regiones genómicas contrarias, es decir, las que están particularmente enriquecidas en genes neandertales o denisovanos. Los genomas melanesios han revelado 21 regiones de este tipo que muestran evidencias de haber sido favorecidas por la selección natural. Muchas de ellas contienen genes implicados en el metabolismo (la cocina de la célula), como el de la hormona GCG, que incrementa los niveles de glucosa en sangre, o el de la proteína PLPP1, encargada de procesar las grasas; también hay cinco genes implicados en la respuesta inmune innata, la primera línea de defensa contra las infecciones.
Todo ello refuerza los indicios anteriores de que los cruces de nuestros ancestros sapiens con las especies arcaicas que encontraron durante sus migraciones fuera de África tuvieron importancia para adaptarse a las condiciones locales: clima, dieta e infecciones frecuentes en la zona. Tiene sentido, desde luego.
Fueron sueños de una noche de verano, pero vuelven ahora a nuestro encuentro, como en una buena obra de teatro clásico.

miércoles, 9 de marzo de 2016

Descubren la vía de comunicación entre el cerebro y el sistema inmunitario del cuerpo

En los libros de texto se enseñaba hasta ahora que, en cuanto al sistema inmunitario, el cerebro y el resto del organismo constituyen entidades independientes. El cuerpo, expuesto a objetos extraños, sean bacterias o tejidos trasplantados, desencadena un torrente de actividad inmunitaria: los leucocitos devoran los patógenos invasores y destruyen las células infectadas. Los anticuerpos marcan los elementos extraños para que se detecten y sean destruidos. Así ocurre, excepto en el cerebro, pues la barrera hematoencefálica impide el acceso a los cuerpos extraños y a las células inmunitarias. Sin embargo, se ha descubierto una línea de comunicación entre el cerebro y el sistema inmunitario corporal. El estudio, publicado en julio del año pasado en Nature, se suma a un conjunto de investigaciones que vinculan el cerebro y las defensas del cuerpo.
Ya en 1921 se reconoció que el cerebro constituye, desde el punto de vista inmunitario, un caso aparte. Tejidos injertados en el sistema nervioso central suscitan respuestas mucho menos hostiles que los que se introducen en otras partes del cuerpo. Ello hizo pensar que el cerebro era «inmunitariamente privilegiado». Los especialistas han señalado, desde hace mucho, que la aparente inexistencia de drenaje linfático sería la causa de tal privilegio. El sistema linfático es, junto a los sistemas arterial y venoso, el tercer conjunto de vasos de nuestro cuerpo. Los nódulos linfáticos, estacionados periódicamente a lo largo de esta red de vasos, son como almacenes de células del sistema inmunitario. En casi todas las partes del cuerpo, los invasores provocan la liberación de estas células y su traslado por el sistema linfático hasta el torrente sanguíneo. El nuevo estudio ha revelado que el sistema linfático se halla conectado al cerebro.
Jonathan Kipnis, profesor de neurociencia en la Universidad de Virginia, y su grupo han identificado en ratones una red de vasos linfáticos en las meninges (membranas que envuelven el cerebro y la médula espinal) que aporta y retira fluido y células inmunitarias desde el fluido cerebroespinal hasta los nódulos linfáticos cervicales del cuello. Los investigadores habían demostrado en otro estudio que cierto tipo de células sanguíneas, llamadas células T y que también se observan en las meninges, parecían influir en la cognición. Mediante técnicas de neuroimagen, los científicos observaron en meninges de ratones la presencia de células T en vasos sin relación con arterias y venas.
Los vasos descubiertos, que también se han identificado en humanos, podrían explicar el enigma sobre el modo en que el sistema inmunitario interviene en las neuropatías y las psicopatías. Se cree que ciertos casos de esclerosis múltiple son consecuencia de la actividad autoinmunitaria en respuesta a infecciones del sistema nervioso central y del fluido raquídeo. «Aunque es pronto para hacer conjeturas, la alteración en estos vasos puede afectar a la progresión de la enfermedad en trastornos neurológicos que conllevan una notable componente inmunitaria, como la esclerosis múltiple, el autismo o el alzhéimer», indica Kipnis.
Algunas enfermedades mentales, como la depresión o la esquizofrenia, se han relacionado con la inflamación y la actividad inmunitaria anómala, aunque no se ha podido descubrir todavía el mecanismo subyacente. Este hallazgo plantea una tentadora línea de investigación que quizá se traduzca en fármacos.