Los programas neuroeducativos que se implementan en las escuelas tienen
muy poco que ofrecer al desarrollo de los niños. Así lo reporta una
reciente investigación de Psychology Review, la revista académica de la Asociación Americana de Psicología (APA).
El controversial artículo fue publicado por Jaffrey Bowers, profesor y
psicólogo especialista de la Escuela de Psicología Experimental de la
Universidad de Bristol.
En
él se detalla que las escuelas están gastando excesivas sumas de dinero
en programas educativos basados en las neurociencias que dicen mejorar
el entendimiento del desarrollo de los niños y su conducta. Sin embargo,
la evidencia sugiere que el conocimiento de las estructuras cerebrales
no ayuda a los maestros a mejorar sus técnicas de enseñanza ni a mejorar
la evaluación de los niños dentro del aula.
Los datos que otorgan
las neurociencias es muy interesante y llamativa. No hay nada más
deslumbrante que ver la imagen de un cerebro “iluminado”, pero esos
datos son irrelevantes para mejorar la conducta y aprendizaje de los
niños. Según Bowers, la mejor manera de afrontar los problemas y
dificultades de los estudiantes dentro del salón de clases es a través
de los programas conductuales, porque permiten realizar análisis de las
causas de los problemas y necesidades; implementar intervenciones
acordes al niño y su contexto, y evaluarlas minuciosamente.
Bowers nos da algunos ejemplos de programas neuroeducativos inútiles:
Los
programas que usan las imágenes cerebrales para detectar si la lectura
de los niños con dislexia ha mejorado, en vez de usar tests estandarizados de lectura.
Aquellos que describen sus métodos de aprendizaje como “neuroaprendizaje”.
Intervenciones
que exigen que los niños con dificultades sigan haciendo las
actividades donde tienen menos habilidades, en vez de buscarles
alternativas de aprendizaje relacionadas con sus habilidades.
Una
de las principales sugerencias del estudio es que los directivos y
administradores se alejen de los planes basados en las neurociencias y
que dediquen más esfuerzos y atención a las intervenciones que han sido
probadas en estudios aleatorios.
Algunos podrían pensar que Bowers
está en una cruzada contra el desarrollo neurocientífico, pero no es
así. Cada vez hay más y más investigadores y académicos1
que ven con mucha preocupación la excesiva importancia y recursos que
se destinan a planes cerebrales para comprender y mejorar la conducta,
porque la neurociencia es todavía una disciplina muy joven y sus
resultados son difícilmente aplicables fuera del laboratorio. Sin
embargo, los medios de comunicación han difundido la idea de que las
imágenes cerebrales publicadas por los estudios son la explicación
irrefutable de las conductas, aún cuando los autores de esos estudios
son muy precavidos en cuanto al alcance de sus datos. Otros estudios han señalado los errores metodológicos de los estudios cerebrales.
Los psicólogos no somos inmunes al neurocentrismo. El año pasado publicamos un estudio del MIT,
que encontró que los estudiantes de psicología le daban mayor
relevancia a las explicaciones que mencionaban al cerebro, aún cuando
sus datos no aportaran valor alguno al entendimiento de la conducta. Muy
parecido a lo que dice Bowers.
Las instituciones educativas son
propensas a incorporar intervenciones y planes que no cuentan con apoyo
científico, en especial las escuelas privadas, las cuales buscan
diferenciarse y ofrecer una educación supuestamente innovadora. La
investigación de Bowers pone en evidencia esto y, además, demuestra que
hay que mejorar el entendimiento de las intervenciones conductuales, ya
que muchos maestros y psicólogos dicen aplicar intervenciones
conductuales que en realidad no cumplen con los requisitos necesarios. Fuente: ScienceDaily
Las innumerables investigaciones que utilizan el IRMf
nos han enseñado que esta es una de las herramientas de investigación
neurocientífica más poderosas e importantes de la última década. Esta
tecnología permite obtener increíbles imágenes a color y nos ofrece gran
cantidad de información sobre lo que sucede en nuestro cerebro. A pesar
de toda la información que nos puede brindar, el IRMf también tiene sus
debilidades, y cuando las personas que no tienen un conocimiento
preciso intentan interpretar lo que muestran las imágenes se pueden
producir fácilmente falsos positivos.
Esto
motivó a los neurocientífico Craig Bennet y a la psicóloga Abigail
Baird, en el año 2009 a realizar un estudio para demostrar la facilidad
con la que los científicos se pueden engañar a sí mismo y demostrar
porque se necesitan estadísticas bien hechas. Para esto utilizaron como
“sujeto de estudio” a un salmón muerto y le tomaron imágenes por IRMf.
¿Qué demostraron los análisis posteriores? los análisis produjeron
evidencia de actividad cerebral, como si el pez muerto estuviera
pensando (claro que no lo estaba haciendo).
(Artículo relacionado: Los instrumentos de investigación más utilizados en neuropsicología )
La semana pasada, Maggie Koerth-Baker editora científica del reconocido sitio boingboing.net,
entrevistó al par de investigadores y estos explicaron cómo trabaja
realmente el IRMf y cómo los científicos deben asegurarse de que pueden
confiar en sus resultados. La entrevista está completamente traducida y
espero que la disfrutes y que despeje tus dudas metodológicas que
fundamentan el conocimiento científico. Maggie
Koerth-Baker: Empecemos por lo básico. Como cualquier persona, veo
regularmente en las noticias imágenes de resonancia magnética funcional,
pero realmente no sé como funciona o qué mide el IRMf. ¿Me pueden
explicar? Craig Bennet: Los cientificos
no medimos directamente la actividad del cerebro. Necesitas electrodos
implantados en el cerebro para realizar esto. Lo que realmente medimos
es la cantidad de interrupción magnética en el cerebro. Para lograr esto
utilizamos un truco básico del funcionamiento del cerebro y del cuerpo:
la sangre oxigenada y desoxigenada tienen diferentes propiedades
magnéticas. Abigail Baird: Si una región cerebral
está realizando mucho trabajo es probable que esté consumiendo mucho
oxígeno, por medio de un incremento del flujo sanguíneo. La premisa es
que si un área está trabajando mucho, entonces esta necesitará mayor
cantidad de nutrientes y oxígeno y esto será provisto por medio de la
sangre.
Es un método fiable utilizar el flujo sanguíneo para medir
la actividad cerebral, pero es una respuesta bastante lenta. La
verdadera actividad cerebral pasa cuando las células se están
comunicando con los neurotransmisores y transmiten electricidad. La
actividad cerebral real se mide por medio de electrodos conectados al
cerebro, como el EEG, que registra la actividad eléctrica. El problema
de utilizar el EEG es que no se sabe exactamente de donde proviene la
señal eléctrica o que significa esta señal. El IRMf presupone que la
actividad cerebral se basa en el consumo de oxígeno, pero hay un retraso
de 4-6 segundos, porque ese es el tiempo que le toma a la sangre para
llegar. Es una respuesta lenta y en cierta forma es una respuesta
descuidada. Estamos asumiendo que hay sobras aquí en la mancha A luego
en la mancha B, por lo que debe ser que la actividad cerebral está aquí y
no allá.
Estoy muy cansada de escuchar la frase “el cerebro se iluminó”
CB:
La mejor descripción que he escuchado es cuando ves una escena de
accidente de autos y eres capaz de decir que fue lo que sucedió basado
en las marcas que dejaron los neumáticos en la calle. Es una
aproximación.
MKB: Entonces cuando vemos estas imágenes de
las áreas cerebrales produciendo colores brillantes, no necesariamente
nos dicen que una parte está activa y el resto no. AB:
Estoy muy cansada de escuchar la frase “el cerebro se iluminó”. Esto te
hace pensar que se ven luces en la cabeza o algo así. Esta no es la
forma en que trabaja el cerebro. Esto produce un malentendido
fundamental sobre el significado de los resultados del IRMf. Estos
hermosos y coloridos mapas, son mapas de probabilidad. Ellos muestran la
probabilidad de actividad que ocurre en un área dada, esto no es una
prueba de actividad. Según nuestros análisis hay una probabilidad más
alta en la región con más sangre, ya que encontramos más sangre
desoxigenada en esta área. Esto también es correlacional. Aquí hay un
marco de tiempo y los cambios que cabría esperar, así que vemos partes
del cerebro que se correlacionan con esto. CB:
Contamos desde hace décadas con métodos para observar dentro del cerebro
de un ser humano vivo y hemos conseguido ciencia de calidad sobre ese
método. ¿Qué tiene el IRMf para agregar? Lo más importante es la
locación espacial, se puede decir que en la actividad cerebral ocurre
con un mayor grado de probabilidad, no es una prueba de actividad. Pero
lo que realmente te compra es la habilidad de producir imágenes
realmente hermosas del cerebro. Obtienen imágenes en escala de grises
con puntos coloridos que indican lo que es significante. Pero esto no
muestra la actividad cerebral, esto demuestra un dato estadístico.
Tenemos una herramienta de gran alcance y la capacidad de crear
dramáticas cifras que pueden ser persuasivas y lo podemos utilizar de
manera impropia. MKB: Entonces ¿cómo podemos saber si los
datos que obtenemos del IRMf son útiles? Si es solo correlación entonces
no demuestran realmente donde sucede la actividad cerebral. CB:Esta
es la razón por la cual debemos tener experimentos altamente
controlados. Para hacerlos bien necesitaras de dos condiciones, casi
exactamente iguales, excepto por algo fundamental. Algunos de los
estudios que más me gustan son los estudios visuales. Podría enseñarle
un mismo estímulo, por ejemplo, un círculo de luz intermitente, pero me
gustaría cambiar la posición de la misma, ya sea que esté posada en el
tercio superior o inferior de su campo de visión. Simplemente cambiando
la posición y la comparación de cada posición a la otra se puede ver que
las partes del cerebro son sensibles a cada mancha. Eso es un estudio
estricto y de control muy bueno. AB: Más de un
par de investigación son sensacionalistas. Existen comparaciones del
cerebro entre los Republicanos y Demócratas (partidos políticos en
EE.UU.). Esto es ridículo y un mal uso del IRMf. Esta no es una pregunta
lo suficientemente específica. MKB: ¿Pueden explicar qué quieren decir con una pregunta específica? AB:
En un estudio por IRMf tienes que estimular de alguna manera el
cerebro. Entonces, ¿qué le estás demostrando al cerebro con el objetivo
de hacer una distinción entre Republicanos y Demócratas? Digamos que les
muestran fotos de personas en bienestar, y los demócratas muestran una
mayor activación en un área y los republicanos en otra. Estos resultados
tal vez te digan algo sobre la compasión. O cómo procesamos la
compasión. Pero para decir que hay una diferencia fundamental entre los
dos grupos de personas, cuando hay tanta variación dentro del grupo, es
simplemente una tontería. Yo puedo obtener el mismo resultado… encontrar
grandes diferencias… entre dos grupos de Demócratas. Recuerda, no es
que el cerebro simplemente se ilumina, estas imágenes son el resultado
de las estadísticas, no de toda la actividad cerebral. Si observas el
mismo fenómeno en diferentes estudios, entonces puedes confiar en sus
resultados. Pero debes sospechar de un estudio si la pregunta no fue lo
suficientemente específica y los investigadores se apresuraron a ver qué
pasaba.
En casi todos los experimentos hay una medida ruidosa
Además,
lo que estas observado es el promedio del grupo, no los resultados
individuales de cada sujeto. Puedes tener un grupo de 40 personas y 39
de las 40 pueden mostrar actividad en un área, pero esa área aún podría
quedar afuera de las imágenes finales, porque no todo el mundo lo tenía.
Así que hay que considerar a los individuos, no sólo al grupo. MKB:
Volvamos al salmón muerto con el que trabajaron. Si el IRMf está
midiendo los cambios del flujo de sangre -o los cambios en la
oxigenación que indican un cambio en el flujo de sangre- ¿por qué
ustedes vieron alguna señal en el cerebro del salmón muerto? CB:
En casi todos los experimentos, especialmente con el IRM y en el IRMf,
hay una medida ruidosa. Existen toda clases de ruidos que entran en la
señal. Puede escoger una sobre su propio corazón latiendo. En una
ocasión teníamos una bombilla de luz funcionando mal en el scanner y
este estaba introduciendo una señal específica en nuestra base de datos.
Es necesario recolectar suficientes datos… realizar los experimentos la
suficiente cantidad de veces… para separar el ruido de la señal.
Estamos buscando una variación en el campo magnético. Con el salmón, la
grasa lograría hacer esta variación. El tejido graso tiene una señal
magnética, pero en algunas áreas de este tejido graso es más densa y en
otras regiones es menos grasosa, así que podrás encontrar la diferencia.
El cerebro del salmón es más grasoso y creó una variabilidad inherente.
Pero fué sólo ruido. Esto no se debió a ninguna actividad real.
Pudiendo producir un falso positivo como este. AB:
También encontramos actividad fuera del cuerpo del salmón. El imán en
sí tiene ruido. Siempre tendrá ruido. Y si este umbral es lo
suficientemente bajo, vas a conseguir que este patrón de ruido se
corresponda con tu hipótesis. MKB: Básicamente, el salmón
se trata de estadísticas, ¿verdad? ¿Por qué las estadísticas son tan
importantes? Creo que la mayoría de las personas se imaginan a los
científicos tomando registro de los datos y reportando lo que
observaron. Pero es algo mucho más complicado. AB:
En la mayoría de las ciencias conductuales y las ciencia naturales,
hay un cierto nivel de corte donde se consideran las cosas que hemos
encontrado como significativas y las que no lo son. La regla de oro es
0.01, menos de 1% de probabilidad de que estés viendo algo solo por
accidente, o un 99% de posibilidades de que se trate de una diferencia
real. Pero aún así puedes obtener sólo por casualidad 1 de cada 100
veces que te den el mismo exacto resultado. También estamos interesados
en los datos de nivel de 0.5. Cualquier cosa por arriba del 10% lo
llamamos tendencia -algo que podría estar sucediendo. Esto se ha
mantenido a lo largo de la historia de la psicología y las neurociencias
y es algo bastante bueno. Pero no se había tenido ninguna herramienta
que produjera la magnitud de datos que el IRMf produce. En lugar de
hacer comparaciones entre dos grupos de 40 personas, estás haciendo
comparaciones entre 100 mil puntos en el cerebro y los 0.01 ya no dicen
tanto porque tienen mucha más información para trabajar. CB:
Aquí está mi analogía, si te doy un dardo y te digo, “intenta dar en la
diana”, tienes alguna posibilidad de acertar. Tu oportunidad no es 0.
Pero, dependiendo de tu habilidad, podrás dar en el blanco en más o en
menos ocasiones. Así que probar el tiro con el dardo y acertar en el
primer tiro, eso sería algo impresionante. Es como encontrar un
resultado. Pero si sólo aciertas una vez de cada 100 intentos, entonces
sería algo menos impresionante. El IRMf es como tener 60 mil dardos que
se pueden tirar. Algunos darán en el blanco por casualidad y tenemos que
tratar de corregir esto. Tenemos la tendencia de establecer un umbral y
decir que es legítimo. Pero nuestro equipo ha encontrado que en la
literatura científica, entre el 25-40% de los artículos publicados están
usando una corrección inadecuada. Esto demuestra que podemos encontrar
más datos significativos, así que debemos ser más conservadores a la
hora de decir que los resultados son confiables. AB:
Si tienes una hipótesis realmente específica, entonces te puedes
adherir a los números tradicionales. Pero si no sabes bien qué es lo que
estás buscando y solo estás esperando a que se “activen las luces”,
entonces tendrás muchas más probabilidades de ver cosas al azar. Aquí es
cuando tenemos que ser más estrictos con lo que consideramos real. Y
las personas no siempre son tan cuidadosas con esto, como deberían ser. MKB:
¿Entonces están diciendo, ahora mismo, que hay buenas probabilidades de
que muchas investigaciones que utilizan el IRMf, muestran resultados
casi tan malos como los resultados que ustedes obtuvieron mientras
estudiaban al salmón muerto? CB: Más del
40% de las investigaciones publicadas en el 2008 no tienen una
corrección apropiada, así que ¿pueden haber resultados incorrectos en la
literatura científica? Absolutamente. Aún si corregimos perfectamente
los resultados es probablemente que 5% esten incorrectas. Siempre habrán
falsos positivos. Pero necesitamos hacer un buen trabajo para entregar
los mejores resultados que podamos. Lo que estamos diciendo es que no es
bueno para ti o para tu campo de estudio, si no corriges lo suficiente.
Este artículo se realizó en colaboración de Fernanda y Alejandra Alonso. Fuente:
Hay gente que, antes de que salga el sol, ya han desayunado, limpiado la casa y organizado su agenda. Sin embargo, para la mayoría de las personas, levantarse de la cama con los primeros rayos del sol es una auténtica proeza. De hecho, hay quienes son justo lo contrario: son mucho más eficaces y productivos por la noche.
Así, los científicos han creado dos grupos opuestos: los matutinos o alondras, que se despiertan temprano y aprovechan al máximo las mañanas y los vespertinos o búhos, cuyo rendimiento aumenta a medida que avanza el día. Sin embargo, ahora un estudio realizado en el Instituto de Investigación de biología Molecular y Biofísica de la Academia Rusa de Ciencias reveló que en realidad hay mucho más detrás de estos cronotipos y que ciertas personas no deberían madrugar jamás.
Personas "aletargadas" y personas "enérgicas"
Estos investigadores analizaron a 130 personas, quienes tuvieron que mantenerse despiertas durante 24 horas con el objetivo de analizar su nivel de energía. De esta forma descubrieron que hay personas que pueden pasar todo el día con un bajo nivel de energía, a quienes catalogaron como “aletargados” mientras que otros podían mantenerse más activos, a pesar de la privación del sueño e independientemente del horario al que se hubieran levantado, a estos últimos se les denominó “enérgicos”.
Estas nuevas categorías indican que para las personas con menos energía sería nefasto madrugar. De hecho, es probable que su problema se deba a que su ritmo circadiano no está bien sincronizado con el ciclo natural de luz y oscuridad.
Básicamente, la luz solar es una especie de reloj natural que estimula nuestro organismo para que deje de producir melatonina, la hormona que provoca el sueño. De esta forma logramos mantener un nivel de alerta adecuado durante el día. Al contrario, cuando cesa la luz, aumentan los niveles de melatonina y nos vamos adormeciendo.
En las personas madrugadoras y energéticas, su mayor pico de actividad llega al mediodía, que es cuando más intensa es la luz solar. Sin embargo, las personas vespertinas o aletargadas no estarían tan sincronizadas con este ciclo de luz, por lo que su rendimiento suele ir aumentando lentamente a lo largo del día.
Estas diferencias se deben, entre otros factores, a nuestro ADN. Según una investigación realizada en el Centro Nacional de Neurología y Psiquiatría de Tokio, el gen PER-3, uno de los genes de nuestro reloj biológico, determina la propensión a levantarnos más tarde o más temprano, así como nuestro nivel de energía a lo largo del día.
¿Por qué deberías conocer y adaptar tu ritmo de vida a tu cronotipo?
Conocer tu cronotipo te permitirá funcionar siguiendo tu ritmo circadiano natural, lo cual no solo repercutirá en tu productividad sino también en tu estado de ánimo y en tu salud. De hecho, se ha demostrado que cuando se produce un desajuste del ritmo circadiano la persona es más propensa a padecer obesidad, diabetes y algunos tipos de cáncer. Además, aprovechar los momentos de mayor productividad te permitirá hacer más con menos esfuerzo, lo cual redundará positivamente en tu estado de ánimo.
De hecho, el ritmo circadiano es tan importante que médicos del Hospital Paul Brousse de París han llegado a afirmar que la quimioterapia se debería aplicar en correspondencia con este ciclo ya que se conoce que las células de ciertos tipos de linfoma tienden a dividirse más entre las 9 y 10 de la noche. Al contrario, las células intestinales tienden a hacerlo a las 7 de la mañana y las de la médula ósea al mediodía. Por tanto, si la quimioterapia se aplicara en esos momentos, sería más eficaz y menos tóxica.
Fuentes:
Pulitov, A. A. et. Al. (2015) How many diurnal types are there? A search for two further “bird species”. Personality and Individual Differences; 72: 12-17.
Hida, A. et. Al. (2014) Screening of Clock Gene Polymorphisms Demonstrates Association of a PER3Polymorphism with Morningness–Eveningness Preference and Circadian Rhythm Sleep Disorder. Scientific Reports; 4: 6309.
Lévi, F. et. Al. (2007) Implications of circadian clocks for the rhythmic delivery of cancer therapeutics. Adv Drug Deliv Rev; 59(9-10):1015-1035.
In
1975, researchers at Stanford invited a group of undergraduates to take
part in a study about suicide. They were presented with pairs of
suicide notes. In each pair, one note had been composed by a random
individual, the other by a person who had subsequently taken his own
life. The students were then asked to distinguish between the genuine
notes and the fake ones.
Some
students discovered that they had a genius for the task. Out of
twenty-five pairs of notes, they correctly identified the real one
twenty-four times. Others discovered that they were hopeless. They
identified the real note in only ten instances.
As
is often the case with psychological studies, the whole setup was a
put-on. Though half the notes were indeed genuine—they’d been obtained
from the Los Angeles County coroner’s office—the scores were fictitious.
The students who’d been told they were almost always right were, on
average, no more discerning than those who had been told they were
mostly wrong.
In the second phase
of the study, the deception was revealed. The students were told that
the real point of the experiment was to gauge their responses to thinking
they were right or wrong. (This, it turned out, was also a deception.)
Finally, the students were asked to estimate how many suicide notes they
had actually categorized correctly, and how many they thought an
average student would get right. At this point, something curious
happened. The students in the high-score group said that they thought
they had, in fact, done quite well—significantly better than the average
student—even though, as they’d just been told, they had zero grounds
for believing this. Conversely, those who’d been assigned to the
low-score group said that they thought they had done significantly worse
than the average student—a conclusion that was equally unfounded.
“Once formed,” the researchers observed dryly, “impressions are remarkably perseverant.”
A
few years later, a new set of Stanford students was recruited for a
related study. The students were handed packets of information about a
pair of firefighters, Frank K. and George H. Frank’s bio noted that,
among other things, he had a baby daughter and he liked to scuba dive.
George had a small son and played golf. The packets also included the
men’s responses on what the researchers called the Risky-Conservative
Choice Test. According to one version of the packet, Frank was a
successful firefighter who, on the test, almost always went with the
safest option. In the other version, Frank also chose the safest option,
but he was a lousy firefighter who’d been put “on report” by his
supervisors several times. Once again, midway through the study, the
students were informed that they’d been misled, and that the information
they’d received was entirely fictitious. The students were then asked
to describe their own beliefs. What sort of attitude toward risk did
they think a successful firefighter would have? The students who’d
received the first packet thought that he would avoid it. The students
in the second group thought he’d embrace it.
Even
after the evidence “for their beliefs has been totally refuted, people
fail to make appropriate revisions in those beliefs,” the researchers
noted. In this case, the failure was “particularly impressive,” since
two data points would never have been enough information to generalize
from.
The Stanford studies became
famous. Coming from a group of academics in the nineteen-seventies, the
contention that people can’t think straight was shocking. It isn’t any
longer. Thousands of subsequent experiments have confirmed (and
elaborated on) this finding. As everyone who’s followed the research—or
even occasionally picked up a copy of Psychology Today—knows,
any graduate student with a clipboard can demonstrate that
reasonable-seeming people are often totally irrational. Rarely has this
insight seemed more relevant than it does right now. Still, an essential
puzzle remains: How did we come to be this way?
In
a new book, “The Enigma of Reason” (Harvard), the cognitive scientists
Hugo Mercier and Dan Sperber take a stab at answering this question.
Mercier, who works at a French research institute in Lyon, and Sperber,
now based at the Central European University, in Budapest, point out
that reason is an evolved trait, like bipedalism or three-color vision.
It emerged on the savannas of Africa, and has to be understood in that
context.
Stripped of a lot of what
might be called cognitive-science-ese, Mercier and Sperber’s argument
runs, more or less, as follows: Humans’ biggest advantage over other
species is our ability to coöperate. Coöperation is difficult to
establish and almost as difficult to sustain. For any individual,
freeloading is always the best course of action. Reason developed not to
enable us to solve abstract, logical problems or even to help us draw
conclusions from unfamiliar data; rather, it developed to resolve the
problems posed by living in collaborative groups.
“Reason
is an adaptation to the hypersocial niche humans have evolved for
themselves,” Mercier and Sperber write. Habits of mind that seem weird
or goofy or just plain dumb from an “intellectualist” point of view
prove shrewd when seen from a social “interactionist” perspective.
Consider
what’s become known as “confirmation bias,” the tendency people have to
embrace information that supports their beliefs and reject information
that contradicts them. Of the many forms of faulty thinking that have
been identified, confirmation bias is among the best catalogued; it’s
the subject of entire textbooks’ worth of experiments. One of the most
famous of these was conducted, again, at Stanford. For this experiment,
researchers rounded up a group of students who had opposing opinions
about capital punishment. Half the students were in favor of it and
thought that it deterred crime; the other half were against it and
thought that it had no effect on crime.
The
students were asked to respond to two studies. One provided data in
support of the deterrence argument, and the other provided data that
called it into question. Both studies—you guessed it—were made up, and
had been designed to present what were, objectively speaking, equally
compelling statistics. The students who had originally supported capital
punishment rated the pro-deterrence data highly credible and the
anti-deterrence data unconvincing; the students who’d originally opposed
capital punishment did the reverse. At the end of the experiment, the
students were asked once again about their views. Those who’d started
out pro-capital punishment were now even more in favor of it; those
who’d opposed it were even more hostile.
If
reason is designed to generate sound judgments, then it’s hard to
conceive of a more serious design flaw than confirmation bias. Imagine,
Mercier and Sperber suggest, a mouse that thinks the way we do. Such a
mouse, “bent on confirming its belief that there are no cats around,”
would soon be dinner. To the extent that confirmation bias leads people
to dismiss evidence of new or underappreciated threats—the human
equivalent of the cat around the corner—it’s a trait that should have
been selected against. The fact that both we and it survive, Mercier and
Sperber argue, proves that it must have some adaptive function, and
that function, they maintain, is related to our “hypersociability.”
Mercier
and Sperber prefer the term “myside bias.” Humans, they point out,
aren’t randomly credulous. Presented with someone else’s argument, we’re
quite adept at spotting the weaknesses. Almost invariably, the
positions we’re blind about are our own.
A
recent experiment performed by Mercier and some European colleagues
neatly demonstrates this asymmetry. Participants were asked to answer a
series of simple reasoning problems. They were then asked to explain
their responses, and were given a chance to modify them if they
identified mistakes. The majority were satisfied with their original
choices; fewer than fifteen per cent changed their minds in step two.
In
step three, participants were shown one of the same problems, along
with their answer and the answer of another participant, who’d come to a
different conclusion. Once again, they were given the chance to change
their responses. But a trick had been played: the answers presented to
them as someone else’s were actually their own, and vice versa. About
half the participants realized what was going on. Among the other half,
suddenly people became a lot more critical. Nearly sixty per cent now
rejected the responses that they’d earlier been satisfied with.
This
lopsidedness, according to Mercier and Sperber, reflects the task that
reason evolved to perform, which is to prevent us from getting screwed
by the other members of our group. Living in small bands of
hunter-gatherers, our ancestors were primarily concerned with their
social standing, and with making sure that they weren’t the ones risking
their lives on the hunt while others loafed around in the cave. There
was little advantage in reasoning clearly, while much was to be gained
from winning arguments.
Among the
many, many issues our forebears didn’t worry about were the deterrent
effects of capital punishment and the ideal attributes of a firefighter.
Nor did they have to contend with fabricated studies, or fake news, or
Twitter. It’s no wonder, then, that today reason often seems to fail us.
As Mercier and Sperber write, “This is one of many cases in which the
environment changed too quickly for natural selection to catch up.”
Steven
Sloman, a professor at Brown, and Philip Fernbach, a professor at the
University of Colorado, are also cognitive scientists. They, too,
believe sociability is the key to how the human mind functions or,
perhaps more pertinently, malfunctions. They begin their book, “The
Knowledge Illusion: Why We Never Think Alone” (Riverhead), with a look
at toilets.
Virtually
everyone in the United States, and indeed throughout the developed
world, is familiar with toilets. A typical flush toilet has a ceramic
bowl filled with water. When the handle is depressed, or the button
pushed, the water—and everything that’s been deposited in it—gets sucked
into a pipe and from there into the sewage system. But how does this
actually happen?
In a study
conducted at Yale, graduate students were asked to rate their
understanding of everyday devices, including toilets, zippers, and
cylinder locks. They were then asked to write detailed, step-by-step
explanations of how the devices work, and to rate their understanding
again. Apparently, the effort revealed to the students their own
ignorance, because their self-assessments dropped. (Toilets, it turns
out, are more complicated than they appear.)
Sloman
and Fernbach see this effect, which they call the “illusion of
explanatory depth,” just about everywhere. People believe that they know
way more than they actually do. What allows us to persist in this
belief is other people. In the case of my toilet, someone else designed
it so that I can operate it easily. This is something humans are very
good at. We’ve been relying on one another’s expertise ever since we
figured out how to hunt together, which was probably a key development
in our evolutionary history. So well do we collaborate, Sloman and
Fernbach argue, that we can hardly tell where our own understanding ends
and others’ begins.
“One
implication of the naturalness with which we divide cognitive labor,”
they write, is that there’s “no sharp boundary between one person’s
ideas and knowledge” and “those of other members” of the group.
This
borderlessness, or, if you prefer, confusion, is also crucial to what
we consider progress. As people invented new tools for new ways of
living, they simultaneously created new realms of ignorance; if everyone
had insisted on, say, mastering the principles of metalworking before
picking up a knife, the Bronze Age wouldn’t have amounted to much. When
it comes to new technologies, incomplete understanding is empowering.
Where
it gets us into trouble, according to Sloman and Fernbach, is in the
political domain. It’s one thing for me to flush a toilet without
knowing how it operates, and another for me to favor (or oppose) an
immigration ban without knowing what I’m talking about. Sloman and
Fernbach cite a survey conducted in 2014, not long after Russia annexed
the Ukrainian territory of Crimea. Respondents were asked how they
thought the U.S. should react, and also whether they could identify
Ukraine on a map. The farther off base they were about the geography,
the more likely they were to favor military intervention. (Respondents
were so unsure of Ukraine’s location that the median guess was wrong by
eighteen hundred miles, roughly the distance from Kiev to Madrid.)
Surveys
on many other issues have yielded similarly dismaying results. “As a
rule, strong feelings about issues do not emerge from deep
understanding,” Sloman and Fernbach write. And here our dependence on
other minds reinforces the problem. If your position on, say, the
Affordable Care Act is baseless and I rely on it, then my opinion is
also baseless. When I talk to Tom and he decides he agrees with me, his
opinion is also baseless, but now that the three of us concur we feel
that much more smug about our views. If we all now dismiss as
unconvincing any information that contradicts our opinion, you get,
well, the Trump Administration.
“This
is how a community of knowledge can become dangerous,” Sloman and
Fernbach observe. The two have performed their own version of the toilet
experiment, substituting public policy for household gadgets. In a
study conducted in 2012, they asked people for their stance on questions
like: Should there be a single-payer health-care system? Or merit-based
pay for teachers? Participants were asked to rate their positions
depending on how strongly they agreed or disagreed with the proposals.
Next, they were instructed to explain, in as much detail as they could,
the impacts of implementing each one. Most people at this point ran into
trouble. Asked once again to rate their views, they ratcheted down the
intensity, so that they either agreed or disagreed less vehemently.
Sloman
and Fernbach see in this result a little candle for a dark world. If
we—or our friends or the pundits on CNN—spent less time pontificating
and more trying to work through the implications of policy proposals,
we’d realize how clueless we are and moderate our views. This, they
write, “may be the only form of thinking that will shatter the illusion
of explanatory depth and change people’s attitudes.”
One
way to look at science is as a system that corrects for people’s
natural inclinations. In a well-run laboratory, there’s no room for
myside bias; the results have to be reproducible in other laboratories,
by researchers who have no motive to confirm them. And this, it could be
argued, is why the system has proved so successful. At any given
moment, a field may be dominated by squabbles, but, in the end, the
methodology prevails. Science moves forward, even as we remain stuck in
place.
In “Denying to the Grave:
Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, a
psychiatrist, and his daughter, Sara Gorman, a public-health specialist,
probe the gap between what science tells us and what we tell ourselves.
Their concern is with those persistent beliefs which are not just
demonstrably false but also potentially deadly, like the conviction that
vaccines are hazardous. Of course, what’s hazardous is not
being vaccinated; that’s why vaccines were created in the first place.
“Immunization is one of the triumphs of modern medicine,” the Gormans
note. But no matter how many scientific studies conclude that vaccines
are safe, and that there’s no link between immunizations and autism,
anti-vaxxers remain unmoved. (They can now count on their side—sort
of—Donald Trump, who has said that, although he and his wife had their
son, Barron, vaccinated, they refused to do so on the timetable
recommended by pediatricians.)
The
Gormans, too, argue that ways of thinking that now seem self-destructive
must at some point have been adaptive. And they, too, dedicate many
pages to confirmation bias, which, they claim, has a physiological
component. They cite research suggesting that people experience genuine
pleasure—a rush of dopamine—when processing information that supports
their beliefs. “It feels good to ‘stick to our guns’ even if we are
wrong,” they observe.
The Gormans
don’t just want to catalogue the ways we go wrong; they want to correct
for them. There must be some way, they maintain, to convince people that
vaccines are good for kids, and handguns are dangerous. (Another
widespread but statistically insupportable belief they’d like to
discredit is that owning a gun makes you safer.) But here they encounter
the very problems they have enumerated. Providing people with accurate
information doesn’t seem to help; they simply discount it. Appealing to
their emotions may work better, but doing so is obviously antithetical
to the goal of promoting sound science. “The challenge that remains,”
they write toward the end of their book, “is to figure out how to
address the tendencies that lead to false scientific belief.”
“The
Enigma of Reason,” “The Knowledge Illusion,” and “Denying to the Grave”
were all written before the November election. And yet they anticipate
Kellyanne Conway and the rise of “alternative facts.” These days, it can
feel as if the entire country has been given over to a vast
psychological experiment being run either by no one or by Steve Bannon.
Rational agents would be able to think their way to a solution. But, on
this matter, the literature is not reassuring. ♦
Las personas que piensan
analíticamente reconocen mejor los sentimientos de los demás que las que
se fían de su intuición, señala la reciente investigación.
Ponerse en la piel de los demás, ser
sensible, reconocer los sentimientos de alegría, dolor o pena ajenos. En
definitiva, ser empático. ¿De qué depende? Según la creencia popular,
es una cuestión de intuición más que de reflexión. Un estudio reciente
revela, sin embargo, que las personas podemos percibir y entender mejor
las emociones de nuestros congéneres, es decir, empatizar con ellos, si
pensamos de manera sistemática y sopesamos toda la información que si
nos fiamos de nuestra intuición.
«Tener éxito en las relaciones personales y profesionales requiere la
capacidad de inferir con precisión los sentimientos de los demás, es
decir, de ser empáticamente certeros. Algunas personas son mejores que
otras en eso, una diferencia que puede explicarse en parte por el tipo
de pensamiento», explica Jennifer Lerner, de la Universidad Harvard y
autora principal del estudio. «No obstante, hasta ahora poco se sabía
acerca de qué modo de pensamiento, si el intuitivo o el sistemático,
ofrece una mayor precisión a la hora de percibir de los sentimientos del
otro», señala. Cuestión de cabeza
Los investigadores evaluaron la empatía de más de 900 participantes a
partir de cuatro experimentos. En primer lugar, averiguaron qué
capacidad relacionaban los propios probandos con la habilidad de
percibir los sentimientos de otra persona: ¿la reflexión o la intuición?
La mayoría de los encuestados se decantaron por la intuición.
En una segunda prueba, los experimentadores pidieron a los
participantes que mantuvieran, por parejas, una entrevista de trabajo
ficticia. Los roles de jefe y de candidato se adjudicaron al azar.
Después de la conversación, se pidió a los sujetos que indicasen,
mediante un cuestionario, cómo se habían sentido ellos mismos y cómo
creían que se había sentido su interlocutor durante la entrevista.
Además, evaluaron, a partir de una prueba cognitiva, si los probandos
pensaban de manera sistemática o, por el contrario, tendían a confiar en
su intuición. En un experimento final, los investigadores examinaron
las estrategias de pensamiento de los participantes. También en este
caso constataron que los que pensaban de manera reflexiva presentaban
una mejor capacidad para comprender los sentimientos de los demás.
Según concluye Lerner, los hallazgos de este estudio resultan de
interés para las personas que ocupan puestos directivos, puesto que
sugieren que se debe utilizar más la cabeza y menos la intuición para
ponerse en la piel de los empleados.
Más información en American Psychological Association
Fuentes: Spektrum.de / Daniela Zeibig y APA
Belleza, delgadez, juventud, imagen. El cuerpo está en el centro de las
preocupaciones de una sociedad que, paradójicamente, está sentada en el
auto y en la oficina, frente a la computadora; de una sociedad que por
momentos actúa como si el cuerpo fuera "un accesorio prescindible". El
sociólogo y antropólogo francés David Le Breton ha estudiado esa
relación de "amor-odio" durante más de dos décadas desde su cátedra en
la Facultad de Ciencias Sociales de la Universidad de Estrasburgo, y la
ha plasmado en libros tales como Antropología del cuerpo y modernidad (1990), Adiós al cuerpo (1999), La sociología de cuerpo (2002) y El sabor del mundo
(2007), entre otros títulos traducidos al español. Ahora la profundiza
en Rostros, un ensayo de antropología que editaron en la Argentina Letra
Viva y el Instituto de la Máscara (ver recuadro), donde el académico
recibió a LN R durante su última visita a Buenos Aires. El
rostro "nos deja desnudos frente a la mirada de los otros", reflexiona
Le Breton; en la sociedad occidental "somos juzgados, reconocidos,
amados o detestados" a partir de la apariencia. Como contracara, dice,
Internet y las redes sociales plantean un universo de máscaras, donde
las emociones se simplifican como los rostros en "emoticones" y "caritas
felices", y las relaciones se deshumanizan.
-¿Qué nos dice sobre nuestra sociedad el papel que le asignamos al cuerpo?
*Para mí, el cuerpo está en el centro de las preocupaciones de
innumerables occidentales. En los últimos años se desarrolló un mercado
del cuerpo que alimenta una preocupación por la apariencia, la juventud,
la seducción, la belleza, la delgadez... Y también el cuerpo está en el
centro de las preocupaciones en términos de salud, por las actividades
físicas y deportivas que muchos de nuestros contemporáneos practican
para mantenerse en forma. Creo que el cuerpo se convirtió en un elemento
importante de nuestras preocupaciones, en la medida en que es cada vez
menos utilizado en el desarrollo de la vida cotidiana y de la vida
profesional. Yo he hablado del tema de la "humanidad sentada", es decir
que, para muchos de nuestros contemporáneos, el cuerpo en la actualidad
no sirve para nada. Muchos de nuestros contemporáneos están sentados
durante todo el día en el auto y en la oficina, y en los edificios
urbanos vemos el auge de las escaleras mecánicas, que hacen que la gente
se detenga, no se mueva; como si el cuerpo ya no sirviera. En ese
contexto de subutilización del cuerpo nace el sentimiento de no sentirse
bien en el propio pellejo. Esa subutilización del cuerpo provoca una
fatiga nerviosa.
-El auge de los cosméticos,
las dietas, los ejercicios y las cirugías para modificar la imagen
presuponen un culto al cuerpo. Sin embargo, usted señala el advenimiento
de una era en la que el cuerpo es visto como un accesorio
prescindible...
-Hay un culto ambivalente del cuerpo: por un lado hay un odio por el
cuerpo y por el otro una pasión por el cuerpo. Lo que usted menciona
como el culto del cuerpo es la voluntad de modelar el cuerpo, de
"trabajarlo". El cuerpo que no fue "trabajado" no resulta un cuerpo
interesante. La sociedad convirtió el cuerpo en un accesorio, una suerte
de materia prima con la que podemos construir un personaje. Por medio
del fisicoculturismo, de las dietas, nos volvemos en cierto modo
ingenieros de nuestro propio cuerpo. La gente que no trabaja su cuerpo
es señalada como aquella que se deja estar, y es excluida. Tienen mala
reputación. Como si fueran personas moralmente cuestionables porque no
juegan el juego del marketing, de los cosméticos...
-Si el cuerpo es un accesorio, ¿a quién pertenece? ¿Cuál es entonces el verdadero ser?
-No hay una verdad sobre el ser, no hay una verdadera persona, sino
innumerables versiones de la misma persona. Lo que nos transforma son
los contextos, que fabrican lo que somos. Hay en nosotros miles y miles
de personajes posibles que quizá no conoceremos nunca, porque sólo
determinadas circunstancias podrían hacerlos aparecer. Somos una
presencia humana. Para mí no existe el espíritu por un lado y el cuerpo
por otro. La condición humana es una condición corporal. Hay una
inteligencia del cuerpo así como hay una corporalidad del pensamiento.
-¿El rostro sería la máxima expresión de esto que nos pasa con el cuerpo? ¿Lo odiamos más porque se ve más?
-Los únicos lugares desnudos del cuerpo son las manos y el rostro. A
partir de nuestro rostro somos juzgados, reconocidos, amados,
detestados. Por nuestro rostro se nos asigna un sexo, una edad, se nos
juzga como bellos o feos. El rostro es un lugar de alta vulnerabilidad
en el vínculo social, porque nos deja desnudos frente a la mirada de los
otros. Lo que detestamos sobre todo es el rostro de la vejez, el rostro
de la enfermedad, el rostro de la desfiguración. Yo creo que ahí
tenemos que librar batalla, para subrayar el hecho de que la dignidad y
la equidad de los hombres y las mujeres es también la dignidad del
rostro, ya sea el rostro de un niño o el de un anciano. Usted tiene
razón cuando dice que a veces el rostro es el lugar del odio y, de
manera particular, lo es del racismo. Podríamos calificar al racismo
como la liquidación del rostro. Para el racista hay tipos, razas,
etnias. Se habla de portación de rostro, la cara pasa a ser una prueba
de culpabilidad. Para el racista, el otro no existe en su singularidad.
Todos son iguales, según la típica expresión del racista.
-Detestamos en los otros esa uniformidad desde el racismo, y
sin embargo nos uniformamos con cirugías estéticas, medidas, dietas...
-Sí, sobre todo en el caso de las mujeres. Es la cuestión de la tiranía
de la apariencia, que se da con mucha más frecuencia en los Estados
Unidos y aquí, en América latina, donde la mujer sólo vale por lo que es
su cuerpo, está asignada a su cuerpo. El hombre rara vez es juzgado por
su cuerpo, si bien el mercado se está ampliando para alcanzarlo en
determinados cuidados estéticos. No obstante, la proporción aún es mayor
entre las mujeres, que sobre todo en sociedades cultural y
económicamente más pobres sólo ven la salvación a través de sus cuerpo,
ven su cuerpo como el único medio para un ascenso social. Una estudiante
colombiana que hizo su tesis conmigo trabajó sobre las cirugías
estéticas en mujeres colombianas cuyo sueño era convertirse en amantes o
esposas de los narcotraficantes, con la convicción de que para serlo
debían tener una buena figura, pechos de determinada medida. Se operan
buscando dinero y poder, aunque eso implique incluso prostituirse, para
seguir operándose cuando lo obtienen. Sólo el cuerpo las puede salvar.
-Parece una paradoja que mientras llevamos una vida
sedentaria en la que el cuerpo pareciera no importarnos, nos
obsesionemos por la delgadez, la belleza y la juventud eterna... ¿O una
cosa es consecuencia de la otra?
-Creo que esa preocupación por el cuerpo proviene del hecho de que nos
sentimos cada vez menos dentro de nuestro cuerpo. El cuerpo plantea
problemas y por eso no dejamos de hablar y de preocuparnos por él.
Durante los años 60 y 70 no hablábamos del cuerpo, porque el cuerpo era
una evidencia. Hoy nos plantea problemas; por eso tratamos de
controlarlo y nos planteamos preguntas respecto de él. El mercado del
cuerpo que floreció en los años 90 y 2000 multiplica esa obsesión por
sentirse bien dentro del propio cuerpo: tener buenas medidas, el peso
correcto, preocuparse por la salud, hacer footing. Las nuevas
generaciones desarrollan actividades deportivas extremas, que son un
síntoma del querer volver a encontrar la sensación de lo real. Las
conductas de riesgo, el alcoholismo, los trastornos alimentarios como la
anorexia y la bulimia, el exceso de velocidad en las rutas: todo es una
búsqueda de la realidad, de encontrar límites físicos, de encontrar la
sensación de lo real que nos está faltando.
-En ese sentido, pensando en esa necesidad de reencontrarse
con lo real que se evidencia más en los jóvenes, ¿se puede vislumbrar un
futuro positivo, de reencuentro con el cuerpo?
-Sí, hay una dimensión positiva y feliz de encuentro con el cuerpo. Un
ejemplo es el auge del caminar. Yo escribí un libro que se llama Elogio de la caminata
. Vemos en Europa y en los Estados Unidos cada vez más decenas de
millones de personas que caminan, no desde el culto obsesivo del cuerpo,
sino desde el reencuentro con el placer de existir. Es una manera de
usar todos los recursos corporales, sensoriales: la persona que camina
encuentra la plenitud del sentido de su existencia. Me gusta analizar la
caminata como una forma de resistencia: es ponerse por encima de esa
pesadez que concierne al cuerpo hoy.
-En El sabor del mundo , usted dice que "somos
corporalmente", que no hay un vínculo con el mundo que no pase primero
por los sentidos. Pensaba en el uso de Internet, y en cómo en cierto
modo los sentidos tienden a desvanecerse en el mundo virtual, salvo por
la vista, que se exalta... ¿eso tiene relación con la importancia que le
damos a la imagen?
-Hay dos sentidos que se encuentran privilegiados en el mundo
contemporáneo. Uno es la vista; estamos en una sociedad del look, de la
imagen, del espectáculo; una sociedad donde todo tiene que estar a la
vista, donde todo es visual. Otro sentido muy presente es el del oído:
en particular por la importancia que ha cobrado la utilización
permanente del teléfono celular, la importancia que aún tiene la
televisión, la radio, pero también del ruido que nos rodea, del
tránsito, de la ciudad. El tacto es un sentido olvidado en nuestras
sociedades: en un principio no hay que tocar a los otros y cuando se
hace es de una manera muy ritualizada.
-Con Internet, ni siquiera para el sexo el tacto es una condición necesaria...
-Claro, y la cibersexualidad es una prolongación de lo que pasa con la
procreación asistida en laboratorios. Los niños se pueden producir sin
intervención, sin sexualidad, sin cuerpo. Y hasta existe ese fantasma
que se ha desarrollado en la mente de algunos científicos: que el cuerpo
ya no es necesario para que se engendren chicos. Se podrían hacer
chicos de una manera limpia, aséptica, sin cuerpos, sin mujeres. Estamos
en un universo donde se plantea un cierto odio del cuerpo. Es un
universo puritano, porque también está el odio del deseo. El universo de
Internet es un universo autista.
-Internet ha incorporado en la vida cotidiana el uso de
"emoticones", íconos que representan estados de ánimo a través de
expresiones estereotipadas del rostro. Las "caritas felices", ¿no hablan
de una simplificación de nuestra existencia, de relaciones más
superficiales y menos comprometidas?
-Sí, porque en la medida en que el rostro vivo del otro ya no está
presente, se lo transforma en figura en el sentido geométrico del
término; es una suerte de simulacro que muestra una deshumanización. Y,
al mismo tiempo, crece el simplismo en los intercambios que tienen
lugar. Alguien que cuenta por Internet un chiste pone una cara sonriente
como si el otro fuera tan estúpido que no pudiese reír solo.
-Las redes sociales, como Facebook o Twitter, en las que los
internautas se relacionan a partir de un rostro y un nombre propio, ¿no
representan un quiebre con respecto a lo que ocurría hasta hace unos
años en Internet, cuando las relaciones virtuales se amparaban en el
anonimato?
-Yo creo que Internet es el universo de la máscara, aun cuando esté
presente una foto del rostro del otro, porque no es una presencia viva
del otro. Y por eso podemos hacerle creer cualquier cosa. No sabemos
bien a quién está representando esa foto. Se sabe que las nuevas
generaciones suelen multiplicar sus seudónimos en las redes y en los
sitios de chateo: van probando personajes para saber quiénes son. Se
hacen pasar por mujeres, por gente mayor o más joven... Como dicen los
norteamericanos, "en Internet nadie sabe que usted es un perro".
-¿Aun en las redes sociales con nombre y apellido? Porque en
Facebook usted es David Le Breton, escribe con su nombre, con una cara,
una foto que elige, pero que es suya...
-Pero, ¿es realmente mi foto o no lo es? Y finalmente, ¿soy yo? En
Internet uno no es más que quien dice ser, uno se construye un personaje
y es un relato que hace sobre sí mismo. Y eso tiene que ver con el
universo de las máscaras. Hay una construcción ficticia del mundo.
Cuando en Facebook una persona dice "tengo 300 amigos", eso basta para
mostrar que hay un cierto ridículo allí, una degradación de la amistad,
porque se clasifica como "amigos" a todos los que se inscribieron en su
sitio, y por otra parte es gente a la que casi con seguridad no vamos a
ver nunca.
-Hay fantasías, como las de la película Avatar , que juegan con la posibilidad de transmigrar de un cuerpo a otro para vivir otra vida. ¿Por qué eso nos fascina tanto?
-Creo que es una consecuencia de ese odio por el cuerpo. Es un odio absoluto, radical. El personaje de Avatar es un hombre discapacitado, pero cuando está en el universo virtual cumple proezas físicas extraordinarias. Lo que nos dice Avatar
es que el cuerpo nos hace echar raíces sobre la muerte o sobre la
enfermedad o la discapacidad. Habla de la fragilidad y de límites muy
estrechos, mientras que en el universo de lo virtual no hay límites. En
el universo de Avatar lo único que importa para nuestra esencia
son aquellas informaciones que permanecen en nuestro cerebro: el cuerpo
es percibido como algo molesto, como un obstáculo. Porque es el lugar
del límite, del envejecimiento, de la fragilidad. Pero esa fragilidad,
esa vulnerabilidad del cuerpo, el hecho de que el cuerpo nos limite, el
hecho de que existan las enfermedades y la propia muerte, es la
condición del sabor del mundo. El hecho de no ser inmortales nos hace
vivir con fervor. Si perdemos nuestro cuerpo, está claro que perdemos
toda la sensorialidad del mundo, todo el sabor del mundo... ¿Cuáles
podrían ser las sensaciones del hombre virtual? Ninguna. Sería un
universo de pura racionalidad, de un puritanismo absoluto; es el
universo de la información. Y la información no tiene sabor, ni tacto,
ni deseo, ni nada. Sería un universo sin humanidad.
Por Mercedes Funes mfunes@lanacion.com.ar
El enigma del rostro
"Los rostros son enigmas que esconden pasiones y emociones, verdades y
mentiras que a veces lava una sonrisa. Son el poder de la mirada fija en
la mirada del otro, que es su doble, su cómplice o enemigo." Eso
sostienen la Lic. Elina Matoso y el Dr. Mario Buchbinder, directores del
Instituto de la Máscara, en el prólogo de la versión castellana de Rostros , el libro de David Le Breton recientemente editado en la Argentina por esa entidad y Letra Viva , en el que recorre las paradojas de la historia del rostro humano.
La reciente investigación pone en
duda que los humanos nazcamos con la capacidad de imitar. La
probabilidad de que los bebés del estudio reprodujeran los gestos de sus
progenitores eran las mismas de que no lo hicieran.
Ya en las primeras semanas de vida, los bebés
empiezan a imitar los sonidos, los gestos y las expresiones faciales de
otras personas, sugieren numerosos estudios llevados a cabo en los
últimos decenios. Por el contrario, investigadores de la Universidad de
Queensland han demostrado en fecha reciente que, al parecer, los bebés
no son imitadores natos.
Según argumentan los autores, las investigaciones que han revelado
hasta ahora la capacidad innata de imitar de los humanos se limitan al
hecho de que los niños sacan la lengua o abren la boca al igual que sus
padres cuando ven que estos últimos lo hacen. Un comportamiento de este
tipo podría deberse a una reacción del bebé ante la percepción de que
mamá o papá hace algo interesante, indican. Aprender a imitar
Los investigadores mostraron a 106 bebés 11 gestos o expresiones
faciales diferentes a la edad de una, dos, seis y nueve semanas con el
fin de comprobar, en un estudio longitudinal, si reproducían esos
patrones gestuales. Descubrieron que, en conjunto, la probabilidad de
que imitaran a sus padres era tan grande como la posibilidad de que
hicieran cualquier otra cosa. Según Virgnia Slaughter, autora principal
del trabajo, ello demuestra que los bebés aprenden a imitar, bien
observando cómo una persona imita a otra o bien viendo cómo los imitan a
ellos mismos. Al principio, los padres reproducen los gestos de su hijo
cada dos minutos, señala la investigadora.
«Los resultados demuestran que ciertas conductas humanas no son
innatas», afirma Slaughter. Hasta ahora, la capacidad de imitar se había
considerado, junto con la del lenguaje, una característica de los
humanos.
El equipo prevé estudiar el fenómeno en niños de hasta dos años, con
el fin de averiguar a qué edad se empieza a imitar a los demás. «En
etapas posteriores, los niños copian las acciones de otros, pero la
hipótesis controvertida de que ello ocurre desde el momento del
nacimiento debe replantearse», concluye Slaughter.
Más información en Current Biology
Fuentes: Spektrum.de/ Daniela Zeibig y Universidad de Queensland