viernes, 12 de mayo de 2017

¿Los programas de neuroeducación en la escuela son una pérdida de dinero?

Los programas neuroeducativos que se implementan en las escuelas tienen muy poco que ofrecer al desarrollo de los niños. Así lo reporta una reciente investigación de Psychology Review, la revista académica de la Asociación Americana de Psicología (APA).
El controversial artículo fue publicado por Jaffrey Bowers, profesor y psicólogo especialista de la Escuela de Psicología Experimental de la Universidad de Bristol.
En él se detalla que las escuelas están gastando excesivas sumas de dinero en programas educativos basados en las neurociencias que dicen mejorar el entendimiento del desarrollo de los niños y su conducta. Sin embargo, la evidencia sugiere que el conocimiento de las estructuras cerebrales no ayuda a los maestros a mejorar sus técnicas de enseñanza ni a mejorar la evaluación de los niños dentro del aula.
Los datos que otorgan las neurociencias es muy interesante y llamativa. No hay nada más deslumbrante que ver la imagen de un cerebro “iluminado”, pero esos datos son irrelevantes para mejorar la conducta y aprendizaje de los niños. Según Bowers, la mejor manera de afrontar los problemas y dificultades de los estudiantes dentro del salón de clases es a través de los programas conductuales, porque permiten realizar análisis de las causas de los problemas y necesidades; implementar intervenciones acordes al niño y su contexto, y evaluarlas minuciosamente.
Bowers nos da algunos ejemplos de programas neuroeducativos inútiles:
  • Los programas que usan las imágenes cerebrales para detectar si la lectura de los niños con dislexia ha mejorado, en vez de usar tests estandarizados de lectura.
  • Aquellos que describen sus métodos de aprendizaje como “neuroaprendizaje”.
  • Intervenciones que exigen que los niños con dificultades sigan haciendo las actividades donde tienen menos habilidades, en vez de buscarles alternativas de aprendizaje relacionadas con sus habilidades.
Una de las principales sugerencias del estudio es que los directivos y administradores se alejen de los planes basados en las neurociencias y que dediquen más esfuerzos y atención a las intervenciones que han sido probadas en estudios aleatorios.
Algunos podrían pensar que Bowers está en una cruzada contra el desarrollo neurocientífico, pero no es así. Cada vez hay más y más investigadores y académicos1 que ven con mucha preocupación la excesiva importancia y recursos que se destinan a planes cerebrales para comprender y mejorar la conducta, porque la neurociencia es todavía una disciplina muy joven y sus resultados son difícilmente aplicables fuera del laboratorio. Sin embargo, los medios de comunicación han difundido la idea de que las imágenes cerebrales publicadas por los estudios son la explicación irrefutable de las conductas, aún cuando los autores de esos estudios son muy precavidos en cuanto al alcance de sus datos. Otros estudios han señalado los errores metodológicos de los estudios cerebrales.
Los psicólogos no somos inmunes al neurocentrismo. El año pasado publicamos un estudio del MIT, que encontró que los estudiantes de psicología le daban mayor relevancia a las explicaciones que mencionaban al cerebro, aún cuando sus datos no aportaran valor alguno al entendimiento de la conducta. Muy parecido a lo que dice Bowers.
Las instituciones educativas son propensas a incorporar intervenciones y planes que no cuentan con apoyo científico, en especial las escuelas privadas, las cuales buscan diferenciarse y ofrecer una educación supuestamente innovadora. La investigación de Bowers pone en evidencia esto y, además, demuestra que hay que mejorar el entendimiento de las intervenciones conductuales, ya que muchos maestros y psicólogos dicen aplicar intervenciones conductuales que en realidad no cumplen con los requisitos necesarios.
Fuente: ScienceDaily

martes, 14 de marzo de 2017

Lo que el IRMf de un salmón muerto nos puede enseñar sobre neurociencias y metodología científica


Las innumerables investigaciones que utilizan el IRMf nos han enseñado que esta es una de las herramientas de investigación neurocientífica más poderosas e importantes de la última década. Esta tecnología permite obtener increíbles imágenes a color y nos ofrece gran cantidad de información sobre lo que sucede en nuestro cerebro. A pesar de toda la información que nos puede brindar, el IRMf también tiene sus debilidades, y cuando las personas que no tienen un conocimiento preciso intentan interpretar lo que muestran las imágenes se pueden producir fácilmente falsos positivos.
Esto motivó a los neurocientífico Craig Bennet y a la psicóloga Abigail Baird, en el año 2009 a realizar un estudio para demostrar la facilidad con la que los científicos se pueden engañar a sí mismo y demostrar porque se necesitan estadísticas bien hechas. Para esto utilizaron como “sujeto de estudio” a un salmón muerto y le tomaron imágenes por IRMf. ¿Qué demostraron los análisis posteriores? los análisis produjeron evidencia de actividad cerebral, como si el pez muerto estuviera pensando (claro que no lo estaba haciendo).
(Artículo relacionado: Los instrumentos de investigación más utilizados en neuropsicología )
La semana pasada, Maggie Koerth-Baker editora científica del reconocido sitio boingboing.net, entrevistó al par de investigadores y estos explicaron cómo trabaja realmente el IRMf y cómo los científicos deben asegurarse de que pueden confiar en sus resultados. La entrevista está completamente traducida y espero que la disfrutes y que despeje tus dudas metodológicas que fundamentan el conocimiento científico.
Maggie Koerth-Baker: Empecemos por lo básico. Como cualquier persona, veo regularmente en las noticias imágenes de resonancia magnética funcional, pero realmente no sé como funciona o  qué mide el IRMf. ¿Me pueden explicar?
Craig Bennet: Los cientificos no medimos directamente la actividad del cerebro. Necesitas electrodos implantados en el cerebro para realizar esto. Lo que realmente medimos es la cantidad de interrupción magnética en el cerebro. Para lograr esto utilizamos un truco básico del funcionamiento del cerebro y del cuerpo: la sangre oxigenada y desoxigenada tienen diferentes propiedades magnéticas.
Abigail Baird: Si una región cerebral está realizando mucho trabajo es probable que esté consumiendo mucho oxígeno, por medio de un incremento del flujo sanguíneo. La premisa es que si un área está trabajando mucho, entonces esta necesitará mayor cantidad de nutrientes y oxígeno y esto será provisto por medio de la sangre.
Es un método fiable utilizar el flujo sanguíneo para medir la actividad cerebral, pero es una respuesta bastante lenta. La verdadera actividad cerebral pasa cuando las células se están comunicando con los neurotransmisores y transmiten electricidad. La actividad cerebral real se mide por medio de electrodos conectados al cerebro, como el EEG, que registra la actividad eléctrica. El problema de utilizar el EEG es que no se sabe exactamente de donde proviene la señal eléctrica o que significa esta señal. El IRMf presupone que la actividad cerebral se basa en el consumo de oxígeno, pero hay un retraso de 4-6 segundos, porque ese es el tiempo que le toma a la sangre para llegar. Es una respuesta lenta y en cierta forma es una respuesta descuidada. Estamos asumiendo  que hay sobras aquí en la mancha A luego en la mancha B, por lo que debe ser que la actividad cerebral está aquí y no allá.
Estoy muy cansada de escuchar la frase
“el cerebro se iluminó”
CB: La mejor descripción que he escuchado es cuando ves una escena de accidente de autos y eres capaz de decir que fue lo que sucedió basado en las marcas que dejaron los neumáticos en la calle. Es una aproximación.
MKB: Entonces cuando vemos estas imágenes de las áreas cerebrales produciendo colores brillantes, no necesariamente nos dicen que una parte está activa y el resto no.
AB: Estoy muy cansada de escuchar la frase “el cerebro se iluminó”. Esto te hace pensar que se ven luces en la cabeza o algo así. Esta no es la forma en que trabaja el cerebro. Esto produce un malentendido fundamental sobre el significado de los resultados del IRMf. Estos hermosos y coloridos mapas, son mapas de probabilidad. Ellos muestran la probabilidad de actividad que ocurre en un área dada, esto no es una prueba de actividad. Según nuestros análisis hay una probabilidad más alta en la región con más sangre, ya que encontramos más sangre desoxigenada en esta área. Esto también es correlacional. Aquí hay un marco de tiempo y los cambios que cabría esperar, así que vemos partes del cerebro que se correlacionan con esto.
CB: Contamos desde hace décadas con métodos para observar dentro del cerebro de un ser humano vivo y hemos conseguido ciencia de calidad sobre ese método. ¿Qué tiene el IRMf para agregar? Lo más importante es la locación espacial, se puede decir que en la actividad cerebral ocurre con un mayor grado de probabilidad, no es una prueba de actividad. Pero lo que realmente te compra es la habilidad de producir imágenes realmente hermosas del cerebro. Obtienen imágenes en escala de grises con puntos coloridos que indican lo que es significante. Pero esto no muestra la actividad cerebral, esto demuestra un dato estadístico. Tenemos una herramienta de gran alcance y la capacidad de crear dramáticas cifras que pueden ser persuasivas y lo podemos utilizar de manera impropia.
MKB: Entonces ¿cómo podemos saber si los datos que obtenemos del IRMf son útiles? Si es solo correlación entonces no demuestran realmente donde sucede la actividad cerebral.
CB:Esta es la razón por la cual debemos tener experimentos altamente controlados. Para hacerlos bien necesitaras de dos condiciones, casi exactamente iguales, excepto por algo fundamental. Algunos de los estudios que más me gustan son los estudios visuales. Podría enseñarle un mismo estímulo, por ejemplo, un círculo de luz intermitente, pero me gustaría cambiar la posición de la misma, ya sea que esté posada en el tercio superior o inferior de su campo de visión. Simplemente cambiando la posición y la comparación de cada posición a la otra se puede ver que las partes del cerebro son sensibles a cada mancha. Eso es un estudio estricto y de control muy bueno.
AB: Más de un par de investigación son sensacionalistas. Existen comparaciones del cerebro entre los Republicanos y Demócratas (partidos políticos en EE.UU.). Esto es ridículo y un mal uso del IRMf. Esta no es una pregunta lo suficientemente específica.
MKB: ¿Pueden explicar qué quieren decir con una pregunta específica?
AB: En un estudio por IRMf tienes que estimular de alguna manera el cerebro. Entonces, ¿qué le estás demostrando al cerebro con el objetivo de hacer una distinción entre Republicanos y Demócratas? Digamos que les muestran fotos de personas en bienestar, y los demócratas muestran una mayor activación en un área y los republicanos en otra. Estos resultados tal vez te digan algo sobre la compasión. O cómo procesamos la compasión. Pero para decir que hay una diferencia fundamental entre los dos grupos de personas, cuando hay tanta variación dentro del grupo, es simplemente una tontería. Yo puedo obtener el mismo resultado… encontrar grandes diferencias… entre dos grupos de Demócratas. Recuerda, no es que el cerebro simplemente se ilumina, estas imágenes son el resultado de las estadísticas, no de toda la actividad cerebral. Si observas el mismo fenómeno en diferentes estudios, entonces puedes confiar en sus resultados. Pero debes sospechar de un estudio si la pregunta no fue lo suficientemente específica y los investigadores se apresuraron a ver qué pasaba.
En casi todos los experimentos hay
una medida ruidosa
Además, lo que estas observado es el promedio del grupo, no los resultados individuales de cada sujeto. Puedes tener un grupo de 40 personas y 39 de las 40 pueden mostrar actividad en un área, pero esa área aún podría quedar afuera de las imágenes finales, porque no todo el mundo lo tenía. Así que hay que considerar a los individuos, no sólo al grupo.
MKB: Volvamos al salmón muerto con el que trabajaron. Si el IRMf está midiendo los cambios del flujo de sangre -o los cambios en la oxigenación que indican un cambio en el flujo de sangre- ¿por qué ustedes vieron alguna señal en el cerebro del salmón muerto?
CB: En casi todos los experimentos, especialmente con el IRM y en el IRMf, hay una medida ruidosa. Existen toda clases de ruidos que entran en la señal. Puede escoger una sobre su propio corazón latiendo. En una ocasión teníamos una bombilla de luz funcionando mal en el scanner y este estaba introduciendo una señal específica en nuestra base de datos. Es necesario recolectar suficientes datos… realizar los experimentos la suficiente cantidad de veces… para separar el ruido de la señal.
Estamos buscando una variación en el campo magnético. Con el salmón, la grasa lograría hacer esta variación. El tejido graso tiene una señal magnética, pero en algunas áreas de este tejido graso es más densa y en otras regiones es menos grasosa, así que podrás encontrar la diferencia. El cerebro del salmón es más grasoso y creó una variabilidad inherente. Pero fué sólo ruido. Esto no se debió a ninguna actividad real. Pudiendo producir un falso positivo como este.
AB: También encontramos actividad fuera del cuerpo del salmón. El imán en sí tiene ruido. Siempre tendrá ruido. Y si este umbral es lo suficientemente bajo, vas a conseguir que este patrón de ruido se corresponda con tu hipótesis.
MKB: Básicamente, el salmón se trata de estadísticas, ¿verdad? ¿Por qué las estadísticas son tan importantes? Creo que la mayoría de las personas se imaginan a los científicos tomando registro de los datos y reportando lo que observaron. Pero es algo mucho más complicado.
AB:  En la mayoría de las ciencias conductuales y las ciencia naturales, hay un cierto nivel de corte donde se consideran las cosas que hemos encontrado como significativas y las que no lo son. La regla de oro es 0.01, menos de 1% de probabilidad de que estés viendo algo solo por accidente, o un 99% de posibilidades de que se trate de una diferencia real. Pero aún así puedes obtener sólo por casualidad 1 de cada 100 veces que te den el mismo exacto resultado. También estamos interesados en los datos de nivel de 0.5. Cualquier cosa por arriba del 10% lo llamamos tendencia -algo que podría estar sucediendo. Esto se ha mantenido a lo largo de la historia de la psicología y las neurociencias y es algo bastante bueno. Pero no se había tenido ninguna herramienta que produjera la magnitud de datos que el IRMf produce. En lugar de hacer comparaciones entre dos grupos de 40 personas, estás haciendo comparaciones entre 100 mil puntos en el cerebro y los 0.01 ya no dicen tanto porque tienen mucha más información para trabajar.
CB: Aquí está mi analogía, si te doy un dardo y te digo, “intenta dar en la diana”, tienes alguna posibilidad de acertar. Tu oportunidad no es 0. Pero, dependiendo de tu habilidad, podrás dar en el blanco en más o en menos ocasiones. Así que probar el tiro con el dardo y acertar en el primer tiro, eso sería algo impresionante. Es como encontrar un resultado. Pero si sólo aciertas una vez de cada 100 intentos, entonces sería algo menos impresionante. El IRMf es como tener 60 mil dardos que se pueden tirar. Algunos darán en el blanco por casualidad y tenemos que tratar de corregir esto. Tenemos la tendencia de establecer un umbral y decir que es legítimo. Pero nuestro equipo ha encontrado que en la literatura científica, entre el 25-40% de los artículos publicados están usando una corrección inadecuada. Esto demuestra que podemos encontrar más datos significativos, así que debemos ser más conservadores  a la hora de decir que los resultados son confiables.
AB: Si tienes una hipótesis realmente específica, entonces te puedes adherir a los números tradicionales. Pero si no sabes bien qué es lo que estás buscando y solo estás esperando a que se “activen las luces”, entonces tendrás muchas más probabilidades de ver cosas al azar. Aquí es cuando tenemos que ser más estrictos con lo que consideramos real. Y las personas no siempre son tan cuidadosas con esto, como deberían ser.
MKB: ¿Entonces están diciendo, ahora mismo, que hay buenas probabilidades de que muchas investigaciones que utilizan el IRMf, muestran resultados casi tan malos como los resultados que ustedes obtuvieron mientras estudiaban al salmón muerto?
CB: Más del 40% de las investigaciones publicadas en el 2008 no tienen una corrección apropiada, así que ¿pueden haber resultados incorrectos en la literatura científica? Absolutamente. Aún si corregimos perfectamente los resultados es probablemente que 5% esten incorrectas. Siempre habrán falsos positivos. Pero necesitamos hacer un buen trabajo para entregar los mejores resultados que podamos. Lo que estamos diciendo es que no es bueno para ti o para tu campo de estudio, si no corriges lo suficiente.
Este artículo se realizó en colaboración de Fernanda y Alejandra Alonso.
Fuente:

lunes, 13 de marzo de 2017

Hay personas que, por su cronotipo, no deberían madrugar nunca

Hay gente que, antes de que salga el sol, ya han desayunado, limpiado la casa y organizado su agenda. Sin embargo, para la mayoría de las personas, levantarse de la cama con los primeros rayos del sol es una auténtica proeza. De hecho, hay quienes son justo lo contrario: son mucho más eficaces  y productivos por la noche.

Así, los científicos han creado dos grupos opuestos: los matutinos o alondras, que se despiertan temprano y aprovechan al máximo las mañanas y los vespertinos o búhos, cuyo rendimiento aumenta a medida que avanza el día. Sin embargo, ahora un estudio realizado en el Instituto de Investigación de biología Molecular y Biofísica de la Academia Rusa de Ciencias reveló que en realidad hay mucho más detrás de estos cronotipos y que ciertas personas no deberían madrugar jamás.

Personas "aletargadas" y personas "enérgicas"


Estos investigadores analizaron a 130 personas, quienes tuvieron que mantenerse despiertas durante 24 horas con el objetivo de analizar su nivel de energía. De esta forma descubrieron que hay personas que pueden pasar todo el día con un bajo nivel de energía, a quienes catalogaron como “aletargados” mientras que otros podían mantenerse más activos, a pesar de la privación del sueño e independientemente del horario al que se hubieran levantado, a estos últimos se les denominó “enérgicos”.

Estas nuevas categorías indican que para las personas con menos energía sería nefasto madrugar. De hecho, es probable que su problema se deba a que su ritmo circadiano no está bien sincronizado con el ciclo natural de luz y oscuridad.

Básicamente, la luz solar es una especie de reloj natural que estimula nuestro organismo para que deje de producir melatonina, la hormona que provoca el sueño. De esta forma logramos mantener un nivel de alerta adecuado durante el día. Al contrario, cuando cesa la luz, aumentan los niveles de melatonina y nos vamos adormeciendo. 

En las personas madrugadoras y energéticas, su mayor pico de actividad llega al mediodía, que es cuando más intensa es la luz solar. Sin embargo, las personas vespertinas o aletargadas no estarían tan sincronizadas con este ciclo de luz, por lo que su rendimiento suele ir aumentando lentamente a lo largo del día.

Estas diferencias se deben, entre otros factores, a nuestro ADN. Según una investigación realizada en el Centro Nacional de Neurología y Psiquiatría de Tokio, el gen PER-3, uno de los genes de nuestro reloj biológico, determina la propensión a levantarnos más tarde o más temprano, así como nuestro nivel de energía a lo largo del día.

¿Por qué deberías conocer y adaptar tu ritmo de vida a tu cronotipo?


Conocer tu cronotipo te permitirá funcionar siguiendo tu ritmo circadiano natural, lo cual no solo repercutirá en tu productividad sino también en tu estado de ánimo y en tu salud. De hecho, se ha demostrado que cuando se produce un desajuste del ritmo circadiano la persona es más propensa a padecer obesidad, diabetes y algunos tipos de cáncer. Además, aprovechar los momentos de mayor productividad te permitirá hacer más con menos esfuerzo, lo cual redundará positivamente en tu estado de ánimo.

De hecho, el ritmo circadiano es tan importante que médicos del Hospital Paul Brousse de París han llegado a afirmar que la quimioterapia se debería aplicar en correspondencia con este ciclo ya que se conoce que las células de ciertos tipos de linfoma tienden a dividirse más entre las 9 y 10 de la noche. Al contrario, las células intestinales tienden a hacerlo a las 7 de la mañana y las de la médula ósea al mediodía. Por tanto, si la quimioterapia se aplicara en esos momentos, sería más eficaz y menos tóxica.

Fuentes:
Pulitov, A. A. et. Al. (2015) How many diurnal types are there? A search for two further “bird species”. Personality and Individual Differences; 72: 12-17.
Hida, A. et. Al. (2014) Screening of Clock Gene Polymorphisms Demonstrates Association of a PER3Polymorphism with Morningness–Eveningness Preference and Circadian Rhythm Sleep Disorder. Scientific Reports; 4: 6309.
Lévi, F. et. Al. (2007) Implications of circadian clocks for the rhythmic delivery of cancer therapeutics. Adv Drug Deliv Rev; 59(9-10):1015-1035.

miércoles, 22 de febrero de 2017

Why Facts Don’t Change Our Minds

By

In 1975, researchers at Stanford invited a group of undergraduates to take part in a study about suicide. They were presented with pairs of suicide notes. In each pair, one note had been composed by a random individual, the other by a person who had subsequently taken his own life. The students were then asked to distinguish between the genuine notes and the fake ones.

Some students discovered that they had a genius for the task. Out of twenty-five pairs of notes, they correctly identified the real one twenty-four times. Others discovered that they were hopeless. They identified the real note in only ten instances.
As is often the case with psychological studies, the whole setup was a put-on. Though half the notes were indeed genuine—they’d been obtained from the Los Angeles County coroner’s office—the scores were fictitious. The students who’d been told they were almost always right were, on average, no more discerning than those who had been told they were mostly wrong.
In the second phase of the study, the deception was revealed. The students were told that the real point of the experiment was to gauge their responses to thinking they were right or wrong. (This, it turned out, was also a deception.) Finally, the students were asked to estimate how many suicide notes they had actually categorized correctly, and how many they thought an average student would get right. At this point, something curious happened. The students in the high-score group said that they thought they had, in fact, done quite well—significantly better than the average student—even though, as they’d just been told, they had zero grounds for believing this. Conversely, those who’d been assigned to the low-score group said that they thought they had done significantly worse than the average student—a conclusion that was equally unfounded.
“Once formed,” the researchers observed dryly, “impressions are remarkably perseverant.”
A few years later, a new set of Stanford students was recruited for a related study. The students were handed packets of information about a pair of firefighters, Frank K. and George H. Frank’s bio noted that, among other things, he had a baby daughter and he liked to scuba dive. George had a small son and played golf. The packets also included the men’s responses on what the researchers called the Risky-Conservative Choice Test. According to one version of the packet, Frank was a successful firefighter who, on the test, almost always went with the safest option. In the other version, Frank also chose the safest option, but he was a lousy firefighter who’d been put “on report” by his supervisors several times. Once again, midway through the study, the students were informed that they’d been misled, and that the information they’d received was entirely fictitious. The students were then asked to describe their own beliefs. What sort of attitude toward risk did they think a successful firefighter would have? The students who’d received the first packet thought that he would avoid it. The students in the second group thought he’d embrace it.
Even after the evidence “for their beliefs has been totally refuted, people fail to make appropriate revisions in those beliefs,” the researchers noted. In this case, the failure was “particularly impressive,” since two data points would never have been enough information to generalize from.
The Stanford studies became famous. Coming from a group of academics in the nineteen-seventies, the contention that people can’t think straight was shocking. It isn’t any longer. Thousands of subsequent experiments have confirmed (and elaborated on) this finding. As everyone who’s followed the research—or even occasionally picked up a copy of Psychology Today—knows, any graduate student with a clipboard can demonstrate that reasonable-seeming people are often totally irrational. Rarely has this insight seemed more relevant than it does right now. Still, an essential puzzle remains: How did we come to be this way?
In a new book, “The Enigma of Reason” (Harvard), the cognitive scientists Hugo Mercier and Dan Sperber take a stab at answering this question. Mercier, who works at a French research institute in Lyon, and Sperber, now based at the Central European University, in Budapest, point out that reason is an evolved trait, like bipedalism or three-color vision. It emerged on the savannas of Africa, and has to be understood in that context.
Stripped of a lot of what might be called cognitive-science-ese, Mercier and Sperber’s argument runs, more or less, as follows: Humans’ biggest advantage over other species is our ability to coöperate. Coöperation is difficult to establish and almost as difficult to sustain. For any individual, freeloading is always the best course of action. Reason developed not to enable us to solve abstract, logical problems or even to help us draw conclusions from unfamiliar data; rather, it developed to resolve the problems posed by living in collaborative groups.
“Reason is an adaptation to the hypersocial niche humans have evolved for themselves,” Mercier and Sperber write. Habits of mind that seem weird or goofy or just plain dumb from an “intellectualist” point of view prove shrewd when seen from a social “interactionist” perspective.
Consider what’s become known as “confirmation bias,” the tendency people have to embrace information that supports their beliefs and reject information that contradicts them. Of the many forms of faulty thinking that have been identified, confirmation bias is among the best catalogued; it’s the subject of entire textbooks’ worth of experiments. One of the most famous of these was conducted, again, at Stanford. For this experiment, researchers rounded up a group of students who had opposing opinions about capital punishment. Half the students were in favor of it and thought that it deterred crime; the other half were against it and thought that it had no effect on crime.
The students were asked to respond to two studies. One provided data in support of the deterrence argument, and the other provided data that called it into question. Both studies—you guessed it—were made up, and had been designed to present what were, objectively speaking, equally compelling statistics. The students who had originally supported capital punishment rated the pro-deterrence data highly credible and the anti-deterrence data unconvincing; the students who’d originally opposed capital punishment did the reverse. At the end of the experiment, the students were asked once again about their views. Those who’d started out pro-capital punishment were now even more in favor of it; those who’d opposed it were even more hostile.
If reason is designed to generate sound judgments, then it’s hard to conceive of a more serious design flaw than confirmation bias. Imagine, Mercier and Sperber suggest, a mouse that thinks the way we do. Such a mouse, “bent on confirming its belief that there are no cats around,” would soon be dinner. To the extent that confirmation bias leads people to dismiss evidence of new or underappreciated threats—the human equivalent of the cat around the corner—it’s a trait that should have been selected against. The fact that both we and it survive, Mercier and Sperber argue, proves that it must have some adaptive function, and that function, they maintain, is related to our “hypersociability.”
Mercier and Sperber prefer the term “myside bias.” Humans, they point out, aren’t randomly credulous. Presented with someone else’s argument, we’re quite adept at spotting the weaknesses. Almost invariably, the positions we’re blind about are our own.
A recent experiment performed by Mercier and some European colleagues neatly demonstrates this asymmetry. Participants were asked to answer a series of simple reasoning problems. They were then asked to explain their responses, and were given a chance to modify them if they identified mistakes. The majority were satisfied with their original choices; fewer than fifteen per cent changed their minds in step two.
In step three, participants were shown one of the same problems, along with their answer and the answer of another participant, who’d come to a different conclusion. Once again, they were given the chance to change their responses. But a trick had been played: the answers presented to them as someone else’s were actually their own, and vice versa. About half the participants realized what was going on. Among the other half, suddenly people became a lot more critical. Nearly sixty per cent now rejected the responses that they’d earlier been satisfied with.
This lopsidedness, according to Mercier and Sperber, reflects the task that reason evolved to perform, which is to prevent us from getting screwed by the other members of our group. Living in small bands of hunter-gatherers, our ancestors were primarily concerned with their social standing, and with making sure that they weren’t the ones risking their lives on the hunt while others loafed around in the cave. There was little advantage in reasoning clearly, while much was to be gained from winning arguments.
Among the many, many issues our forebears didn’t worry about were the deterrent effects of capital punishment and the ideal attributes of a firefighter. Nor did they have to contend with fabricated studies, or fake news, or Twitter. It’s no wonder, then, that today reason often seems to fail us. As Mercier and Sperber write, “This is one of many cases in which the environment changed too quickly for natural selection to catch up.”
Steven Sloman, a professor at Brown, and Philip Fernbach, a professor at the University of Colorado, are also cognitive scientists. They, too, believe sociability is the key to how the human mind functions or, perhaps more pertinently, malfunctions. They begin their book, “The Knowledge Illusion: Why We Never Think Alone” (Riverhead), with a look at toilets.
Virtually everyone in the United States, and indeed throughout the developed world, is familiar with toilets. A typical flush toilet has a ceramic bowl filled with water. When the handle is depressed, or the button pushed, the water—and everything that’s been deposited in it—gets sucked into a pipe and from there into the sewage system. But how does this actually happen?
In a study conducted at Yale, graduate students were asked to rate their understanding of everyday devices, including toilets, zippers, and cylinder locks. They were then asked to write detailed, step-by-step explanations of how the devices work, and to rate their understanding again. Apparently, the effort revealed to the students their own ignorance, because their self-assessments dropped. (Toilets, it turns out, are more complicated than they appear.)
Sloman and Fernbach see this effect, which they call the “illusion of explanatory depth,” just about everywhere. People believe that they know way more than they actually do. What allows us to persist in this belief is other people. In the case of my toilet, someone else designed it so that I can operate it easily. This is something humans are very good at. We’ve been relying on one another’s expertise ever since we figured out how to hunt together, which was probably a key development in our evolutionary history. So well do we collaborate, Sloman and Fernbach argue, that we can hardly tell where our own understanding ends and others’ begins.
“One implication of the naturalness with which we divide cognitive labor,” they write, is that there’s “no sharp boundary between one person’s ideas and knowledge” and “those of other members” of the group.
This borderlessness, or, if you prefer, confusion, is also crucial to what we consider progress. As people invented new tools for new ways of living, they simultaneously created new realms of ignorance; if everyone had insisted on, say, mastering the principles of metalworking before picking up a knife, the Bronze Age wouldn’t have amounted to much. When it comes to new technologies, incomplete understanding is empowering.
Where it gets us into trouble, according to Sloman and Fernbach, is in the political domain. It’s one thing for me to flush a toilet without knowing how it operates, and another for me to favor (or oppose) an immigration ban without knowing what I’m talking about. Sloman and Fernbach cite a survey conducted in 2014, not long after Russia annexed the Ukrainian territory of Crimea. Respondents were asked how they thought the U.S. should react, and also whether they could identify Ukraine on a map. The farther off base they were about the geography, the more likely they were to favor military intervention. (Respondents were so unsure of Ukraine’s location that the median guess was wrong by eighteen hundred miles, roughly the distance from Kiev to Madrid.)
Surveys on many other issues have yielded similarly dismaying results. “As a rule, strong feelings about issues do not emerge from deep understanding,” Sloman and Fernbach write. And here our dependence on other minds reinforces the problem. If your position on, say, the Affordable Care Act is baseless and I rely on it, then my opinion is also baseless. When I talk to Tom and he decides he agrees with me, his opinion is also baseless, but now that the three of us concur we feel that much more smug about our views. If we all now dismiss as unconvincing any information that contradicts our opinion, you get, well, the Trump Administration.
“This is how a community of knowledge can become dangerous,” Sloman and Fernbach observe. The two have performed their own version of the toilet experiment, substituting public policy for household gadgets. In a study conducted in 2012, they asked people for their stance on questions like: Should there be a single-payer health-care system? Or merit-based pay for teachers? Participants were asked to rate their positions depending on how strongly they agreed or disagreed with the proposals. Next, they were instructed to explain, in as much detail as they could, the impacts of implementing each one. Most people at this point ran into trouble. Asked once again to rate their views, they ratcheted down the intensity, so that they either agreed or disagreed less vehemently.
Sloman and Fernbach see in this result a little candle for a dark world. If we—or our friends or the pundits on CNN—spent less time pontificating and more trying to work through the implications of policy proposals, we’d realize how clueless we are and moderate our views. This, they write, “may be the only form of thinking that will shatter the illusion of explanatory depth and change people’s attitudes.”
One way to look at science is as a system that corrects for people’s natural inclinations. In a well-run laboratory, there’s no room for myside bias; the results have to be reproducible in other laboratories, by researchers who have no motive to confirm them. And this, it could be argued, is why the system has proved so successful. At any given moment, a field may be dominated by squabbles, but, in the end, the methodology prevails. Science moves forward, even as we remain stuck in place.
In “Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, a psychiatrist, and his daughter, Sara Gorman, a public-health specialist, probe the gap between what science tells us and what we tell ourselves. Their concern is with those persistent beliefs which are not just demonstrably false but also potentially deadly, like the conviction that vaccines are hazardous. Of course, what’s hazardous is not being vaccinated; that’s why vaccines were created in the first place. “Immunization is one of the triumphs of modern medicine,” the Gormans note. But no matter how many scientific studies conclude that vaccines are safe, and that there’s no link between immunizations and autism, anti-vaxxers remain unmoved. (They can now count on their side—sort of—Donald Trump, who has said that, although he and his wife had their son, Barron, vaccinated, they refused to do so on the timetable recommended by pediatricians.)
The Gormans, too, argue that ways of thinking that now seem self-destructive must at some point have been adaptive. And they, too, dedicate many pages to confirmation bias, which, they claim, has a physiological component. They cite research suggesting that people experience genuine pleasure—a rush of dopamine—when processing information that supports their beliefs. “It feels good to ‘stick to our guns’ even if we are wrong,” they observe.
The Gormans don’t just want to catalogue the ways we go wrong; they want to correct for them. There must be some way, they maintain, to convince people that vaccines are good for kids, and handguns are dangerous. (Another widespread but statistically insupportable belief they’d like to discredit is that owning a gun makes you safer.) But here they encounter the very problems they have enumerated. Providing people with accurate information doesn’t seem to help; they simply discount it. Appealing to their emotions may work better, but doing so is obviously antithetical to the goal of promoting sound science. “The challenge that remains,” they write toward the end of their book, “is to figure out how to address the tendencies that lead to false scientific belief.”
“The Enigma of Reason,” “The Knowledge Illusion,” and “Denying to the Grave” were all written before the November election. And yet they anticipate Kellyanne Conway and the rise of “alternative facts.” These days, it can feel as if the entire country has been given over to a vast psychological experiment being run either by no one or by Steve Bannon. Rational agents would be able to think their way to a solution. But, on this matter, the literature is not reassuring.