El show del cerebro
Investigación científica
Mientras sus críticos las tildan de reduccionistas, las neurociencias ganan terreno en los laboratorios, la literatura de divulgación y los presupuestos de los países centrales. Implicancias sociales y filosóficas del nuevo culto a las neuronas.
Marcelo Rodríguez

El todo por la parte. Un cerebro humano es exhibido en una caja de cristal en una muestra interactiva en San Pablo, Brasil. (Mauricio Lima/AFP/Dachary)

En los últimos tiempos, y contra lo que aseguraban las viejas predicciones de la ciencia ficción, parecería ser el cerebro  –y no las máquinas– lo que viene a sustituir al ser humano de los lugares que solía ocupar. Una copiosa literatura pinta al órgano en cuestión yendo a la escuela, trabajando en equipo, atendiendo varias tareas a la vez, enamorándose, tocando el saxo o dejándose engañar. Con el simple truco de sustitución del todo por la parte, parece fácil resolver la crisis educativa, hacerse rico y hasta gobernar sin preocuparse por las relaciones de poder, que entre cerebros no existen; todas son diferencias de funcionamiento.
¿Cuánto tiene que ver este fenómeno cultural, que no es nuevo ni es solo de alcance local, con el desarrollo actual de las neurociencias, que incluye la labor de los investigadores que luchan por su trabajo en la Argentina de hoy? Las posiciones varían, porque en el marco de la competencia entre las ciencias exactas y las humanísticas por el estudio de la mente, que lleva como mínimo un siglo y medio, hay quienes cuestionan los presupuestos mismos del mainstream neurocientífico, mientras que otros sostienen que las tendencias reduccionistas o excesivamente simplificadoras solo son «errores de comunicación».
Todo esto sin olvidar que las neurociencias –que se iniciaron como tales en los 60, cobraron vigor en los 90 y hoy constituyen, según el epistemólogo argentino Mario Bunge, la rama que lidera el desarrollo de la ciencia, como en su momento lo fueron la física y la genética– distan mucho de ser un bloque monolítico con una matriz disciplinar única, aceptada en cada uno de los 10.000 laboratorios que las practican a lo ancho del mundo y publican unos 60.000 papers cada año en los medios especializados. El de unificar y centralizar tanta información dispersa fue en parte el propósito del Proyecto Cerebro Humano (HBP, según sus siglas en inglés), puesto en marcha por la Unión Europea en 2013 con un presupuesto de 1.000 millones de euros en 10 años. Junto con el megaproyecto BRAIN, iniciado en Estados Unidos por la administración Obama con el fin de mapear completamente el cerebro humano –y sin contar que China tiene el suyo–, muestran la importancia que el tema tiene para esos gobiernos. Uno de los líderes del proyecto BRAIN, Rafael Yuste, de la Universidad de Columbia, pronosticó «un nuevo humanismo» al confiar en que «cuando entendamos el cerebro, la humanidad se entenderá a sí misma por dentro por primera vez».


Capacidad y eficiencia
Las neurociencias prometen dar respuestas eficaces a los trastornos generales del desarrollo –como el autismo– y las enfermedades neurodegenerativas –como el Alzheimer–, que hasta hoy no las tienen. Si a eso se suman los trastornos neurológicos y los psiquiátricos –terreno, este último, en el que se vienen imponiendo las neurociencias aplicadas con tratamientos que combinan psicofármacos y psicoterapia cognitivo-conductual–, se habla de un 35% del gasto en salud en los países centrales.
Esto le da cierto sentido a la inversión de términos según la cual, por ejemplo, el cerebro ya no es bueno para leer, sino que leer es bueno para el cerebro. La del cerebro como una máquina susceptible de mejoras de rendimiento y de aumentos de capacidad mediante «upgrades» es hoy una metáfora con gran aceptación, donde las respuestas a los «para qué» o a los «de qué estamos hablando» solo pueden encontrarse en las ideologías presentes en la sociedad, que son transversales también al mundo científico.
En 2013, la psicóloga Cliodhna O’Connor, del Colegio Universitario de Londres, analizó los artículos sobre neurociencia publicados a lo largo de una década en seis de las revistas británicas más importantes, y encontró ese enfoque «mejorador» del cerebro en el 40% de ellas. De esas publicaciones se deducía, por ejemplo, que las neurociencias «prueban» que los sentimientos, ideas y motivaciones son fenómenos neurofisiológicos irrefutables, que las características neuronales «explican» las diferencias entre los grupos humanos, o que el cerebro es el centro del individuo y de la sociedad. Pero estos conceptos –sostenía O’Connor– no pueden endosársele a la neurociencia en bloque.
La idea del cerebro como centro del pensamiento fue históricamente resistida desde visiones idealistas, pero situar la actividad mental en un «mundo espiritual» sin relación con el mundo material no es compatible con la visión de la ciencia actual. En cambio, el estudio de las neuronas en espejo o de la interdependencia entre emociones, percepción e ideas hoy abre el juego a pensar en una «cognición corporizada», cuestionando «desde adentro» la propia idea de que el cerebro es quien «piensa y da las órdenes».
El pool de especialistas que convergen en las neurociencias incluye biólogos, médicos, psicólogos, matemáticos, físicos e ingenieros –que han desarrollado las tecnologías de resonancia magnética funcional y de tomografía por emisión de positrones (PET), que posibilitan el escaneo cerebral–, filósofos, informáticos… Dentro de las teorías computacionales de la mente y la inteligencia artificial, que forman parte de las neurociencias, la «línea dura», entre cuyos referentes está el estadounidense Paul Churchland, lleva al extremo la analogía «cerebro-computadora» y sostiene que la mente no es más que un complejo software. Ergo, las computadoras piensan y la transferencia de mentes humanas a computadoras es posible. En tal sentido, la posición de John Searle –uno de los más conocidos filósofos de la mente– «rescata» al cerebro: las diferencias entre neuronas y circuitos integrados industriales son demasiado grandes como para pensar que los fenómenos que ocurren en ellos sean de la misma naturaleza y suponer que estudiando un software podemos entender realmente cómo pensamos.
Otra crítica frecuente es que estudiar al cerebro como artefacto lleva implícito el énfasis en el control (de la conducta, de las emociones, de los pensamientos). Hacia el año 2000, el tecnólogo canadiense Andrew Feenberg se entusiasmaba con la línea de investigación desarrollada años antes por los neurobiólogos chilenos Humberto Maturana y Francisco Varela, que estudiaban al cerebro no como una CPU, sino como un sistema autoorganizado de redes con capacidad de responder inmediatamente a su entorno mediante el aprendizaje. La mente, decía Feenberg en Transformar la tecnología (UNQ, 2008), deja de ser así el «sistema de control» del cuerpo, y se podrán diseñar computadoras capaces de potenciar mejor nuestras humanas capacidades y nuestra libertad creativa. Lo paradójico es que, casi como una ironía, en los años que siguieron la inteligencia artificial dio un vertiginoso viraje hacia ese modelo de «redes neuronales» autoorganizadas, lo que les posibilitó a empresas como Google, Facebook o Amazon niveles de expansión, control y concentración inéditos en la historia del capitalismo. En resumen: no parece haber un conocimiento que sea «malo» o «bueno» a priori, y a la hora de tratar de comprender la significación de los avances científicos, más vale no perder de vista cuál es la sociedad en la que la ciencia desarrolla su legítima y necesaria búsqueda de ese conocimiento.