De vampiros, licántropos y otros amigos (parte 2)

Nosferatu Murnau
El clásico “Nosferatu” (1922), del cineasta alemán F. W.  Murnau, trató de convertirse en la primera adaptación cinematográfica de la archifamosa novela de Bram Stoker. Sin embargo, un problema con los derechos de autor motivó una serie de transformaciones argumentales que, finalmente, convirtieron al vampiro de los Cárpatos original en el icónico Conde Orlok, interpretado por el actor Max Schreck.

Existen al parecer ciertas circunstancias médicas, si bien esta cuestión no deja de levantar controversias enconadas y debates relativos a su corrección política, que permitirían explicar lo que la superstición interpretó como vampirismo y licantropía[1]. La más obvia es una enfermedad conocida como porfiria cutánea tarda (PCT), una de las dos variantes de la porfiria eritropoyética[2]. Siendo la PCT una dolencia poco frecuente, pues es más común la otra variedad denominada porfiria aguda intermitente (PAI), que se manifiesta en forma de dolor abdominal, vómitos y diarrea, acompañados de otros síntomas neurológicos así como alteraciones psiquiátricas[3].

Quienes sufren de la extraña PCT, una enfermedad que aqueja especialmente pero no exclusivamente a los alcohólicos, se vuelven extremadamente fotosensibles y no pueden exponerse al sol sin sufrir lesiones ulcerosas en la piel a causa de la destrucción celular. Los tejidos cutáneos enrojecen con rapidez y se desarrollan ampollas, lo que bien haría a un observador externo imaginar que se trata de quemaduras provocadas por la luz solar. Quedan horribles cicatrices, pudiendo el paciente en los casos más extremos perder los dedos, la nariz y las orejas. Los ojos se ponen rojos. Por otra parte, se llegan a caer todos los dientes quedando tan solo los caninos. Todo ello termina por otorgar al paciente un aspecto grotesco y terrible.

Porfiria
Mujer afectada de PCT. Sobran los comentarios.

Ocurre que existen, además otras enfermedades que al sistema endocrino de espectaculares manifestaciones, como aquellas que desarrollan un anormal y desenfrenado crecimiento del cabello y el vello corporal en un proceso que se conoce como hirsutismo o hipertricosis, y que se relaciona con una rara mutación genética hereditaria que provoca, entre otras cosas, un aumento desproporcionado de la cantidad de andrógenos. Así se explica, por ejemplo, el fenómeno de las tristemente célebres “mujeres barbudas”.

hioertricosis
Hipertricosis.

En definitiva, la PCT y la hipertricosis dotarían al convaleciente de gran parte de las características físicas que la leyenda atribuye tanto a los vampiros como a los hombres lobo: palidez anémica, ojos inyectados en sangre, pelo en las palmas de las manos o en todo el cuerpo, y etcétera. Especialistas como David Dolphin, de la University Of British Columbia, han presentado en diversos foros científicos célebres informes en los que exponen con sumo detalle los muchos puntos de contacto que se observan entre las leyendas de vampiros y la bioquímica de la porfiria. Evidentemente, estos pacientes no son criminales sino, en todo caso, víctimas del imaginario popular y de la ignorancia como tantos otros que en el decurso de la historia han sufrido dolencias consideradas malditas por una u otra razón. En todo caso, resulta obvio imaginar que el mito precede a la enfermedad y que, sin más, ésta se habría convertido en supuesta prueba del primero. Por lo general, la gente ve lo que quiere ver siempre que se enfrenta a lo que no comprende.

También hay otras causas que pueden darnos cumplida cuenta del hecho vampírico como, por ejemplo, las dificultades que se han tenido hasta hace relativamente poco tiempo a la hora de determinar el fallecimiento clínico de una persona[4]. No era extraño –teniendo presente que incluso hoy es posible- que hasta hace no más de setenta años se enterrara aún con vida a un porcentaje de personas escalofriantemente elevado, ya fuera en estado catatónico o cataléptico inducido por una fiebre alta o cualquier otra dolencia que afectara de suerte peculiar al sistema nervioso. Si el supuesto fallecido tenía la suerte de haber sido depositado en un panteón familiar u otro lugar que le permitiera vencer las dificultades inherentes a su situación y abandonar su encierro, es lógico pensar que la superstición popular haría su trabajo para transformarlo en un ser maligno de cualquier especie. La cantidad de estremecedores relatos, historias, cuentos y leyendas que inciden en este sórdido tema son ingentes y pueden hallarse en todas las tradiciones culturales del mundo. Sirva un dato ciertamente terrible: a principios del siglo XX las autoridades de los Estados Unidos ya calculaban que en a lo largo y ancho del país se enterraba al menos a una persona viva cada semana. El pánico al respecto llegó a ser tan exagerado que se ideó toda suerte de ingeniosos aparatos para que el pretendido cadáver pudiera activarlos desde su macabro encierro en caso de entierro prematuro. También proliferaron las casas de muertos y otras dependencias similares, en las que el cuerpo reposaba bajo la estrecha vigilancia de celadores atentos al menor signo de vida durante unos días, antes de ser finalmente enterrado.

ataud_seguridad
Diseño de uno de los múltiples modelos de ataúd de seguridad, con cuyo concurso se pretendía evitar la eventualidad de ser enterrado vivo, cuya patente se registró durante el siglo XIX. Para saber más sobre esto, sigue el enlace.

Tampoco faltan los relatos de cadáveres conservados en perfectas condiciones tras años de recibir sepultura que fueron en su momento atravesados con estacas, clavados al suelo, desmembrados y otras lindezas parecidas. No obstante, es conocido que en determinadas circunstancias medioambientales un cadáver puede tardar años, décadas e incluso siglos en descomponerse.

“[…] La descomposición depende de muchas variables. Un cuerpo enterrado puede perdurar casi indefinidamente en el hielo. La turba y la humedad también son capaces de retardar la descomposición. En arena seca los cadáveres se momifican hasta convertirse en duradero pergamino. En tierras ricas en minerales pueden impregnarse de sales y metales. Pero si no han sido enterrados, sobre todo cuando hace calor, el proceso de esqueletización llega a ser asombrosamente rápido. El tiempo mínimo que requiere la esqueletización total no es de nueve años ni de nueve meses, ni siquiera de nueve semanas: puede producirse en aproximadamente nueve días. […] El recipiente funerario tiene una tremenda importancia. Los recipientes herméticos que protegen el cadáver del medio ambiente […] proporcionan un grado sorprendente de preservación, incluso durante periodos prolongados de tiempo. He visto como un cadáver bien embalsamado –un cadáver al que se había hecho la autopsia, lo cual dificulta considerablemente el embalsamamiento- duraba veintisiete años dentro de un ataúd hermético en el interior de una cripta, con rasgos perfectamente naturales y sólo unas pequeñas zonas de piel desprendidas de manos y pies. […] Aunque no esté protegido por ningún recipiente, un cadáver dura más si se encuentra bajo tierra”[5].

En todo caso, bastaba con que el fallecido hubiera sido un individuo peligroso, malvado, sospechoso de haber practicado la brujería o de costumbres poco respetables para que en lugar de santo fuese considerado vampiro o poseído por demonios. Así, el tratamiento que recibía su cuerpo era tan expeditivo como implacable. De esta época de supersticiones proceden falsas creencias que, aún hoy, se encuentran muy extendidas entre la población, como la de que el pelo y las uñas siguen creciendo después de la muerte: “es un mito que las uñas y el pelo sigan creciendo después de la muerte –explica William Maples-. Lo que sucede en realidad es que la piel se repliega a su alrededor, haciendo que el pelo y las uñas se levanten y sobresalgan más”[6].

El Entierro Prematuro (Antoine Wiertz)
“El entierro prematuro”, obra de Antoine Wiertz (1854).

Por otra parte, y pese a que las leyendas de vampiros resulten interesantes como pasatiempo o motivo de reflexión filosófica y antropológica, es evidente que tras la mayor parte de las que tienen algún viso de ser ciertas no puede esconderse otra cosa que una mente enferma o un criminal[7].

Vampirismo y licantropía como patología psíquica

El asesino vampírico, tanto como el licántropo, son, como todos los psicópatas y al igual que el resto de los seres humanos, prisioneros de sus fantasías. El problema reside en que la imaginación de estos individuos se rige por mapas mentales impensables para el resto de las personas. Obtienen satisfacción bebiendo la sangre de sus víctimas, sencillamente viéndola correr, comiendo su carne o profanando cadáveres, y no dudan en recurrir incluso al asesinato para satisfacer sus necesidades parafílicas. El fetichismo por la sangre y la carne, que algunos psiquiatras denominan Síndrome de Renfield[8], es en realidad una forma de necrofilia en la que el sujeto, en sus fases iniciales, comienza experimentando con animales hasta focalizarse en otras personas y convertirse a medida que los delirios fantásticos del individuo crecen, en auténticos depredadores de novela. Es cierto que este tipo de casos, cuya incidencia estadística es en realidad escasísima, resultan especialmente llamativos al profano y copen protagonismo en medios de comunicación, relatos de terror, películas, cómics, videojuegos o series de televisión. Y es por ello que muchos de los asesinos más conocidos de la historia del crimen –que no los más prolíficos- han pertenecido a esta curiosa especie.

De acuerdo con el estudio llevado a cabo por el psiquiatra Hershel Prins[9], el delirio vampírico puede manifestarse de muy diferentes formas, de modo que su catalogación comprende cuatro grandes grupos:

  • Vampirismo completo. Comprende toda suerte de fantasías y prácticas sádicas y necrofílicas que se convierten en móvil del asesinato o la profanación de tumbas. Esta clase de vampiro es un carroñero que experimenta una atracción incontrolable por los muertos y consume sangre –e incluso carne o vísceras- procedentes de personas a las que puede, o no, haber asesinado previamente. Gilles de Rais es un ejemplo histórico muy ilustrativo. Casos más cercanos son los del sargento Leger, quien en 1827 violó el cadáver de una niña de 12 años y bebió su sangre; el popular John George Haigh, también conocido como el Vampiro de Londres; Fritz Haarmann, el Vampiro de Hannover; y por supuesto Richard Trenton Chase, el Vampiro de Sacramento. Curiosamente, otros “vampiros” mediáticos como Peter Kürten o Mohammed Bijeh no realizaban esta suerte de prácticas pese a ser bautizados de tal modo por la prensa.
  • Vampirismo sin ingestión de sangre ni de materia muerta. A esta variedad se la asociaría con la simple necrofilia, que consiste en satisfacer el instinto sexual con cadáveres, o bien, gozar con tocarlos y contemplarlos. Un caso bien conocido y documentado de estas características es el del alemán Kuno Hofmann, el Vampiro de Núremberg. Hofmann, que pasó algún tiempo en el campo de concentración nazi de Dachau, era sordomudo, tenía un cociente intelectual por debajo de la media y una timidez patológica que le impedía acercarse a las mujeres. Durante años estuvo asaltando depósitos de cadáveres para consumir la sangre de los muertos y practicar relaciones sexuales. En 1972, durante uno de sus paseos, terminó por asesinar a tiros a dos jóvenes que dormían en un coche a fin de probar su sangre. Probablemente, Hofmann habría continuado asesinando una vez había transgredido los límites y culminado su transformación, pero fue detenido.
  • Vampirismo sin cadáver. Esta categoría reúne a gran cantidad de sujetos con tendencias psicóticas, pero aparentemente normales e integrados en la sociedad, cuyos deseos les igualan al vampiro. Hablamos de impulsos incontrolables y muchas veces ocultos incluso para ellos mismos, o bien normalizados. En el fondo, estas ideaciones guardan relación con las capacidades sobrenaturales que la tradición atribuye al no-muerto, de modo que los vampiros ideales envidiarían el poder de los vampiros legendarios, a los tratan de parecerse. El hecho de que no asesinen, no cometan delitos, o no agredan a otros no les hace menos peligrosos, pues los anhelos y fantasías desde los que elaboran sus estructuras cognitivas suelen inducirles irremediablemente a la mentira, la maquinación, la manipulación y la temeridad.
  • Auto-vampirismo. En este grupo de tendencias claramente masoquistas se incluirían casos igualmente psicóticos así como esquizotípicos y esquizofrénicos. Son capaces provocarse lesiones, a veces brutales, ya que la propia sangre se ha convertido por cualquier razón –si bien el motivo suele tener un fondo erótico o religioso- en objeto de veneración. McCully narra el caso de un niño de 11 años que aprendió a pincharse con suma pericia las arterias del cuello para llenar con su sangre una taza entera que luego bebía. También se cortaba las venas del antebrazo para lamer la sangre de las heridas, lo que le hacía experimentar una fuerte excitación sexual.
KunoHofmann
Kuno Hofmann.

Parafilias como el vampirismo –también la licantropía- aparecen tan raramente en la población que su incidencia estadística es prácticamente nula. De hecho tanto el DSM como el CIE ni tan siquiera las mencionan explícitamente, acumulándolas –junto a muchas otras- bajo el epígrafe de parafilias no especificadas. Sin embargo, sus manifestaciones escabrosas y espectaculares son tan llamativas que siempre y en todo lugar han despertado tanto el horror como el interés del gran público hasta el punto de que, en determinados momentos históricos, como el tramo comprendido entre la baja edad media y finales del siglo XVII, llegaron a parecer cuestiones comunes. No en vano, la consideración general del vampiro, el licántropo y el asesino serial se funden y confunden, más allá de consideraciones clínicas o antropológicas, en una apreciación tópica: son “monstruos”. Criaturas diseñadas para matar, construidas tanto a nivel individual como social y que desempeñan un papel nítido en nuestra cultura. Podría decirse que la fascinación que hoy en día nos provoca el asesino en serie es precisamente un reflejo de la que los supuestos vampiros y hombres lobo generaron en el pasado, lo cual explica que los asesinos sistemáticos de ficción sean en muchos casos antihéroes “de culto” para millones de aficionados que pueden convertirse en auténticas máquinas de producir dinero para sus creadores.

Gilles de Rais
Gilles de Rais.

Ya en fecha tan temprana como 1584, autores como Reginald Scot sostenían que la licantropía era un trastorno mental, atribuyendo a la superstición popular la idea de que realmente un ser humano pudiera transformarse en lobo o cualquier otro animal[10]. Lo cierto es que los testimonios históricos de verdaderas epidemias de esta locura son variopintos y pueden ser rastreados en la literatura desde el siglo XVI hasta, prácticamente, finales del siglo XIX. Sirva un dato: tan sólo en el periodo comprendido entre 1520 y 1630, luego durante más o menos un siglo, se registraron 30.000 casos de licantropía sólo en Francia[11]. Esto es interesante desde un punto de vista antropológico. Parece que entretanto el Este de Europa era el hogar de los vampiros, los bosques franceses se habían transformado en el territorio de los hombres-lobo. El ser humano necesita de referentes socioculturales hasta para perder el juicio.

Capitan America - Hombre lobo
Hasta el Capitán América puede convertirse en hombre lobo cuando tiene en un mal día…

La idea de Scot fue posteriormente ampliada por otros autores ingleses como Robert Burton quien en 1621 sostuvo que “[algunos llaman a la licantropía] una especie de melancolía; pero yo prefiero denominarla locura”[12]. Nada tiene de sorprendente para la época este racionalismo respecto del tema, pues en las Islas Británicas los lobos se habían extinguido muchos años antes de que ambos textos fueran escritos. De hecho, es fácil encontrar relatos de hombres-lobo en el trabajo de los ensayistas británicos si nos remontamos al periodo comprendido entre los siglos X y XIII. Ahora bien, a partir del siglo XVI, este tipo de historias tan sólo sobrevivió como argumento literario. Obsérvese, por consiguiente, el anacronismo que inherente a convertir las calles de Londres, o los páramos británicos, en escenario para los clásicos hombres lobo de la ficción.

Lo cierto es que el éxito como monstruo del licántropo, con el paso de los años, ha sido mucho menor que el del vampiro. Parece que, por alguna razón, resulta mucho más fácil creer en la existencia del vampirismo que en la de la licantropía y ello, como hecho sociocultural, también ha tenido repercusión en el escenario del crimen. A partir de 1900 han aparecido varios casos de asesinos en serie movidos por fantasías vampíricas, pero no se han presentado supuestos hombres-lobo, lo cual ha motivado que la literatura psiquiátrica y psicológica apenas si haya tocado el tema, con excepción del psicoanálisis, en la medida que muchos pacientes refieren al narrar sus sueños diversos procesos de metamorfosis que han de ser iluminados por el terapeuta. Parece que el hombre-lobo tiene un sentido más folklórico, propio de un buen relato de terror para las noches de campamento, mientras que el vampiro parece tocar con mayor profundidad los aspectos más atávicos del ser humano.

El misterio de Salem's Lot
Un vampiro de ficción especialmente terrorífico -inspirado en la imagen del “Nosferatu” de Murnau-, fue el ideado por Tobe Hooper a la hora de llevar a la gran pantalla el clásico literario de terror de Stephen King en “Salem´s Lot” (1979).

[1] De hecho, ya sea desde un punto de vista antropológico como desde una óptica meramente psiquiátrica, vampirismo y licantropía tienen muchos puntos de conexión. Daniel Farson en su libro Vampiros, hombres lobo y aparecidos (Barcelona, Noguer, 1976), indica que tradicionalmente se consideraba que un hombre lobo se convertiría en vampiro al morir a menos que su cadáver fuera debidamente exorcizado. También que podía bastar con beber la sangre o comer la carne de un cordero muerto por un lobo para transformarse en hombre lobo.

[2] Las porfirias son un grupo de enfermedades cuyo origen es una alteración, cualitativa o cuantitativa, del metabolismo de las porfirinas. Habría dos modalidades básicas: las eritropoyéticas y las hepáticas. Las porfirinas, básicamente, son sustancias que, al combinarse con determinados metales como el hierro, juegan un papel fundamental en la síntesis de la hemoglobina

[3] Un ejemplo claro y famoso de esta dolencia sería el de la célebre locura transitoria que aquejó al rey Jorge IV de Inglaterra, inmortalizada en La locura del rey Jorge, una extraordinaria y muy bien documentada película dirigida por el británico Nicholas Hyttner.

[4] Recomiendo al lector interesado en este asunto un excelente libro: Bonderson, J. (2002). Enterrado vivo. Barcelona, Ediciones B.

[5] Maples, W. R. y Browning, M. (2006). Los muertos también hablan. Barcelona, Random House Mondadori

[6] Ibid. anterior.

[7] La constatación de la existencia de estos perturbados sedientos de sangre hizo que ganara cuerpo la creencia del vulgo en la existencia de una supuesta enfermedad denominada hematodipsia o hematodixia, por la cual el sujeto que la padece se vería determinado fisiológicamente a beber sangre. Sin embargo, como bien manifiestan Miguel Gómez Aracil en su libro Vampiros (Barcelona, EDAF, 2003), así como otros especialistas, esta supuesta dolencia es un invención del imaginario colectivo completamente desconocida por la profesión médica.

[8] Por el personaje de la archiconocida novela de Bram Stoker. Renfield había sido vampirizado por el Conde Drácula durante una estancia de negocios en Transilvania, de suerte que empezó a experimentar una progresiva sed de la sangre de criaturas vivas para mantenerse a sí mismo con vida. Los doctores de la novela –salvo el excéntrico Van Helsing, por supuesto- consideraron que Renfield estaba loco, recluyéndolo en una institución mental.

[9] Prins, H. (1985): “Vampirism: A clinical condition”. En: British Journal of Psychiatry, 146 (6), pp. 666-668.

[10] Scot, R.; Discovery of Witchcraft. La primera edición de este tratado vio la luz en Londres en 1584. Hubo diversas reediciones del mismo a lo largo de los siglos. La más moderna es la de Montague Summers, New York, 1954.

[11] Farson, D.; op. cit. supra nota 1.

[12] Burton, R.; Anatomy of Melancholy. Londres, 1621.

De la banalidad del mal a la victimización

“Hay hombres sanos y hombres enfermos, pero los hay medio sanos y medio enfermos y los hay convalecientes. Hay hombres buenos y malos, pero los hay ni buenos ni malos. En todas las cosas hay matices”.

Miguel Gayarre Espinal (1886-1936)


hannah-arendt
Hanna Arendt

Cuando Hanna Arendt (1906-1975), inspirada por el juicio del nazi Adolf Eichmann (1906-1962), que comenzó en Jerusalén en 1961, habló de la “banalidad del mal”[1], no sólo trataba de mostrarnos cómo la maldad es por lo común una actividad y una consecuencia –el proceso y resultado de una situación personal concreta- antes que una improbable condición metafísica inherente a los individuos tal y como se deduce de la sentencia del doctor Gayarre que encabeza esta entrada. Quería Arendt ir más lejos en la medida que trataba de esclarecer en alguna medida sus efectos sobre las víctimas directas e indirectas de los actos malvados y, con ello, ofrecernos la posibilidad de extraer consecuencias valiosas en el plano victimológico. Consecuencias que en estos tiempos, en los que la cultura se ve teñida de un esencialismo terrible, estereotipado y etiquetador, del que nos servimos para enjuiciar, calificar, denominar y condenar sin llegar nunca a comprender del todo son, creo, más pertinentes que nunca. Basta con observar la ligereza con la que se esencializa a las personas –y a los colectivos- en los titulares de prensa, con fines por lo común inconfesables, para darse cuenta de que algo perverso está ocurriendo con nuestra comprensión de la realidad.

Del mismo modo que Eichmann llegó a convertirse en un terrible criminal y genocida, no por perversidades diagnosticables e inherentes a su personalidad, sino por formar parte de un conglomerado burocrático enfermizo cimentado sobre la política del exterminio –y en tal sentido puede decirse que simplemente era un tipo que “hacía su trabajo” con total independencia de lo terrorífica o censurable que esa ocupación nos resulte-, carece de sentido pensar que las maldades que nos afectan en la vida diaria, o que nos conducen a la victimización, tienen algo que ver con alguna clase de esencialidad o destino cósmico. Y esta impresión, humana si se quiere en la medida que somos buscadores de sentidos, es algo de lo que hay que desprender a la víctima cuanto antes si lo que pretendemos es su recuperación personal, moral y social.

La falacia de la seguridad

Todos nos hemos convencido –pues resulta tranquilizador- de que el mal que puede llegar a afectarnos en un momento dado es controlable, restringible e incluso erradicable si somos capaces de seguir ciertas directivas y conductas tópicas, de manual, que nos mantengan “seguros”. Por eso precisamente sentir en primera o tercera persona el golpe de mal en cualquiera de sus formas –agresión, robo, asalto, violación, atentado y etcétera- nos sume en la estupefacción, pues nos relanza con enorme violencia a replantearnos las cuestiones de partida, hecho que tiene consecuencias muy severas no solo en nuestras vidas particulares, sino en el funcionamiento de la sociedad en su conjunto: ¿cómo es posible que pueda pasar/pasarme esto cuando he hecho todo lo que debería? ¿En qué consiste “estar seguro”? ¿Se puede realmente estarlo? ¿Cuánta de mi libertad he de conceder a quienes velan por mi seguridad para vivir tranquilo?

He aquí uno de los grandes problemas que la victimología trata de resolver: el de esa aparente contradicción entre la aleatoriedad y la necesidad que subyace al proceso de victimización. El prejuicio, impuesto por el sentido común, de que ser víctima es, bien un azar incontrolable, bien el resultado de haber hecho algo indebido, y de que el mal que un agresor motivado –por las razones que fueren- podría procurarnos puede ser minimizado, o eludido, si cumplimos escrupulosamente con ciertas reglas “de manual”. Nada más lejos de la verdad. El mal, llámese como se quiera, existe como evento y nos golpea, o puede hacerlo, simplemente porque vivimos. Y cuanto más complejas son las sociedades en las que desempeñamos nuestra existencia, mayores son los riesgos en la medida que resulta imposible controlar todas las variables en juego. A menudo ni tan siquiera sabemos que tales variables existen o que están operando en determinados contextos.

Esto es lo que nos muestran, por ejemplo, las historias personales de las víctimas de los atentados yihadistas que Madrid sufrió el 11 de marzo de 2004. Relatos que se repiten una y otra vez en boca de los supervivientes: personas que llevaban vidas perfectamente normales y que ignoraban estar en riesgo por la sencilla razón de que hacían lo correcto, lo rutinario, lo de siempre, y nada había que temer. Precisamente, uno de los problemas inherentes a la victimización surge de esta ignorancia de los procesos del mal a la que se suma la falacia del aparente control o de la aparente seguridad: ¿Por qué yo? ¿Por qué a mí? Parafraseando a Jean-Paul Sartre, podríamos decir que el mal siempre es “el mal de los otros”… Pero siempre cabe repensar las situaciones para entender cómo y por qué la banalidad del mal de la que hablaba Hanna Arendt puede golpearnos en cualquier momento: España llevaba décadas golpeada por el terrorismo de ETA. Estados Unidos había sufrido el terrible atentado yihadista del 11S… Pero nadie pensaba en eso en aquellos trenes de cercanías que fueron dinamitados. En realidad todos éramos víctimas potenciales de un atentado de estas características y el riesgo era muy real, pero decidimos ignorarlo sistemáticamente y de manera transversal, desde los que gobernaban nuestros destinos hasta nosotros mismos. Estábamos “seguros” y “hacíamos lo correcto”… ¿Qué podría sucedernos, entonces? ¿Por qué atormentarnos pensando que podría pasar lo que probablemente no pasaría?

Pero podría suceder y, de hecho, sucedió.

11m

El colapso de la civilización

Los testigos directos de los primeros momentos que se producen en los escenarios de un atentado terrorista en cualquier país occidental casi siempre los describen del mismo modo. Es una precisa imagen del colapso civilizatorio que supone comprender, de súbito, que cualquier forma de seguridad es tan sutil que alguien bien motivado –interesado- puede convertirla en aparente y falaz. Que la civilización que nos acoge es sensible, frágil, y puede convertirse en un espejismo que nos confunda. No es raro que en estos casos tanto policías como bomberos o médicos nos describan –con obvia perplejidad- algo que nunca pensaron ver en un “país avanzado”: un escenario de guerra. El silencio posterior a la batalla.

Todos los testigos de estas situaciones recuerdan siempre, y ante todo, el silencio. Inciden con suma estupefacción en el hecho de que nadie habla, de que nada se escucha. Es, reflexiono, un silencio devenido de la más profunda incredulidad. El silencio de quienes no comprenden qué ha pasado, ni por qué, ni a qué objeto responde lo que ocurre. El silencio del sinsentido. El silencio de la vejación vivida. El silencio de quienes nunca creyeron que aquello podría ocurrirles porque no eran conscientes del riesgo en la medida que hacían lo correcto a diario y vivían “seguros”. Es el silencio del colapso de la civilización: de las mentiras que se derrumban de súbito para mostrarnos la atroz realidad que subyace al escenario de la vida y cuyo impacto no podemos evitar sino, en todo caso, únicamente minimizar.

Empiezan a sonar los teléfonos móviles y se rompe ese silencio. La civilización que se ha fragmentado durante unos minutos vuelve a la vida. Todo recomienza –“como un reset” lo describió gráficamente un enfermero del SAMUR-. De repente las víctimas saben que lo son y que están vivas para no dejar de serlo nunca más. De súbito todo el mundo se hace consciente de la magnitud de lo que ocurre y encontrar a los vivos se transforma en obsesión. Comienza el rescate y el terrible recuento que viene primero: separar a los que viven de los que han muerto.

La civilización se reanuda.

Atentado Londres
Atentado de Londres, en 2005 [Fuente BBC].

¿Por qué?

Una vez que todo ha pasado y la víctima se ha hecho dueña de sí quiere entender lo sucedido tal y como querría hacerlo cualquier otro en su pellejo. Necesita sentido. Saber por qué ha tenido transformarse en víctima para interesarse por aquellas cosas que ni tan siquiera sabía que existían. Es una suerte de terapia: no temas, aprende. He conocido a víctimas de todo tipo que, conducidas por esta obsesión de sentido, se han convertido en auténticos especialistas en todo aquello relacionado con la clase de crimen que sufrieron. El problema, lamentablemente, es que bien pronto se dan cuenta de que los intelectualismos no satisfacen los “porqués” más profundos del problema, los emocionales, los sentimentales. Se sabe, se aprende, pero ese saber no cura.

Se trata de algo que te ha hecho otro, un malvado –moral o circunstancial-, alguien que te odia, que desea tu mal, que quiere desposeerte de algo valioso sin que sepas por qué. Sin que hayas hecho nada para merecerlo. Esto genera en la víctima una preocupación profunda y una mayor incomprensión, terror e indefensión. Las respuestas que se encuentran nunca satisfacen las dudas o los miedos perennes que se han instalado en su vida. Esto precisamente es ser una víctima fungible, inocente, comprender que nunca podrás entender del todo los motivos por los que eso te ha pasado a ti, o qué has hecho -si es que puede afirmarse con rigor que hayas hecho algo realmente- que justifique el daño del que has sido objeto.

Sobrevivir no es bastante. Solo es el primer paso. A la supervivencia le sigue la soledad de la desgracia. Le sobrevienen el pánico, el dolor y muy a menudo ese odio visceral, sucio, que puede llegar a ser todavía más destructivo que la herida sentimental. A la supervivencia le sigue la simple y llana desesperación.

victima-de-una-maldicion-familiar

Una desesperación que solo la entiende la víctima, pues nadie más está en disposición de asumir sus emociones a medida que el tiempo pasa… No es solo el daño físico, sino ante todo el daño moral. La civilización ha vuelto y trata de acogerte –es cierto-, pero como reconocen muchos “no te asume”, “no te entiende”, “no sabe por qué no dejas todo eso atrás”. Existen las indemnizaciones, las palabras de ánimo, los actos solidarios, y se agradece pero llegan incluso a ser molestia pues las secuelas psicológicas son ya cosa que la víctima debe gestionar sola… Todo cuanto le recuerde aquellos acontecimientos le provocará la misma ansiedad que ya vivió, el mismo terror, la evitación de ciertas circunstancias, el pánico inveterado a determinados eventos, el temor irracional a salir a la calle: la civilización ha vuelto a tu alrededor, en efecto, pero eres ya una víctima. Todo cuanto te daba cobijo, amparo y seguridad ha quedado destruido. Y las dudas permanentes que se repiten y que nadie resuelve, la culpa, el horror: “¿Me volverá a pasar? ¿Podré evitarlo si vuelve a ocurrir? ¿Podré liberarme de este miedo irracional? ¿Podrán entenderme? ¿Me culpabilizarán por esto? ¿Qué he hecho yo para merecérmelo?”.

Ser victimizado no es un exactamente un azar, pero tampoco forma parte de un plan cósmico. No es, al igual que la maldad, una condición esencial y/o metafísica. Es cierto que a menudo nadie puede comprenderlo del todo, pero se puede salir. Debes esforzarte y combatir. Porque, como decía el doctor Gayarre al comienzo, en todo hay matices. Incluso en la esperanza.


[1] Arendt, H. (1963). Eichmann in Jerusalem: A report on the banality of evil. New York (NY), USA: The Viking Press. Traducción Española: Eichmann en Jerusalén. Barcelona, España: Random House Mondadori.

¿Y tú qué pareces?

El médico británico Charles Goring (1870-1919), temiendo que el lombrosianismo que se extendía por el continente europeo como una mancha de aceite no fuera otra cosa que una falacia pseudocientífica, decidió tratar de comprobar por sí mismo hasta qué punto las teorías del médico transalpino Cesare Lombroso (1835-1909) y sus seguidores eran confiables. De tal modo, en 1913, publicó un estudio apoyado en masiva información estadística que contrariaba con absoluto rigor las tesis lombrosianas[1] y que, no obstante, fue misteriosamente ignorado en su momento. El caso es que Goring hizo algo bien sencillo que hasta entonces, al parecer, se había considerado innecesario: primero reunió nutridos grupos de reclusos con características que, a tenor de los expertos que los evaluaron, eran supuestamente atávicas y degenerativas. A renglón seguido procedió a una meticulosa comparación de estos colectivos con otras poblaciones criminales que no mostraban los terribles estigmas físicos descritos por Lombroso y sus seguidores. Después, comprobó las muestras poblacionales con otras compuestas de individuos que nunca habían delinquido… Y sucedió lo que ya se temía: no encontró diferencias significativas entre las diferentes muestras poblacionales, por lo que no había motivo científico alguno para afirmar la existencia de determinada apariencia física en el sujeto y una predisposición hacia el delito en general, o hacia cierto tipo delictual en particular. Pero esta y otras evidencias no surtieron efecto –de hecho ni tan siquiera fueron comentadas más allá de la sorna- por la sencilla razón de que afirmaban algo que nadie estaba dispuesto a escuchar en aquel momento. De hecho, la que sí resultaría profusamente comentada y seguida, por ser mucho más agradable a los intereses intelectuales de la corriente biomédica dominante, fue la aportación de Ernst Kretschmer (1888-1964).

Ernst Kretschmer
Ernst Kretschmer… Imaginemos que este buen hombre tuviera razón: ¿qué te sugieren esas sospechosas orejas puntiagudas? Villano, seguro.

Con la traducción al inglés, en 1925, de su Koperbau und Charakter[2], Kretschmer relanzaba al seno de la comunidad internacional, cierto que reformulada en términos más actuales y por ello mismo menos “sospechosos”, la antigua apuesta de la importancia del elemento biológico en la personalidad de los sujetos. Sostuvo así que existía una unidad morfológica, fisiológica y psicológica tan fuerte en el ser humano que las reacciones temperamentales, en el fondo, no eran otra cosa que un reflejo expreso de su tipo corporal. Una teoría, por cierto, que aún hoy goza de gran predicamento en un sector no precisamente pequeño de la clase psiquiátrica y que viene influyendo de manera muy notable en el ámbito de la cultura popular desde que fuera consolidada. La tesis de que los malos “lo parecen” es tan obvia en ámbitos como el cine, el cómic o las series de televisión que a menudo simplemente basta observar “la pinta” de los personajes para decidir sin miedo a confundirnos quién es el malvado de la historia. De este modo, Kretschmer construyó una tipología humana basada en el factor somático y temperamental que todavía se emplea con más o menos matices en el presente, constituyéndose en otro de los dudosos –y manidos- dejes del positivismo psicofisiológico que aún prevalecen.

Lo sorprendente, parafernalia conceptual aparte -y es importante que el lector tenga en cuenta este aspecto para calibrarla en sus verdaderas dimensiones-, es que se trata de una nueva versión de la misma idea que ya sostuvieron –cada cual a su modo- Hipócrates (460 a.C.-370 a.C.), Galeno (130-210), Della Porta (1535-1615) o Lavater (1741-1801). La misma idea que recuperó buena parte de la incipiente psiquiatría decimonónica y, por supuesto, la misma que subyace a las argumentaciones dudosas e intelectualmente vencidas de Cesare Lombroso. De hecho, más que una teoría científica propiamente dicha, tiene todo el aspecto de tratarse de un prejuicio sociocultural cíclico. La tópica “teoría boya” que flota durante un tiempo hasta que, refutada, se hunde sin llegar a desaparecer del todo a fin de mantenerse bajo la superficie hasta que los hados se tornen propicios.

heroes-y-villanos-spiderman-vs-venom
Vamos a imaginar que tu no sabes nada de estos dos… ¿A qué no tendrías problemas con tan solo ver esta viñeta en diferenciar al “bueno” del “malo”? ¿Y por qué crees que ocurre eso? Yo te lo digo: es lo que pasa cuando determinadas teorías -independientemente de su valor científico y contrastación empírica- se trasladan de suerte acrítica al ámbito de la cultura. Así se consolidan los estereotipos.

somatotipos kretscher

A la hora de llevar su tipología al ámbito de la delincuencia, Kretschmer tuvo ciertas dudas, por lo que se abstuvo de precisar relaciones precisas –o directas- entre delitos específicos y determinado somatotipo en el delincuente. De hecho, tal vez temeroso de ir “demasiado lejos”, quiso ofrecer una tipología criminal de talante aproximativo que, más que entretenerse tal vez de suerte infructuosa en buscar el biotipo criminal -el criminal nato– por excelencia, trató de correlacionar los factores somáticos y temperamentales con grupos muy genéricos de delitos. También introdujo una serie de elementos de carácter endocrinológico que, sin embargo, no aclaró en demasía. Concluyó en todo caso que:

  • Los pícnicos son proclives a comprometerse en delitos sin violencia (robo menor, hurto, estafa, desfalco, ataque a la propiedad, etc.). Raramente recurren al asesinato o la agresión física para lograr sus fines.
  • Los atléticos tienden a los delitos violentos (cometen más o menos el 66% de los delitos de sangre y tan sólo un 6% de ellos son estafadores o similar).
  • Los leptosómicos suelen ser ladrones a gran o pequeña escala. Tienden a verse implicados en agresiones de todo tipo a la propiedad privada o pública. Pueden recurrir ocasionalmente al asesinato o la agresión física.
Somatotipos de Kretschmer
Los somatotipos de Kretschmer (de izquierda a derecha): lepotosómico, atlético y pícnico. Se corresponderían con los de Sheldon, luego veremos como, pero se denominaron así. Es habitual en la literatura confundir ambas clasificaciones y tratarlas como si fueran idénticas.

Sea como fuere, la sugestiva visión de Kretschmer, que en gran medida venía a colocar a la altura de los tiempos las tan discutibles como obsoletas propuestas de la fisognomia de las que que se alimenta, alentó a un grupo de entusiastas seguidores de esta línea “positivista” a proseguir en la misma dirección. Así, a finales de la década de 1930, autores como el norteamericano Ernest Hooton (1887-1954) publicaban exitosos trabajos revisionistas con respecto a la molesta obra de Goring en los que se sostenía la naturaleza subdesarrollada y primitiva del delincuente, al que describe como un ser inferior desde el punto de vista orgánico que suele tener labios finos, hombros caídos, y orejas pequeñas. En todo caso, Hooton no estableció una tipología delincuencial, pero sí correlacionó diversas formas delictivas con el supuesto biotipo de sus autores[3].

Biotipología criminal de Hooton

Biotipo

Clase habitual de delito

Alto y corpulento

Obeso y pequeño

Bajo y delgado

Homicidio y falsificación

Estafa

Hurto y robo

Hooton
No es un neanderthal peligroso. En absoluto. Es nada menos que Ernest Hooton pontificando acerca de lo malo que es parecer lo que él parece. Y es que en casa del herrero…

Sea como fuere, la fiebre por la biología del crimen se ha mantenido viva hasta el presente, especialmente en los Estados Unidos, donde se fundó nada menos que una Escuela Americana de Biotipología de la que han formado parte autores tan destacados en la materia que nos ocupa como el especialista en embriología William Herbert Sheldon (1898-1977), principal continuador del trabajo de Hooton. En efecto, en opinión de Sheldon, autor de Variedades de delincuencia en los jóvenes (1949), la conducta criminal se desarrolla a partir de las particularidades del blastodermo[4] durante el periodo embrionario del individuo. Una teoría que Sheldon vino a perfeccionar, sin duda, pero que ya había sido al menos sugerida en su día –con cierta trampa, por cierto- por el célebre fisiólogo alemán Ernst Haeckel (1834-1919). El blastodermo cuenta con tres capas concéntricas de blastómeros a las que se denomina sucesivamente endodermo (desde el que se origina el aparato digestivo), mesodermo (desde el que se desarrollan huesos, músculos y tendones) y ectodermo (desde el que parte el desarrollo del tejido nervioso y la piel). Así, Sheldon establece que desde el predominio en el desarrollo fetal de cada una de estas capas de blastómeros parten tres tipologías somáticas del individuo: la ectomórfica, la mesomórfica y la endomórfica.

Biotipología de Sheldon[5]

Tipología Física

Tipología Mental

Endomorfo

(Se corresponde con el pícnico de Kretschmer)

Viscerotónico

(Grueso, amante de la comida, relajado, pesado, de caminar lento y reflejos atrofiados. No demasiado inteligente, pero sociable y de buen humor)

Mesomorfo

(Es el atlético definido por Kretschmer)

Somatotónico

(Alegre, dinámico, aventurero y ambicioso. Muy dotado para la interacción social, enérgico y competente, pero de inteligencia media-baja)

Ectomorfo

(Gran desarrollo de las estructuras nervo-cerebrales).

Cerebrotónico

(meticuloso, cerebral, de pensamiento ágil y dinámico. Tiende a mostrarse muy severo y poco tolerante, sensible y amante de la intimidad).

William Herbert Sheldon
William Herbert Sheldon.

Sheldon apoyó su teoría en abundante investigación fotográfica, profusas mediciones antropométricas y análisis factoriales de tales medidas, lo cual le permitió llegar a establecer tres correlaciones –siempre estadísticas- más o menos constantes entre la complexión corporal del individuo y la psicopatología:

  • Constitución endomórfica predominante y psicosis maníaco-depresiva.
  • Constitución mesomórfica predominante y delincuencia en general.
  • Constitución ectomórfica predominante y esquizofrenia.

El neolombrosianismo siguió adelante durante la década de 1950 con aportaciones de relevancia, como las realizadas por el matrimonio compuesto por los criminólogos Sheldon y Eleanor Glueck[6], pero pronto se le fue acabando la cuerda en la medida que muy a pesar de su esforzado aparataje estadístico, siempre quedaban dudas en cuanto a la causaciones últimas y, por otro lado, lo que funcionaba para el colectivo, parecía mostrar escasa aplicabilidad en el ámbito individual. No es lo mismo decir, como hicieron los Glueck por ejemplo, que entre los delincuentes siempre había un mayor número de mesomorfos, que determinar que alguien podía ser delincuente por el simple hecho de tener un biotipo mesomórfico… ¿Qué hacer entonces con los millones de mesomorfos que no habían cometido delito alguno? ¿Habría que encerrarles como política preventiva? ¿Deberíamos sin más dejar de fiarnos de ellos o alejarlos de la vida pública? O, peor todavía, imaginemos que tenemos dos sospechosos de un delito que responden a biotipos diferentes, siendo las pruebas inculpatorias muy similares en ambos casos… ¿Hemos de sospechar principalmente del mesomorfo por la peregrina razón de que no es endomorfo?

Embriología comparada
Embriología comparada.

Como vemos estas sugestivas –e imaginativas- teorías se topaban en la práctica con dificultades insalvables al ser notoriamente erróneas en su planteamiento pues, como manifiesta Gregory, “1) la complexión puede influir en la conducta, sea de modo directo, o indirectamente al modificar las experiencias a las que está sometido un individuo; 2) la conducta puede influir en la constitución de modo directo, o de modo indirecto por modificación de algunos factores que actúan directamente en la constitución; o 3) la constitución corporal y la conducta pueden ser influidas de modo independiente por otro factor determinante; v. gr.: la ‘dote’ genética o las experiencias en relación con la pertenencia a una familia o grupo socioeconómico”[7]. O lo que es igual: resulta imposible determinar cuánto de lo que una persona “es” deriva de su constitución orgánica, de su genética, de su conducta o del ambiente… O, dicho de otro modo, no es posible determinar con perfecta exactitud cuánto de lo que una persona es en un momento dado se debe a factores filogenéticos y cuánto es producto de factores ontogenéticos –nature or nurture-.

El fracaso a la hora de establecer una biología del crimen ha inducido a los partidarios de los diferentes enfoques positivistas y fisiologicistas a adoptar nuevos puntos de vista, no menos estrechos que los descritos y tampoco excesivamente diferentes en el fondo, pero sí más difíciles de combatir al venir pertrechados de una verborrea “cientificista” –que no “científica”- y un ropaje tecnológico –no siempre claro ni coherente- de compleja factura, pero igualmente inútil a la hora de establecer evidencias y correlaciones claras.

Pero eso, no obstante, lo discutiremos otro día. Ahora lo que debes hacer es ir corriendo a un espejo, no vaya a ser que tengas algún parecido sospechoso y estés -mucho ojo- al borde del delito.


[1] Goring, Ch. (1913). The English Convict: A Statistical Study. His Majesty’s Stationery Office, London.

[2] Se ha tomado como referencia la 4ª edición española de 1967: Constitución y carácter: Investigaciones acerca del problema de la constitución y de la doctrina de los temperamentos. Barcelona, Labor.

[3] Hooton, E. (1939). The American Criminal: An Anthropological Study. Cambridge (MA), Harvard University Press.

[4] El blastodermo es el acumulamiento celular del embrión cuando se encuentra en estado de blástula. Está conformado por una o varias capas de blastómeros, o células resultantes de la división celular del huevo tras la fecundación, dispuestos periféricamente en torno a una cavidad a la que se denomina blastocele. La blástula es la fase embrionaria precoz que sigue inmediatamente a la segmentación del óvulo (o conformación de la mórula).

[5] Realizado a partir de Sheldon, W.H. (1954). Atlas of Men. New York, Harper & Row Publishers, Inc.

[6] Glueck, S. y Glueck, E. (1956).  Physique and Delinquency. New York, Harper & Bros.

[7] Gregory, I. (1970). Psiquiatría clínica. México D.F., Editorial Interamericana S.A. (2ª ed.), p. 114.

Delicias orientales

caballeros-del-zodiaco
“Saint Seiya” (Masami Kurumada, 1986), producto cuya versión anime se conoció durante su primera exhibición en la televisión española como “Caballeros del Zodiaco”… Uno de los animes más molones de mis años adolescentes. Todavía guardo las figuritas.

No podría entenderse la imagen estética que han ido adquiriendo las diversas manifestaciones del crimen, el sexo y la violencia en la cultura popular del presente sin prestar atención a la creciente influencia que dos productos netamente japoneses, el manga y el anime, han adquirido en el mercado del entretenimiento occidental.

Tras desembarcar por estos pagos a mediados de la década de 1970, frente a la confusa opinión de supuestos especialistas que quisieron verlos como lluvia primaveral, han echado raíces y crecido al punto de que, en gran medida, puede hablarse ya de una invasión en toda regla. Y no es una cuestión baladí la de lo que representa este proceso de colonización cultural inversa si se tiene presente que ha sido Occidente quien, por tradición, ha impuesto su maquinaria cultural al resto del mundo. Tal vez los teóricos de la globalización debieran retornar a los clásicos de la antropología para comenzar a pensar en este proceso no como algo unidireccional, sino como un procedimiento de intercambios y préstamos que modifica el aspecto final que ofrecen las culturas en contacto y sus productos. Sabido es, por ejemplo, que en el espectador hindú prefiere la versión Bollywood de cualquier producción cinematográfica occidental antes que el original, que suele fracasar en taquilla.

En efecto, el manga es un perfecto ejemplo de cómo la influencia occidental es recodificada en términos propios y devuelta a Occidente con otro aspecto y desde otras variables más sugestivas, mediáticas y víricas. De hecho, nuestro formato de historieta penetra en un Japón en el que se desconocía esta expresión artística a finales del siglo XIX, coincidiendo con ese proceso de modernización radical que supuso la llamada Revolución Meijí e hizo que, de súbito, todo lo occidental se pusiera “de moda”. Los creadores se encuentran con el formato del arte gráfico japonés tradicional y se produce un fusión de ambos elementos que, pronto, eclosionan en un nuevo estilo dentro del cual aparecen, en torno a la década de 1880, los primeros historietistas japoneses –llamados “mangaka”-, como los clásicos Okomoto o Kayashi. No obstante, sólo tras la Segunda Guerra Mundial el manga comenzará a desarrollar un lenguaje propio y alejado del modelo del cómic norteamericano que le sirvió de referencia hasta 1930, comenzando por la adopción del “bocadillo” como forma de expresión lingüística de los personajes.

osamu-tezuka
Osamu Tezuka. Por favor, quítense el sombrero.

Siempre tras una guerra

Indudablemente, y así lo muestra la historia de la humanidad, las guerras -y de forma muy especial las más duras y tremendas- son siempre para bien o para mal un elemento transformador sociocultural y psicológico de primer orden que, por lo común, genera un  claro efecto de antes y después.

Ocurre que el Japón ha perdido ha salido derrotado de la Segunda Guerra Mundial de forma cruel, estrepitosa y humillante para sumirse en una posguerra tremebunda, repleta de penurias y privaciones que sólo pueden tolerarse a través de la emergente industria del entretenimiento. Un entretenimiento, por cierto, tutelado por una autoridad invasora que ejerce un feroz control sobre los medios de comunicación y, por tanto, sobre los discursos públicos. Y que además tiene la exigencia de ser barato pues Japón, muy afectado por el hastío bélico, no anda para dispendios. Consecuentemente, el japonés medio descubre que la lectura es una vía barata, a menudo poco controlada por unos censores que suelen tener problemas con el idioma y el control de unos códigos culturales que desconocen, por lo que se produce un auge de las bibliotecas. Será en este mundillo del préstamo interbibliotecario que se desarrolle mayoritariamente el mercado del manga. En formato libro, a menudo editados a bajo coste por las propias bibliotecas que no dudan en competir con las editoras convencionales, se convierten en uno de los productos más demandados por la sociedad japonesa. Y es en medio de esta nueva industria creciente surge la figura de un creador que revolucionará el género: Osamu Tezuka (1928-1989).

Médico de formación, buen dibujante desde la infancia y aficionado a las películas de dibujos animados de Walt Disney que empiezan a exhibirse en el país del sol naciente, Tezuka transformó el mundo del manga con su primera publicación, La nueva isla del tesoro (1947), al introducir en el desarrollo de la historieta convencional nipona el modelo cinematográfico-secuencial del cómic occidental y conseguir, con ello, vender unos 800.000 ejemplares de la obra en tiempo récord. Su segunda gran creación, si bien a lo largo de su trayectoria tocará toda clase de formatos y géneros, será el mítico personaje de Astroboy (también de 1947), que en la actualidad es un verdadero icono de la cultura popular japonesa. Muchos imitadores, pues, le saldrán a Tezuka, especialmente a causa del hecho de que el país comienza a adoptar los estándares productivos norteamericanos. Con ello, el manga tal y como hoy lo conocemos se consolidará definitivamente en 1959 cuando comiencen a aparecer los primeros dedicados exclusivamente a adultos, los llamados “gegika”, en los que desaparece por completo la inspiración Disney y se abren paso toda clase de temáticas e historias violentas, sexuales, escatologicas e incluso dramáticas. De este modo, llegado 1960, el gran público pide obras manga masivamente y los editores trabajan prácticamente a destajo y otorgando a sus creadores una libertad de acción muy amplia.

Y sin embargo, se mueve

Como es lógico, el manga tuvo su reflejo natural en el anime, erróneamente confundido con el dibujo animado occidental por el gran público, pues la técnica que se empleaba en su producción era originariamente muy distinta. Piensese que los estudios de animación nipones eran pequeños, contaban con muy pocos empleados, y ello hacía imposible desarrollar producciones de animación complejas al estilo de Occidente. De tal modo, se genera una técnica -la del anime- que es barata al ser un sistema de montaje imaginativo de imágenes fijas, lo cual permite reciclar y aprovechar los mismos fondos y dibujos una y otra vez. En ella todo dependía más de la habilidad en el manejo de la cámara, el ritmo de montaje y los tiempos de exposición, que en el rigor cinematográfico convencional.

De hecho, el anime desembarcaría en Occidente antes que el manga propiamente dicho, vía televisión, cuando muchas emisoras europeas y estadounidenses comienzan a comprar y emitir retazos de teleseries japonesas -bloques de capítulos pues las producciones originales eran larguísimas y contaban con cientos de entregas- mediada la década de 1970. Era un paso lógico: el anime gozaba de una calidad razonable, solía resultar muy entretenido y llamativo, y además los derechos de emisión eran mucho más baratos que los de las series animadas de producción occidental. Así fue que llegaron a nuestras pantallas Mazinger Z (Go Nagai), Astroboy (Osamu Tezuka) o Heidi y Marco (ambas de Hayao Miyazaki), y el público occidental asumió aquellas producciones que se emitían siempre en horario infantil primero con extrañeza, luego con fidelidad y, por fin, muy a menudo, con pasión y fervor, generando un verdadero movimiento fan emergente. Sobre todo tras el éxito explosivo que siguió a la exhibición de la muy seria y adulta película Akira (1988), basada en el manga homónimo de Katsuhiro Otomo.

mazinger-z
Cuando, allá por marzo de 1978, este robot gigante se presentó en las pantallas en blanco y negro de nuestros televisores, nos cambió la vida.

El mercado, es cierto, ya está maduro cuando todo esto sucede. La invasión del cine japonés a partir de la década de 1960, con las aclamadas –y muy premiadas- producciones protagonizadas por sus sempiternos samurais de Akira Kurosawa al frente, había llenado las pantallas de Occidente con montones de curiosas y llamativas películas en las que Godzilla reducía Tokio a escombros antes de liarse a bofetadas con King Kong; en las que los simios gigantes producidos por la radiación de las bombas aliadas mantenían terribles y sangrientas peleas; en las que terremotos catastróficos asolaban el territorio japonés; o en las que tremebundos monstruos espaciales invadían la tierra. Pero no sólo: los reyes de las artes marciales de China, Corea del Sur, Taiwan y, sobre todo, Honk Kong, con Bruce Lee a la cabeza, ya nos habían convencido sin remedio de que una buena pelea colectiva era la mejor forma de dirimir las diferencias -por absurdas que fueran- y de que, en realidad, combatir el crimen pasaba siempre por decapitar al criminal con una katana bien afilada o partirle las piernas con un palo.

Y la ridícula bronca de siempre

Como es lógico, la controversia acerca de la violencia y la propiedad de sus contenidos persiguió al anime –luego al manga- prácticamente desde comenzara a exhibirse fuera de Japón. La vieja historia que no cesa en la medida que nadie suele leer a los que saben y, además, tenemos la odiosa costumbre de olvidar el pasado. Tal vez nos gusta repetirnos.

Para los más críticos manga y anime siempre han sido medios demasiado expuestos al sexo, al crimen y a la violencia que no se corresponden -a veces ni de lejos- con los estándares ético-morales occidentales. No obstante, esto es poco más que incidir en lo obvio. En efecto, el manga y el anime son productos generados a partir de otras variables socioculturales, lo cual provoca que a menudo no se produzca una correspondencia entre los géneros y los contenidos que se consideran más o menos aptos para niños y adolescentes en un lugar u otro. Esto ha motivado que, muy a menudo, los mangas y animes que se editan o exhiben fuera del Japón sean escrupulosamente visionados, revisados, editados y censurados antes de su puesta en el mercado (¿lo ignoraban ustedes?). Tampoco es raro que se reconstruyan las referencias culturales de los contenidos “occidentalizando” el doblaje y/o las traducciones, lo cual muy a menudo desvirtúa o destruye las intenciones originales de los creadores y motiva que muchas de las ideas expuestas por ellos se nos presenten descontextualizadas, extravagantes y carentes de sentido.

shin-chan
¿Está claro, tarugos, que yo no fui concebido como producto para niños pequeños?

Téngase en cuenta que para Occidente, como ya vimos, el cómic y la animación fueron considerados durante muchas décadas formas de transmisión netamente infantiles lo cual, en relación al manga y el anime, ha dado lugar a grotescos malentendidos, como el de exhibir productos que originariamente, en el Japón, se pensaron en exclusiva para  el público adulto, en horario infantil. Un caso manifiesto de esta confusión es el famoso Shin-Chan (obra del malogrado Yoshito Usui), pues se trata de un trabajo que su creador concibió para un público adolescente -mayor de trece años- y que en España, por ejemplo, se exhibe a menudo en horario infantil tal vez porque el protagonista tiene solo cinco años. En todo caso, para los padres agobiados por los tacos y procacidades del disoluto Shinosuke Noara siempre ha sido más fácil condenar la serie, que pedir el despido del incapacitado que la programa en una hora inapropiada. Lo de siempre.

Sea como fuere, el manga y el anime han despertado en el público de Occidente -especialmente entre las nuevas generaciones- una especie de pasión por lo oriental que nos ha hecho especialmente receptivos a muchas de las manifestaciones artísticas procedentes del sudeste asiático e incluso hacia su modo de vida, al punto de que esta estética, que se introdujo de manera lenta pero paulatina en nuestro entorno cultural, ha venido para quedarse en la medida que ha ido permeabilizando todas y cada una de nuestras manifestaciones socioculturales a extremos que a menudo nos resulta difícil imaginar. Basta, de hecho, con salir a la calle para encontrar a muchos jóvenes peinados con una estética que es difícil no identificar con personajes de manga, anime e incluso videojuegos japoneses. Más aún, muchas de las cosas que ocurren hoy en día en nuestras películas, teleseries, novelas, video-clips o tebeos –la multimillonaria saga Matrix dirigida por los hermanos Wachowsky es el ejemplo superlativo- serían incomprensibles sin la referencia a su inspiración oriental.

Admitamos que, sumidos en nuestro proverbial y soberbio etnocentrismo occidental, la mayor parte de nosotros nunca oímos hablar de cosas hoy tan comunes como la Yakuza, las Triadas o los Ninjas hasta aquel día, ya lejano, en que se nos ocurrió ir al cine.

Cultura

¿Qué es cultura? ¿Dónde está la cultura? No son preguntas retóricas ni pretendo con ellas poner trampa alguna. Se trata de interrogantes sinceros. ¿Es cultura la llamada “cultura de masas”? ¿Tal vez lo que una élite considera “culto”? ¿Algo es cultural porque lo paga el Ministerio de Cultura, o un ayuntamiento, o una fundación? Y las cuestiones que podemos plantearnos llegan más lejos y pueden adquirir mayor calado si nos lo proponemos. A ver: si cuatro señores a los que se tiene por doctos sin ulterior demostración deciden que esta cosa o aquella otra son “patrimonios culturales”, ¿resulta entonces que ya forman parte de la cultura en cuanto tal? Vaya lío que tengo.

¿Es cultura –pregunto porque no lo sé- una revisión del Don Juan Tenorio representada por un grupo de actores en tanga?

¿El Jazz? ¿Un concierto de la banda de mi pueblo?

¿Y una película de Torrente?

¿Eso que llaman “cultura española” consiste en comer paella y disfrutar escuchando copla?

¿Es más culto lo que te recomienda el crítico de la revista de moda porque se llama como se llame que lo te recomienda un amigo? ¿Es que al final la cultura verdadera se rige por el principio de autoridad?

dny_spanelske_kultury_2012
Así anunciaba el “día de la cultura española” la emisora checa Radio Praga en 2012… Definitivamente, algo no marcha bien.

A lo mejor la cultura es como lo de la “marca España” (paella + sol + playa + cachondeo + excursiones a la Ciudad Encantada). Vendámoslo todo junto, en plan 2 por 1, como si se tratara de un bote de mayonesa. De hecho, fijaos, ahora los medios ya no hablan simplemente de la cultura sino de la “oferta cultural” como si al final todo quedara reducido a las rebajas de unos grandes almacenes (igual es eso).

En un afán por democratizar y hacernos accesibles hasta extremos rayanos en la más completa estulticia masificadora todos y cada uno de los elementos que se quieren considerar “culturales” por las razones más variopintas, estamos provocando un completo desmadre. La cultura es ya un jaleo, un pretexto, una coartada, un cliché de moda más.

El resultado es que todo el mundo se siente obligado por motivos ignotos a culturizarse a todo trance y con respecto a cualquier cosa. Le importe o no. Los museos acumulan colas de domingueros que dan dos vueltas a la manzana siempre y cuando se cumpla con el requisito de haber anunciado lo que se expone a bombo y platillo… Porque entonces –y solo entonces- es que toda esa gente se acuerda de que el museo de marras existe. Y va. Y lo ve sin enterarse de nada. Y a lo mejor no vuelve más. Lo peor de todo es que el mercadillo cultural es tan extenso, rocambolesco, enrevesado y jaleoso, que ya no sabemos cómo separar el polvo de la paja. Igual crees que te culturizas cuando en realidad estás perdiendo el tiempo miserablemente. O te están tomando el pelo de la manera más triste.

cerebro-en-fuga
“Parad que me apeo”.

Nos han llenado la cultura de trampas. De artificios y artefactos que no se comprenden pero se admiran por prescripción facultativa, sin rechistar, no vayan a llamarte cateto por llevar la contraria. Te dicen, por ejemplo, que leer es cultura, pero no te dan un folleto de instrucciones que te ayude a separar los libros buenos de los malos… Como resultado, tenemos a millones de personas perdiendo el tiempo con el bodrio de moda cuando podrían estar empleándolo mejor en cualquier otra lectura digna. Creen que leen, pero la verdad es que simplemente se entretienen. Matan el tiempo sin provecho alguno.

Hace años, cuando era más joven y el optimismo me embargaba, pensaba honestamente que esto de leer lo que fuera no era mala cosa, que tarde o temprano el lector de libros de usar y tirar terminaría por irse navegar en mares más productivos, pero he descubierto que estaba equivocado: lo que ocurre es que simplemente se traslada hacia otro libro similar, deambula en busca de más entretenimiento, encuentra dónde engancharse, y establece de esta manera un círculo vicioso del que ya nunca sale. Ni quiere. No quiero significar con todo esto que leer cualquier cosa “de moda” sea algo intrínsecamente malo, que no lo es. Lo perverso, lo engañoso, lo irremediablemente nefasto, es no pasar de ahí. Pensar que ese es el límite y que ya se ha encontrado una impepinable llave de acceso a la cultura.

En efecto. Los metapoderes económicos que pululan en las sombras de la sociedad de consumo han terminado por transformar la cultura en una película de Indiana Jones. Ya no tenemos ni idea de cuándo nos cubriremos de bichos, se nos hundirá el suelo bajo los pies, o seremos hechizados por el malicioso chamán de una tribu amazónica. Se nos pone la zanahoria de la cultura frente a las narices para endiñarnos, a hurtadillas, cualquier cosa que el experto en mercadotecnia de turno sepa colocarnos. Se nos exige que seamos críticos, que nos formemos e informemos, que investiguemos, que nos esforcemos por comprender, y al mismo tiempo, de tapadillo, nos empancinan con un suculento menú de prensa amarilla a la salsa rosa con guarnición de fútbol. Y de postre, media hora de parte meteorológico. Dicen que algo de todo eso es cultura, información útil y valiosa, que tienes la obligación moral de embadurnarte con ella, pero en realidad sólo quieren tenernos entretenidos. Pretenden que nos mantengamos en el papel de espectadores… “Culturízate y no participes que esto no va contigo”. Más o menos como lo de la política.

forges
Preclaro Forges.

Acepta que la noticia pretendidamente científica que se te cuenta de pena, y que además suele versar sobre temas sobre los que lleva años publicándose, encierra alguna clase de saber mitológico que va a convertir tu vida en algo mucho mejor y menos triste de lo que es en realidad.

Métete en la red social que te soporte, vomita tus porquerías y largo. ¿Te has quedado a gusto? Pues mañana más.

Nos han malversado la cultura. Ahora un disco es bueno si es el más vendido, una película es importante si obtiene el récord de taquilla, un libro es decente si colma las expectativas de ventas, una obra de teatro es interesante si llena todas las funciones durante tres meses seguidos. Las series de televisión son fantásticas si superan los índices de audiencia preestablecidos por la cadena que las emite… La cultura se ha fusionado con las matemáticas dando lugar a una falacia como no recuerdan los tiempos. No puede extrañarnos, por consiguiente, que las prioridades de la cultura se hayan alterado por completo y que las conversaciones y tertulias que se escuchan sobre temas “cultos” no aborden ya en profundidad contenidos en sí mismos, sino que se muevan en lo meramente superficial y accesorio. No importa.

Tu consume lo tuyo. Habiendo cumplido con tu cuota del “mercado cultural” y, ante todo, habiéndonos demostrado a todos los demás que lo has hecho, ya estás en la cultura, en lo que se lleva. No necesitamos saber cómo es aquello de lo que nos hablas, pues nos basta con saber que has tenido acceso. Lo demás se da por supuesto. Bienvenido a la cultura.

¿Y el resto? ¿Qué pasa con aquello de lo que no se habla? ¿Qué ocurre con lo que nadie recomienda? Bueno, todo eso simplemente no existe. Lo triste es que el verdadero conocimiento no necesita esconderse de manera activa a tus ojos porque basta con mantenerlo precisamente ahí, en el ángulo muerto. A nadie extraña, por tanto, que en estos tiempos que corren nos haya entrado de golpe y porrazo tanto interés por las teorías de la conspiración. Claro. En el fondo sabemos que algo no funciona bien y que hay gato encerrado.

Pero debes sabe que el conocimiento positivo y eficaz es accesible, no nos lo han ocultado ni nos lo han hurtado en mitad de la noche. Antes bien, el problema es que ese conocimiento no se encuentra en el circuito habitual de la maldita fabrica de cultura “oficial”. Está aplastado por ella, vive en las catacumbas de su cadena de montaje esperando a ser desenterrado de entre la porquería con la que pasamos el rato. En la sociedad de la información no existe la censura –no lo creas- porque no hace ni repajolera falta. Basta, simplemente, con no publicitar lo que no queremos que se difunda. Para que esforzarse en esconder cuando te basta con confundir.

Sólo existen los medios. Las redes. Genialidades de 140 caracteres y miles de fotografías imbéciles que esperan un “me gusta”. El objetivo final del montaje es ser “trending topic”. Fin del debate.

¿Y la cultura dónde queda?

odio-twitter

Juega tranquilo, nene

Desde una desinformación manifiesta, se suele hablar de la violencia representada en las diferentes manifestaciones de la cultura popular, como el cine, los juegos de rol, el comic, o las series de televisión y su vinculación con la violencia real, los desajustes emocionales, las adicciones y demás horrores sin nombre como de un “hecho científicamente comprobado”. Un prejuicio que ya ni se discute cuando nos referimos a los videojuegos o las redes sociales en cualquiera de sus formas. No obstante, se olvida que el recurso argumental a supuestos “estudios científicos” –que en muchos casos luego nunca son tales- es otro cliché cultural que funciona más como fórmula retórica y demagógica que otra cosa. Es habitual que la inmensa mayoría los estudios científicos fidedignos –que solo leen a fondo los especialistas- estén repletos de letra pequeña, salvedades, resultados inconcluyentes, notas a pie de página, detalles significativos y afirmaciones matizadas que nunca se mencionan al gran público.

press-start

Se han realizado, por citar un ejemplo significativo, estudios sobre el posible efecto de los videojuegos violentos en las emociones de adolescentes problemáticos y no problemáticos, utilizando para ello registros de resonancia magnética funcional (IRM). Como era esperable, en todos ellos se observó que el registro emocional de los jugadores se veía afectado durante el juego, por lo que muchos medios de comunicación –entre los que se cuenta la “prestigiosa” revista TIME-, cogiendo el rábano por las hojas para vender tales experiencias como argumento definitivo para criminalizar el uso de los videojuegos. Pero lo que en realidad explican estas investigaciones es que los juegos violentos y los no violentos activan diferentes regiones del córtex cerebral. De tal modo, los grupos que jugaron duran a un videojuego “de tiros”, mostraron un incremento de actividad emocional a la par que una reducción en aquellas áreas relacionadas con la planificación, la concentración y el autocontrol. A la inversa, los sujetos que jugaron a un título “no violento”[1] mostraron menor impacto emocional y mayor actividad frontal. Resultados que cabe considerar lógicos y que, además, no tienen efectos demostrados a medio plazo[2]. Esto significa, literalmente, que los videojuegos violentos llevan al individuo a desplegar emociones temporales simuladas equivalentes a las que se producen cuando se visiona una película o se practica otro tipo de entretenimiento de similares características como, por ejemplo, un deporte de contacto. En suma: lo normal es asustarse cuando se visiona una película de terror, al igual que sonreír cuando se es testigo de un evento cómico.

El asunto de la representación –que no presentación- de la violencia y su influencia en las personas permanece en la controversia, por lo que la pregunta no pasa, como se cree con cierta simpleza, por determinar en qué medida los videojuegos violentos o las redes sociales inciden en la conducta o la personalidad, sino por concretar si tal conexión existe, si es duradera, cómo se produce, cómo funciona y, en última instancia, qué clase de efectos podría tener en los sujetos.

De hecho, parece sensato pensar que una cultura como la nuestra, que instiga al consumo de una abundante dosis de productos electrónicos como forma de entretenimiento, ha de generar consecuencias en la salud mental y moral de sus componentes. Parece coherente suponer, incluso, la idea de que la violencia representada en las manifestaciones de la cultura popular y la violencia real tendrían que conexionar de algún modo. En ello se basan, por ejemplo, teorías nunca corroboradas pero muy seguidas popularmente como aquellas que rezan que dar noticias de suicidios o sobre violencia de género inducirían al suicidio o al maltrato… hecho que las más sencillas estadísticas niegan y que, además, relacionan de manera clara con otras variables “sigilosas” pero claramente perniciosas de las que se habla poco porque interesa menos como, por ejemplo, la evolución del desempleo. De hecho, da igual informar que no: las estadísticas interanuales tienden a permanecer estables porque el tema va por otro sitio y lo que gobierna en las fluctuaciones observables no es precisamente el hecho coyuntural y aleatorio de que el vecino se quite la vida[3].

playstationwahn1
José Rabadán presentado en un medio sensacionalista alemán como sanguinario videoadicto.

Y por cierto, me permito ofrecer un consejo al respecto: el sentido común, en ciencia, suele ser el menos común de los sentidos… Aplicar esta sencilla máxima les librará de grandes ridículos como el de aquellos medios de comunicación que echaron la culpa de los crímenes de José Rabadán -el asesino de la katana– al videojuego Final Fantasy sin preguntar a nadie… El problema fue que el chico, cuando se le inquirió acerca de  esta eventualidad, manifestó a los psiquiatras que no había llegado ni a jugar la mitad del producto porque experimentaba problemas para concentrarse (además, la dichosa katana se la había regalado su padre). Eso sí: “se peinaba” como el protagonista del terrible videojuego. Viva el rigor.

Lo cierto es que la sociología y la antropología han establecido que este tipo de planteamientos son prejuiciosos -o meramente inventados- en la medida que las cosas nunca son tan obvias y que, en realidad, los hechos y símbolos culturales funcionan a muchos niveles, tanto latentes como manifiestos, de maneras que a menudo es imposible precisar a priori, como bien saben los expertos en psicología publicitaria. Así, lo que para una persona o colectivo es “violento”, para otro es “normal”, del mismo modo que aquello que moviliza a muchas personas parece no tener influencia alguna en otras. Así se explica que, entretanto hay amplios sectores de la sociedad ampliamente implicados en los debates políticos o en el discurrir de la liga de fútbol, no son menos importantes los colectivos que viven por complejo ajenos a lo que sucede entre los líderes políticos o que ignoran por completo el decurso de los avatares futbolísticos.

Datos inconcluyentes

Las investigaciones más recientes realizadas con niños y adolescentes en materia de exposición a videojuegos o redes sociales –en muchos casos un émulo bastante descarado de las que ya se hicieron en la década de 1970 con el cine y la televisión, o en la década de 1950 con los cómics, mostrando de novedoso únicamente la espectacularidad del aparataje, que no el paradigma de investigación- parecen confirmar que lo relevante, por encima de cualquier otra consideración, es el factor sujeto. Así las dificultades –violencia, alteraciones emocionales, desajustes conductuales- sólo parecen verse incrementadas en el caso de aquellas personas que ya tienen rasgos de personalidad complejos, así como toda otra suerte de variables concomitantes como problemas psicológicos, escasa resiliencia, familias desestructuradas, entornos violentos y poco protectores, entretanto no parecen causar efecto alguno en el resto de los individuos. Así, el problema no estaría en el medio o en el mensaje, sino en la lectura particular que los individuos hacen del mismo no existiendo, por tanto, relación alguna de causa-efecto entre jugar a un videojuego violento y el supuesto deseo irrefrenable de empuñar un arma de fuego para asesinar a alguien… Quizá sea más necesario mejorar las condiciones de vida, materiales y psicológicas, de muchos jóvenes antes que preocuparse de qué es lo que ven en la televisión. Claro, que esto es mucho más caro y bastante menos ramplón[4].

Del mismo modo, la persona que es adicta a las redes sociales o al teléfono móvil reúne una serie de variables particulares que perfectamente, en otras circunstancias diferentes, podrían hacerla adicta a cualquier otra cosa, como el juego, el alcohol o las sectas. Es decir: no es el objeto el que hace al adicto, sino el adicto quien lo escoge, del mismo modo que no es una actividad en concreto la que hace a una persona violenta, sino que es la persona violenta la que escoge realizar esa actividad antes que otra. En suma: la gente –no las cosas- es responsable de lo que hace.

level-up

Muchos han sido los países en todo el mundo que han financiado grupos de investigación a fin de determinar en qué medida son peligrosos los videojuegos, los juegos de rol o las redes sociales y, de serlo, cómo habrían de ser legislados tanto sus contenidos como su distribución y acceso. Tantos que, de hecho, realizar un listado exhaustivo de estas investigaciones resultaría complejo amen de innecesario. Citaremos, sin embargo, un par de ejemplos preclaros que deberían servir al lector para poner en tela de juicio, o al menos en cuarentena, muchas de las informaciones gratuitas y alarmistas que circulan por los medios de comunicación.

El Estado de Washington (EE. UU.) se planteó seriamente, a causa de la fuerte presión sociopolítica en torno a estos temas, la posibilidad de desarrollar una legislación para regular los videojuegos y limitar el acceso a redes sociales. Puestos en marcha los mecanismos adecuados de análisis por parte del Departamento de Salud Pública, financiadas las pertinentes investigaciones realizadas por equipos de prestigio y especialistas de incuestionable calidad profesional, revisada pertinentemente toda la literatura en la materia… se concluyó que no existía evidencia suficiente que justificara una ley semejante[5].

Una iniciativa similar a la anterior la adoptó el gobierno danés. En este caso fue un prestigioso equipo de especialistas –psicólogos, psiquiatras, sociólogos y criminólogos- designado por el ministerio de cultura de Dinamarca el que analizó pormenorizadamente toda la literatura científica publicada durante décadas en torno a la materia. Y se concluyó que los estudios que señalaban a los videojuegos o el uso de internet como causantes de violencia, adicciones, desarreglos conductuales o trastornos mentales tenían graves problemas metodológicos, habían sido adecuadamente contestados por otras investigaciones y, en general, fueron objeto de críticas fundadas y coherentes por parte de profesionales reputados. Así por ejemplo, se determinó que este tipo de estudios a menudo incurrían en una ignorancia intencionada de elementos necesariamente relevantes, como el nivel socioeconómico y cultural de los usuarios, los problemas familiares de los participantes, la falta de estudio de los historiales médicos previos de los sujetos, la ignorancia de los antecedentes, e incluso caían en imprecisiones conceptuales interesadas. Y ello por no mencionar un detalle significativo: la mayor parte de esos estudios “incriminatorios” eran de carácter longitudinal, lo cual motivaba que las condiciones de control de los sujetos estudiados fueran, en general, bastante deficientes. Al fin y al cabo es virtualmente imposible controlar con eficacia la vida de una persona a lo largo de los años a menos que se encuentre recluida y aislada[6].

Conviene tener esta información presente antes de lanzarse a campañas y críticas furibundas que, en el mejor de los casos, son poco más que generalizaciones basadas en evidencias inexistentes –o en datos extraídos de un solo caso- y que, por lo demás, buscan oponerse a algo tan imparable como el progreso. Un dato que a más de uno le dará que pensar: las estadísticas del Departamento de Justicia de los Estados Unidos muestran con perfecto rigor que los meses con menor cantidad de denuncias por violencia juvenil a lo largo de los últimos treinta años en los Estados Unidos han coincidido, irónicamente, con aquellos en los que se ha producido la aparición en el mercado de los diferentes modelos de videoconsola de los diversos fabricantes. El gobierno canadiense, por cierto, encontró exactamente lo mismo.

De hecho, y pese al alarmismo de la década de 1980, la violencia juvenil en los Estados Unidos no ha hecho más que descender y los motivos de este abrupto cambio que los partidarios de los escenarios más apocalípticos no supieron intuir, no tienen nada que ver con el uso o no de videojuegos[7].

Y la APA, a lo suyo

La American Psychological Association (APA), cuenta con una complicada historia de amor-odio hacia los productos electrónicos que se remonta al año 2000, momento en el que publicó en una de sus revistas especializadas uno de los estudios más citados sobre la materia y que, por ello, más popularizó entre especialistas y legos la creencia en que los videojuegos, las redes sociales o los teléfonos móviles eran causantes de toda suerte de dificultades en niños y adultos. El problema residía entonces en la falta endémica de investigación en la materia, lo cual impedía contrastar adecuadamente los resultados de este trabajo, así como en su oportunidad sociopolítica, pues apareció en un momento en el que existía un fuerte interés en el asunto. Fue por ello que la APA, apresuradamente, secundó el contenido de esta propuesta –realizado por Craig Anderson, un reputado especialista doctorado en Stanford que por aquellos días, además, presidía uno de los comités de la organización- publicitándola por extenso en su página web y sembrando, con ello, un desconcierto generalizado[8].

Hay que entender, si queremos comprender la confusión general, que estamos en el ámbito de las palabras mayores en la medida que la APA no sólo es la mayor organización de profesionales de psicología de los Estados Unidos, sino también uno de los principales –si no el principal con permiso de la OMS- organismo de referencia en la materia a nivel mundial. El problema fue que el artículo de Anderson, que ha publicado otros en la misma línea, e incluso alguno explicando concienzudamente cómo las letras de determinadas canciones de hard-rock incitan a la violencia a quien las escucha, lo cual ya nos ofrece una medida ajustada del talante del personaje, no solo ha sido ampliamente malinterpretado, sino también muy discutido científicamente en la medida que deudor de una ingente gama de fallas metodológicas y confusiones teóricas de largo alcance[9]. Y ello por no mencionar un hecho de calado que cuestiona de suerte notable el rigor científico de esta clase de trabajos: ignoran, obvian y ni tan siquiera se molestan en discutir de manera sistemática todos aquellos datos, que los hay, que contrarían las conclusiones a las que pretenden llegar. Al enemigo, ni agua.

sangre-xbox

Sería arduo, por lo demás, entretenernos en discutir muchas de las afirmaciones de grueso calibre y atrevimiento ajeno a cualquier clase de seriedad que se realizan sobre los videojuegos, las redes sociales o el uso de dispositivos móviles con extrema alegría e irresponsabilidad. Afirmaciones que, a la hora de la verdad, solo contribuyen a un innecesario aumento de la alarma social, que no al aliento de un adecuado y responsable control paterno, como sería deseable. De hecho, existe una pléyade de especialistas que han puesto de manifiesto todas las deficiencias metodológicas, sesgos e interpretaciones torticeras de los resultados, que no son pocos, bastante habituales en este ámbito[10]. De hecho, la propia APA, apabullada ante la ola de críticas que ha venido recibiendo a cuenta de este tema, se ha visto obligada a reconocer públicamente en más de una ocasión que en ningún caso haya afirmado que existe evidencia alguna que permita establecer causaciones entre el uso de productos electrónicos y los desarreglos psíquicos o sociales, más allá de casos particulares en los que el elemento relevante no es el producto, sino el usuario del mismo. De hecho, en sus proclamas la palabra “causación” ha sido reemplazada por otras menos comprometidas como “correlación” o “vinculación”, lo cual es una manera especialmente significativa de desdecirse sin dar un paso atrás. Así, con la boca pequeña y dentro de la política templada que caracteriza a esta clase de organizaciones institucionales en las que hay muchas sensibilidades políticas encontradas que satisfacer, emitió en 2015 un documento en el que pese a las evidencias contradictorias se empeña en sostener oficialmente “probadas vinculaciones entre el uso de videojuegos violentos y la violencia infantil y juvenil”[11], a la par que ofrecía sus servicios a padres, profesores, centros educativos… Vamos, a todo el que esté dispuesto a pagar.

Por cierto, y ya que estamos, ¿saben quién criminalizó los cómics en la década de 1950 al punto de que no solo logro poner en marcha una de las campañas de censura institucional más grotescas de la historia, sino también una ola de alarmismo social y político sin precedentes…? ¿Y en qué clase de argumentos espurios y vergonzantes se apoyo para armar semejante lío…? La respuesta aquí: [12].


[1] Hay que diferenciar entre los conceptos de “agresividad y de “violencia” pues a menudo se emplean como sinónimos, pero no lo son. El concepto genérico de agresividad no habla de un acto, sino de una cualidad, es decir, de una tendencia o disposición hacia la comisión de cierto tipo de actos a los que llamaríamos “agresivos” en función de un contexto más o menos adaptativo. Así, la agresividad puede manifestarse como una capacidad relacionada con la creatividad, la audacia y la solución decidida de conflictos. Contemplada de éste modo es una cualidad potencial que se pone al servicio de lo biológico. Con la evolución del lenguaje se ha establecido una vinculación popular, si bien confusa, entre agresividad y violencia. Así, frente a la agresividad, que podríamos considerar benigna en la misma medida que adaptativa, existe una forma perversa o maligna, específica de nuestra especie, a la que denominamos violencia. Queda claro, por tanto, que no se puede equiparar todo acto agresivo con la violencia en la medida que ésta queda limitada a aquellas agresiones que se distinguen por su malignidad para con la integridad física, psíquica o moral de terceros. Esto es importante porque generalmente los códigos penales sancionan duramente las conductas violentas, en tanto que dolosas, pero no necesariamente las agresivas, a que a menudo ni tan siquiera están tipificadas en ellos.

[2] http://www.pnbhs.school.nz/wp-content/uploads/2015/11/Violent-Video-Games-Alter-Brain-Function-in-Young-Men.pdf

[3] http://www.uv.es/gicf/4A3_Ramos_GICF_13.pdf

[4] Véanse las clarificadoras explicaciones que ofrecen a este respecto Levitt y Dubner: Freakonomics. A Rogué Economist Explores de Hidden Side of Everything. New York (NY): Harper Collins, 2009.

[5] Ferguson, C.J. (2013). Violent video games and the Supreme Court: lessons for the scientific community in the wake of Brown v. Entertainment Merchants Association. Am Psychol. 2013 Feb-Mar;68(2):57-74. doi: 10.1037/a0030597.

[6] Bogost, I. (2007). Persuasive Games: The Expressive Power of Videogames. Cambridge (MA): MIT Press.

[7] Levitt y Dubner; Op. Cit. supra nota 4.

[8] http://www.apa.org/news/press/releases/2000/04/video-games.aspx

[9] https://www.researchgate.net/publication/299478142_Violencia_Psicologia_y_videojuegos_Historia_de_una_relacion_controvertida

[10]http://www.cienciaxplora.com/divulgacion/violencia-videojuegos-provoca-comportamientos-violentos_2015020400068.html

[11] American Psychological Association. (2015). Resolution on Violent Video Games. Retrieved from: http://www.apa.org/about/policy/violent-video-games.aspx. Sorprende esta declaración, por cierto, en una entidad que publica, al mismo tiempo artículos como el siguiente: “The Benefits of Playing Video Games,” Isabela Granic, PhD, Adam Lobel, PhD, and Rutger C.M.E. Engels, PhD, Radboud University Nijmegen; Nijmegen, The Netherlands; American Psychologist, Vol. 69, No. 1. 

[12] https://www.researchgate.net/publication/299478539_Psiquiatria_y_censura_en_el_comic_estadounidense_Fredric_Wertham_y_la_seduccion_del_inocente

¿Eres tonto, o qué?


NOTA PREVIA: Debo la inspiración para escribir este artículo a mi amigo Juan Ramón Biedma, quien tuvo a bien compartir conmigo una breve entrada de blog que me despertó el interés por la cuestión y me condujo a ulteriores búsquedas. De rigor es citarla y así lo hago por el aquel de que, a cada uno, lo suyo: http://hyperbole.es/2012/12/el-sindrome-de-dunning-kruger/


Bombillas

Justin Kruger y David Dunning descubrieron un curioso efecto psicológico a lo largo de sus investigaciones en el Departamento de Psicología de la Universidad de Cornell (Nueva York), y cuyos resultados publicaron en 1999 en una rigurosa revista científica de esas que solo leen –no diré “leemos” porque detesto la soberbia aunque sea retórica- los especialistas[1]. Hoy se conoce, claro, como “efecto Dunning-Kruger” y, dado que ya he citado el artículo de referencia en la primera nota y el lector puede ampliar información allá, me limitaré a explicarlo de manera muy grosera a fin de desarrollar un par de ideas.

Resulta que tras una serie de experiencias psicosociales bastante ingeniosas realizadas con estudiantes, llegaron a resultados interesantísimos: los que se mostraron más brillantes, cuando se les preguntaba acerca de sus capacidades, tendían a considerarse en la media o por debajo de ella… Los menos dotados, al dato, solían creer habitualmente que estaban por encima del resto y siempre se consideraban mejores de lo que decía su expediente académico, su rendimiento e incluso las capacidades que habían sido capaces de mostrar durante las experiencias. Yo no he replicado los estudios de Dunning y Kruger, pero soy profesor universitario desde hace 20 años y te aseguro que el efecto funciona: por lo común, cuanto más incompetente es un alumno, mejor concepto tiene de su rendimiento, lo cual ofrece como resultado interminables tutorías en las que los pupilos del cinco “pelao” –o menos- tratan de demostrarte a  cualquier precio que son más espabilados que un lebrel, y que merecen mejor nota y consideración… Entretanto, e irónicamente, los alumnos realmente buenos casi nunca dan ni un pelo de guerra. Así, Dunning y Kruger llegaron al establecimiento de dos ideas muy sencillas, pero de largo alcance: 1) habitualmente, los sujetos menos competentes tienden a sobreestimar sus habilidades al punto de que se creen mucho más listos, capaces y eficientes de lo que son en realidad; y 2) por lo común, las personas menos competentes son incapaces de reconocer en los demás las habilidades que les parecen evidentes en sí mismas.

“Vale -estarás pensando- esto ya me lo imaginaba yo”. De hecho, es conocido desde antiguo que los ignorantes tienden a considerarse mucho mejores de lo que son en realidad porque desconocen sus limitaciones por obvias que estas se les presenten, entretanto las personas cultivadas, capaces y eficientes tienden a ser más humildes, modestas y sensatas, en general, por la sencilla razón de que son más conscientes de sus macas, limites y fracasos. Ya dijo Baltasar Gracián, al que le concederemos el beneficio de la duda que otorga el haber demostrado ser un tipo muy listo, que “el primer paso para la ignorancia es presumir de saber”.

El adagio socrático de “solo sé que no sé nada” raramente lo suscribirá un incompetente porque suele creer que lo sabe todo, de casi todo. Puro Perogrullo, y justo en ello redunda la gracia del argumento. Eso sí, permíteme que te diga, aun a riesgo de resultar pedante, que la ciencia se diferencia de la sabiduría popular en que somete estas cosas a un riguroso estudio, metódicamente controlado y empíricamente contrastado, a fin de determinar si tras ese saber popular se esconde una verdad o una mera creencia. Y en este caso, fíjate, ocurre que para variar la ciencia y el vulgo coinciden. No es cosa muy común, no lo creas… De hecho, si hiciéramos un listado del montón de tonterías que cree el personal por ahí, y que la ciencia ha mostrado erróneas una y otra vez, nos daría para una enciclopedia de muchos tomos gordos.

Tenlo claro: todos solemos valorarnos por encima de nuestras capacidades reales. Es una obvia cuestión de autodefensa cognitiva: el más elemental sentido de la preservación psicológica nos impulsa a creer que somos inteligentes, guapos y felices pues, en otro caso, podríamos llegar a sentirnos tan desgraciados que seríamos incapaces de funcionar con una calidad de vida razonable. De hecho, las personas que experimentan problemas en este sentido llegan a experimentar enormes desajustes que a menudo las conducen al desastre. El problema aparece cuando somos incapaces de discernir entre la realidad y el autoengaño supervivencial al que nos somete la maquinaria psíquica, porque ahí se empieza a perder pie, la objetividad se tambalea y nos vamos adentrando en el proceloso efecto Dunning-Kruger.

Piensa en esto: todos tendemos a pensar sin que exista una sola razón de peso que lo justifique que somos mejores que la media en alguna cosa. Incluso mucho mejores en ciertos casos. El problema es que eso es imposible porque vulnera cualquier probabilidad estadística… Si todos fuésemos ampliamente mejores en algo que los demás, el mundo estaría repleto de genios en todas las áreas posibles. Sin embargo, la realidad se empecina en demostrarnos lo opuesto en la triste mediocridad que arroja el rendimiento de la vida diaria (repleta de pretendidos escritores que no saben escribir, de supuestos artistas que pintan de pena, de músicos esforzados pero horrorosos, de cantantes tan meritorios como insufribles, de oficiales tan empeñados como chapuceros, de trabajadores incompetentes, de jefes pésimos y, en general, de gente muy del montón) incluso a nosotros mismos, aunque a menudo tendamos a negar esas evidencias para mantener alta nuestra autoestima… Vaya, que el reconocernos dentro de la medianía nos molesta y nos humilla. Por ejemplo: los estudios muestran que el cociente –no “coeficiente”, por favor- intelectual medio se ubica en torno a 100 (1 de cada 2 personas aproximadamente), con lo cual tener más de 115 ya te va haciendo bastante más inteligente que la media… El problema es que de 115 hacia arriba solo puntúa alrededor del 18% de la población[2]. Seguro que ahora mismo tu –porque la autoestima te empuja a ello- crees estar en ese rango de los elegidos, ¿verdad? O al menos quieres imaginar que eres mucho más listo que ese vecino al que consideras un completo imbécil. Bueno, yo no me apostaría la vida en ello: el cociente intelectual medio de los españoles se sitúa en torno a 98 –que no es poco- y lo más probable es que los dos andemos por ahí[3]. Punto arriba, punto abajo.

Otra cosa es que confundamos la competencia o la inteligencia con otros factores concomitantes como la personalidad, la eficacia conductual, las circunstancias o la simple suerte, y ello supone un grave error de apreciación que distorsiona la comprensión del problema. Dos personas pueden ser exactamente igual de inteligentes sin que ello implique que ambas tendrán idéntico éxito en la vida: existen otros factores coadyuvantes que median en el proceso y que provocan que inteligencias iguales muestren rendimientos dispares (por eso puede que tengas razón en que tu vecino es un imbécil aunque sea exactamente igual de inteligente que tu).

Esto me viene al pelo, por cierto, para comprender tanto desatino de políticos, economistas, próceres, gurús, sabios, ganapanes y listos sabihondos como nos salen por doquier en los tiempos presentes, a poco que patees un canto por ahí. Desde las tertulias a los parlamentos, desde los gimnasios a los consejos de administración, desde los parques públicos a los juzgados, y desde las barras de los bares a los ayuntamientos. En lo vertical y lo horizontal. Metámonos todos y sálvese el que pueda. A lo mejor, amigo, nos lo tenemos que hacer mirar porque, como bien digo, una de las peores adversidades del efecto Dunning-Kruger es que uno no sabe que está siendo afectado por él, que le está restando objetividad en su autoevaluación, y lo que es peor, que le está impidiendo ver la buena idea de otro aunque se siente encima y le muerda el pandero… O bien propicia que, aunque la veamos, seamos incapaces de aplicarla con el necesario rigor y eficiencia. Que de todo hay.

Probablemente, ese plan que pensamos fantástico es un churro y lo que toca es callarse, escuchar, valorar al que tenemos enfrente y pensar dos minutos en si estaremos a la altura. Por no hablar de esa sana prudencia a la que Epicuro consideraba “el más excelso de todos los bienes” y que puede resumirse en el viejo axioma de la abuela: “niño, tu a lo tuyo y con cuidado”.

Inteligencia


[1] Kruger, J, & Dunning, D. (1999). Unskilled and Unaware of It: How Difficulties of recognizing One’s Own Incompetence Lead to Inflated Self-Assesments. Journal of Personality and Social Psychology, 77, 6: 1121-1134.

[2] Puedes comprobarlo, por ejemplo, en esta página web en la que se muestran con bastante claridad los percentiles y sus frecuencias poblacionales en dos escalas de uso tópico: http://www.conaltascapacidades.com

[3] http://noticias.universia.es/actualidad/noticia/2014/08/18/1109783/espana-9-poblacion-inteligente-mundo.html (es de rigor hacer notar que en esta web, pese a lo interesante de la noticia, el lumbrera que ha escrito la noticia se suma a esa moda presente de llamar a lo que siempre fue “cociente”, como “coeficiente”. Alguno me dirá que la RAE lo acepta, y a ello respondo que la RAE en los últimos tiempos ha adquirido la bastante mala costumbre de terminar por aceptar cualquier cosa que se diga –o escriba- mal con la condición de que la diga o la escriba mucha gente. Cosas de la limpieza y el esplendor).

Buenos, malos, violentos

Lo mismo que ha venido ocurriendo en la ficción con los criminales desde que la visión idealizada por Puzo y Coppola en El Padrino reelaborase los clichés delincuenciales, y difuminara las fronteras entre los delitos y los negocios, ha venido a suceder en el presente con el resto del elenco de personajes: héroes, antihéroes, villanos, malvados, bondadosos, justos e injustos conforman una amalgama de personajes vacíos. Se han hecho indiscernibles e incluso intercambiables. Al fin y al cabo, si don Vito Corleone –el cabeza de una familia dedicada por entero al crimen, no lo olvidemos- podía caer simpático, ¿por qué no podía hacerlo un asesino caníbal como el Hannibal Lecter creado por el novelista Thomas Harris? En efecto, todo era una simple cuestión de redefinir términos.

Vito Corleone
Reconócelo: este tipo es un criminal execrable, pero por más vueltas que le das no encuentras la manera de que te caiga mal.

La década de los ochenta, entre hombreras y música tecno, fue la primera tras la constatación del final de esa falaz “inocencia edénica” surgida del nuevo orden de cosas impuesto por el final de la Segunda Guerra Mundial. Consecuentemente, supuso también el final del absolutismo moral, así como el advenimiento caos intelectual, el crepúsculo de las doctrinas cerradas… Convirtiéndose en partida de nacimiento del primer periodo histórico en el que el relativismo y el escepticismo se convirtieron en una opción ideológica y existencial real e indiscutible antes que en una mera posición teórica y retórica. Nunca antes en la historia de la cultura occidental se había podido reconocer -y ejercer- públicamente el “todo vale” o el “nada es cierto” y, en realidad, esa constatación era en el fondo el resultado directo de las condiciones vitales impuestas por un sistema de producción regulado únicamente por la política del beneficio. Semejante imperialismo de las condiciones materiales -la tiranía de lo real de que la se nos vino advirtiendo desde el surgimiento de la modernidad -, tarde o temprano, tenía que afectar a lo ideológico al penetrar en la política, y a lo ético, al adueñarse de la vida pública, de las relaciones en todos los ámbitos de la vida. A nadie puede extrañar, por tanto, que el sociópata haya pasado de ser un tipo que debía ocultarse para poder sobrevivir en el anonimato del colectivo, a convertirse en un personaje público, identificable y tan legítimo como cualquier otro. Es la consecuencia degenerada del individualismo descontrolado que anega todas las facetas de la vida: cada vez menos gente piensa en los demás, la urbanidad es un timo, “yo soy así”…

En un sistema en el que todo se mide por parámetros de productividad, eficacia, capacidad de transformación y cuentas de resultados caben pocas florituras intelectuales que no estén destinadas de un modo u otro al aumento de la productividad, así como al sacrificio de cualquier valor “inoportuno” en los altares de la capacidad económica. Por consiguiente, a medida que la década de los ochenta fueron avanzando y se sacrificaron en el altar de los negocios los fundamentos morales e intelectuales de la cultura occidental, fueron asimismo despareciendo los grandes pensadores, las grandes creaciones, las ideas definitivas y las grandes cuestiones para verse todo ello reemplazado por cuentos de posmodernidad, soluciones coyunturales y puntuales, el tente mientras cobro ético, el tormento intelectual de los reduccionismos y otras filosofías de trapillo. La inteligente parodia que Groucho Marx realizara sobre los tiempos modernos había triunfado: “tengo estos principios, pero si no le gustan tengo estos otros”.

La caída del Muro de Berlín y el final del régimen soviético, agotados por una maquinaria de producción occidental con la que simplemente no podían competir en modo alguno desde un Estado burocratizado e inmovilista, sólo trajeron más de lo mismo en tanto en cuanto quedaba certificada la probada eficacia de esta nueva cultura basada en estadísticas, gráficas, números, paradigmas económicos, políticas de consumo, laissez-faire, depredación bancaria, desigualdades internacionales, explotación irracional de los recursos naturales y falsas libertades.

Hannibal Lecter
Reconócelo: este tipo es un monstruo terrorífico, amoral, depravado y absolutamente repugnante… Pero te cae la mar de bien.

¿Hannibal no es un héroe?

Este panorama -en perpetuo agravamiento- ha afectado a la cultura popular de múltiples maneras, pero la fundamental ha sido la de relativizar el papel ético-moral de los personajes de ficción al convertir sus actos no en una cuestión de mayor o menor cercanía a determinados ideales de bondad y justicia, sino ante todo en un mero asunto de intereses. Otro más. Esto sucedió muy claramente, ya lo hemos anticipado, en el cine que se adentraba en los territorios del crimen organizado –ya fuera este de carácter familiar, empresarial o gubernamental-, pero se plasmó de manera muy clara en el papel de los héroes. Así, mientras que en 1940 se presentaba a Superman y Batman como paradigmas de la justicia inmaculada -al igual que en España se nos mostraba a Purk, El Cachorro, El Guerrero del Antifaz o el Capitán Trueno-, y si en 1960 Stan Lee tomaba el control de Marvel para preocuparnos por los problemillas existenciales de posadolescentes como Peter Parker o de complicadas familias tradicionales como los 4 Fantásticos, ahora resulta que el público se había acostumbrado al relativismo y al cinismo, tolerando los extremismos con mayor soltura y dejando de torcer el gesto ante un cubo de sangre y vísceras de pescado bien tirado frente a una cámara. No será raro, por tanto, que los creadores de estos productos de consumo revolucionen los paradigmas y traten de conducirlos justamente al ese extremo en el que la falta de sentido sea un sentido en sí: el psicópata criminal y reprobable -Lecter, Dexter- ya es admirado, citado e imitado como si de cualquier otro héroe se tratara.

Los policías del nuevo cine de acción que harían -y hacen- las delicias de los aficionados, han dejado de ser esos luchadores incansables contra el crimen de antaño, ejemplares y honorables, para transformarse en émulos brutales de los mismos criminales a los que persiguen. Sería fácil acordarse ahora de Harry Callahan, apodado el “Sucio”, –al que Clint Eastwood encarnó hasta en cinco ocasiones, la última de ellas en 1988-, pero él sólo fue la punta del iceberg. El anticipador de una nueva escuela de héroes populistas con olor a pólvora, gatillo fácil, barba cerrada y mucho músculo que no dudan en transgredir las leyes que han jurado defender si con ello se alcanza el fin pretendido (y Maquiavelo ha vencido). El nuevo héroe de los ochenta era Chuck Norris atizando a los delincuentes patadas voladoras sin compasión, era Charles Bronson pateando puertas y volando cabezas sin preguntar, era Arnold Schwarzenegger haciendo reventar cualquier cosa con un lanzagranadas o Sylvester Stallone desmembrando vietnamitas… Lo mismo que el Bruce Willis de los 90 o el Jason Statham de los 2000. El fin de la inocencia ha traído consigo el triunfo de los bárbaros y la indefinición entre buenos y malos: ya no es cosa de principios, sino de circunstancias.

Harry Callahan
Reconócelo: si pudieras hacerlo sin miedo a posibles consecuencias, apretarías el gatillo como él sin dudarlo ni un instante.

El nuevo héroe es, de este modo, un mito descerebrado del pressing-catch que no tiene problema alguno en romper huesos, aplastar cabezas, disparar antes de preguntar, torturar por principio, matar si es necesario o pasar por encima de los más elementales principios de convivencia. De tal modo, los héroes y los villanos se han fusionado no ya porque sus creadores los doten de detalles, matices y precisiones que hagan dudar al espectador, sino porque ha ocurrido justamente lo contrario: todo se ha simplificado a tal punto que ya no existen recodos ni aristas que analizar y comprender… Lo único que separa al bueno del malo es el motivo último por el que cada uno de ellos decide ejercer unilateralmente su retahíla de sempiterna e inevitable violencia.

Quizá sea por lo expuesto que en este imperio del relativismo, de laxos principios, escépticos teoremas y corolarios cínicos en el que se nos ha educado sistemáticamente para aceptar que los buenos, los malos y los violentos ya no admiten separación, margen o frontera, por lo que cada vez tenga más sentido ser gobernado por corruptos, estar sometido a relaciones laborales tiránicas, educar a los más jóvenes en la amoralidad, padecer relaciones interpersonales destructivas… a la par que cada vez tenga menos sentido exigir justicia, respeto y humanidad. Son ideales imposibles en un mundo en el que los individuos y sus intereses, deseos y demandas particulares se han expandido con tal fuerza que ya no dejan ni el más mínimo espacio a los demás. Que ya no contemplan ni tan siquiera la existencia de los otros.

La lógica implacable del “yoísmo” nos ha vencido. Amén.

Felicidad y P.I.B.


“La desigualdad es la causa y la consecuencia del fracaso del sistema político, y contribuye a la inestabilidad de nuestro sistema económico, lo que a su vez contribuye a aumentar la desigualdad”.

Joseph Stiglitz

El precio de la desigualdad.


Hace unos meses se me invitó a la Universidad de Murcia para ejercer como vocal en un tribunal de tesis. El tema elegido para la ocasión por el aguerrido doctorando, la verdad, prometía lo suyo: Felicidad y Producto Interior Bruto (PIB)… Y, tras desgranar cientos de estadísticas nacionales e internacionales, el autor del texto concluía con la constatación de una evidencia que muchos -cierto que manera infusa- ya nos temíamos: El PIB no sirve para medir la felicidad ni, ya que estamos, tiene influencia alguna en ella. La verdad es que ni tan siquiera resulta un buen indicativo de calidad de vida o de bienestar. Por completar el elenco de conclusiones que culminaba aquella tesis a la que no dejo de darle vueltas, he de señalar que un PIB al alza ni tan siquiera es capaz de garantizar la consecución de derechos elementales como la educación, la sanidad o un trabajo que pueda alejar con garantías a su propietario de la miseria.

Los estudios empíricos que desgranaba la tesis y que se nos recordaron someramente durante la defensa de la misma, realizados muchos de ellos por prestigiosos economistas -alguno de ellos incluso Premio Nobel-, así como por otros especialistas y organismos muy reputados eran demoledores. De hecho, y esta resulta ser una singular paradoja que me ha dado mucho en lo que pensar últimamente, los diez países con mayor PIB del mundo no eran los diez países en los que sus habitantes se reconocían “más felices” (datos de la OCDE y de Naciones Unidas), por lo que hemos de entender -y asumir- que lo del PIB y lo de la felicidad no va de la mano por más que se empeñen unos cuantos propagandistas y por más que nos vendan las cifras macroeconómicas como si del bálsamo de fierabrás que todo lo cura se tratara.

El porqué se produce esta aparente paradoja es, cuando se entiende la verdad oculta tras los números, de puro y duro Perogrullo: “crecimiento” y “desarrollo” no son la misma cosa aunque se nos traten de  vender como conceptos sinonímicos. Lo cierto es que da exactamente igual cuánto se produzca, se ingrese o crezca la economía en una nación en relación a la calidad de vida y la felicidad de sus habitantes porque, en realidad, lo significativo no son las cifras al alza (número de coches, número de pisos, número de esto o cantidad de aquello), sino el reparto razonable de la riqueza y una adecuada política impositiva y de inversiones tanto públicas como privadas. O lo que es igual: si un crecimiento del PIB de un 3% redunda en última instancia en el beneficio neto de mil familias –las más ricas, por supuesto- o grupos de inversión, lo que sucede en realidad es que el resto de la población del país es aún más pobre de lo que ya era en detrimento de los pocos elegidos que han visto incrementarse su patrimonio. Un patrimonio creciente del que, por cierto, sus beneficiarios pueden rendir cuentas en el extranjero buscando mejores condiciones tributarias con lo cual, a medio plazo, ese 3% de incremento del PIB nunca redunda más que tangencialmente en el desarrollo interno del país. Así es como se ensanchan las brechas socioeconómicas, las economías familiares languidecen, los impuestos dejan de cuadrar la hacienda pública y nuestros derechos se reducen. Sencillo vampirismo. O de otro modo: el bienestar no es cuestión de “crecer” sino de “desarrollarse”.

desigualdad

Eso sí, nos dirá el prócer de turno encaramado a la cima de su montaña de números, “el PIB crece sin parar y ello prueba que yo lo estoy haciendo bien”. Falso. La cuestión no radica en cuánto crece el PIB en relación al volumen de la economía, sino en cómo se reparte ese crecimiento y cómo se gestionan los recursos disponibles, es decir, en las políticas de desarrollo. De poco sirve incrementar el PIB si el grueso de la sociedad trabaja más horas por menos dinero, los derechos se reducen al no poder sostenerse, las administraciones son incapaces de frenar el despilfarro endémico que las mueve, la calidad de los servicios disminuye al reducirse progresivamente la recaudación, los tramos impositivos no son equitativos y, por fin, nos encontramos con que este mismo país que teóricamente crece sin cesar ve ralentizado –e incluso retrocede- su desarrollo y vertebración a través de un paulatino empobrecimiento del grueso de su población, la destrucción del empleo de calidad, la generación de trabajos miserables y, por fin, la depauperación de sus clases medias. Los números son aparentemente buenos, cierto, pero no significan en absoluto lo que se quiere dar a entender con ellos. Hay gente por ahí que llaman a estas quejas “comunismo” o -en el mejor de los casos- “socialismo”, y lo tachan de peligroso, inmoral y destructivo. Pero esto es confundir el trasero con las témporas y arrastrar hacia el siempre demagógico territorio de los ideologismos una cuestión que nunca ha dejado de ser numérica ni tiene por qué dejar de serlo.

Si se me pregunta personalmente, entiendo que lo ideal sería que todo el mundo fuera más rico en todos los sentidos y no solo unos pocos; que todos tuviésemos más derechos y libertades; que los servicios que pagamos con nuestros impuestos fueran de mejor calidad y para todos; que el grueso de los desfavorecidos por las condiciones de la economía menguante se redujera; que las pensiones fueran mejores; que cada cual tuviera un trabajo digno y una paga justa; que cualquiera pudiera crear o mantener una empresa, cooperativa o asociación con garantías y sin miedo a perder todo lo invertido en cinco minutos de desbarajuste… La propiedad privada es un derecho elemental del ciudadano que debe preservarse pues solo en la medida que un sujeto es independiente económicamente es también libre para decidir (la idea es de John Locke), de modo que batallar por la consecución de un mundo comunista y lleno de pobres que se pegan por un mendrugo no sólo contraviene el más elemental sentido común, sino que también corroe uno de los pilares básicos de la democracia. El problema de fondo reside en que es justo hacia esa clase de mundo lumpen hacia donde nos conducen tanto empecinamiento con el ajuste independiente del PIB, las proclamas de austeridad que solo generan deudas externas eternas que nunca se reducen, el descontrol de las cuentas públicas, el desbarajuste de los tramos impositivos, el desmadre del mercado laboral, la corrupción sistémica, la inadecuada política de inversiones, las trabas constantes e incomprensibles al emprendimiento y las lagunas en la gestión de los recursos.

Consecuentemente, no es cuestión de exigir a los gestores públicos más política, sino mayor coherencia. No hemos de dejarnos engañar con toda esa gaita del PIB que nos han vendido pues es pura falacia como muestran los hechos. Más PIB sin las adecuadas políticas de desarrollo solo revierte, en última instancia, en reparto de miseria. Y repartir pobreza –como se ha venido haciendo a lo largo de los últimos años- a costa de incrementar la deuda, incrementar las brechas socioeconómicas y depauperar el erario público con una gestión ineficiente de los recursos es cosa que puede hacer cualquiera ya tenga muchas letras o pocas. Puro sovietismo de la vieja escuela y del más cutre por cierto. Menudo mérito pírrico el que tratan de apuntarse algunos… Lo razonable es justo lo que no se ha hecho al despeñarnos por el barranco interminable de la austeridad: generar riqueza, bienestar y desarrollo para todos y no solo engorde para unos cuantos. Se trata de una cuestión de mero egoísmo inteligente tal y como se desprende de la frase de Stiglitz que encabeza estas líneas: las políticas de desarrollo eficientes -más allá de la obsesión por el crecimiento- no solo redundarían en más PIB, sino también en una estabilidad económica que mejoraría de suerte retroactiva los beneficios para todos, y no solo para unos pocos.

Evidentemente, y así lo asumimos el doctorando y yo cuando discutíamos su tesis en la sobremesa, no es el simple y llano dinero lo que concede el acceso a la felicidad, ni es la felicidad cosa que pueda comprarse de saldo en un centro comercial. Porque la felicidad tiene un componente ético-moral, y un inevitable sesgo subjetivo, que debe trabajar -y trabajarse- el propio interesado. Bien lo sabían los clásicos y no ha nacido aún quien pueda enmendarles la plana. Pero resulta innegable que la felicidad es imposible sin el adecuado bienestar, que facilitar las condiciones de calidad de vida desde las que los particulares puedan progresar hacia la felicidad individual es obligación del buen gobierno, y que cambiar este precepto –esta exigencia- por la mera resignación en el desastre y un conformismo inoperante no deja de ser, en el fondo, otro timo equivalente al del PIB, o quizá dependiente de él.

sinking-ship-inequality-cartoon

Cuidado con el bromista

Batman
El Batman de la época de Neal Adams, uno de los mejores de todos los tiempos, coincidió con la resurrección del Joker, un personaje que iba de capa caída (y nunca mejor dicho).

Sadismo sobreactuado y una ilimitada capacidad para el mal. Un deseo irracional, injustificado e incluso absurdo a menudo de destrucción. Tánatos freudiano desatado, en estado puro, básico y carente de matices… Esta es la clave fundamental de la villanía total que se nos presenta en la ficción y, por ello, todo ser humano con independencia de sus orígenes es capaz de comprenderla. Así ocurre que esta clase de malvado de la ficción resulta tan universal que ha llevado, a menudo, a la caricaturización de los verdaderos criminales. A una simplificación absurda e injustificada de sus actos que ha conducido a imaginarlos como simples imitadores de los villanos de ficción. Al malo de película, al malo de la novela o al malo del tebeo se le comprende porque es plano, es mecánico, es simple, es burdo, y a menudo ni tan siquiera necesita justificarse. Y esto gusta porque es sencillo. Nada de ello, claro está, funciona o es aplicable al “malo” real, pero la cultura popular pesa y ejerce un influjo tan fuerte en nuestras vidas, en nuestras cosmovisiones de la realidad, que a menudo nos resulta imposible deslindar el tópico del hecho y la realidad de la ficción.

Pensemos en el Joker, el archienemigo de Batman. Su primera aparición se produjo en el número 1 de la serie Batman (1940), presentándose como un tipo de singular aspecto ridículo –que refleja precisamente y con sumo acierto su disparatada psicología-, cuya creación conceptual fue concebida por el asistente de arte Jerry Robinson y luego rediseñada por el guionista Bill Finger y el dibujante Bob Kane, quien basó el aspecto final del personaje en las fotografías del actor Conrad Veidt que Finger le entregó. Veidt había protagonizado la adaptación fílmica de El hombre que ríe (1928), producción muy exitosa que adapta la novela homónima que Victor Hugo publicó en 1869, y cuyo argumento es una ácida y tremenda crítica a la aristocracia de su época. El hecho es que Veidt adoptó un trágico y estremecedor aspecto muy similar al que luego sería el planificado por Kane para representar a su villano.

Conrad Veidt
Conrad Veidt encarnando al “hombre que ríe”. La inspiración de los creadores del Joker es más que obvia.

El Joker ha pasado décadas hostigando al murciélago sin descanso, sembrando el cáos en Gotham City por simple placer. Como si de un juego se tratara. No le importan el dinero, la riqueza o el poder. Sólo la destrucción. Es el villano total, el malo mecánico incapacitado para cualquier otra cosa que no sea la maldad en sí misma y al que, precisamente por ello, no se puede vencer o reducir. Pero lo más interesante es que este tipo de malo ficticio e imposible funciona excepcionalmente bien de cara al público y se convierte en el resorte necesario al que han apelado tradicionalmente los diferentes editores de Detective Comics cuando las ventas de tebeos descendían. No en vano, el Joker ha sido nombrado el octavo mejor personaje de cómics por prestigiosas publicaciones especializadas como Empire Magazine, así como el quinto por la Wizard Magazine. Asimismo, en el año 2008, alcanzó el puesto número uno en la lista de los cien mejores villanos del tebeo de todos los tiempos, clasificación también publicada por Wizard.

Sin embargo, la personalidad del Joker ha pasado por diversas fases que reflejan diferentes momentos históricos bien definidos. La idea original, como corresponde a su tiempo y a las innegables influencias culturales que posee el personaje, fue la de un brillante criminal sociópata, sádico pero dotado de un extraño sentido del humor, impactante, de intenciones claramente amorales. Se trata, en suma, de la representación preclara del cáos -que no de la anarquía, que no es lo mismo-, el crimen y la destrucción, en contraposición al orden, la moralidad y la justicia extrema, también algo absurda a su manera, que encarna el personaje de Batman.

La siguiente representación del Joker -muy influida por el peso del Comics Code-, es la de aspecto “camp”[1] que fue la popularizada en las décadas de 1950 y 1960. Aquí adoptó la forma de un excéntrico ladrón de opereta, algo torpe, infantil, falto de cariño y con un especial aprecio por los chistes horteras, tontorrones, y la parafernalia bufonesca. Sería esta segunda versión inocentona, descolorida y absurda del personaje la que se popularizó mundialmente. Este Joker desvirtuado, el villano total descafeinado, sería lentamente atenuado a mediados de la década de 1970 para regresar paulatinamente a la inspiración originaria de sus creadores.

El Joker así resucitado, oscuro, de los setenta ha ido ganando con el paso de los años en efectismo visual, chismorreo psiquiátrico y parafernalia pseudofilosófica, pero también perdiendo trasfondo si pensamos en la autenticidad de sus orígenes. En efecto, se ha terminado convirtiendo en esa simplificación del crimen, de la villanía, a la que antes aludíamos. Para muestra un botón: “No sé en qué pensaba, o si pensaba en algo. Lo del Joker, por lo que estaba descubriendo, no era pensar… sino actuar. Y siempre en persona. Supongo que podría decirse aquello de ‘si quieres un trabajo bien hecho…’ ¿O quizá disfrutaba del ‘trabajo’? Incluso se enorgullecía como un artista. No es que yo entienda de arte, pero como reza otro dicho, ‘uno sabe lo que le gusta’”[2].

Evolucion del Joker
Evolución estética del Joker a lo largo de las décadas.

Como se deduce de la cita, un malo plano y sin sutilezas, porque sí, extenuante y a menudo rayano en el más completo absurdo, pero sorprendente sin embargo, atractivo y cautivador de cara al espectador a causa de su apariencia monstruosa y pervertida. Su homólogo cinematográfico y literario más obvio quizá sea el psicópata favorito de todo el mundo: Hannibal Lecter, el psiquiatra asesino creado por Thomas Harris que como podemos comprobar no inventó absolutamente nada y se limitó a parodiar a los psicópatas reales, tal cual el Joker se ha terminado parodiando a sí mismo con el paso del tiempo. Tal vez suceda que la realidad nos resulte a todos tan extremadamente aburrida que sea necesario reconstituirla desde su misma esencia, aunque sea mediante falacias.

Hannibal Lecter
El actor Anthony Hopkins encarnando al psicópata imperfecto. Las cosas construidas justo como no suelen ser, se venden mucho mejor. Paradoja.

[1] El “camp” es una forma estética que basa su atractivo en la ironía y un punto de mal gusto cercano a la horterada. El término apareció en 1909 y se utilizaba para referirse a las conductas afectadas, exageradas, histriónicas, teatrales o afeminadas. Durante la década de 1960 el concepto redibujó sus contornos para definirse como banalidad, artificio y mediocridad tan extrema como para provocar la atracción. La escritora norteamericana Susan Sontag, en su ensayo publicado en forma de libro en 1966, Notes on Camp (New York: Farrar), enfatiza el artificio, la frivolidad, lo naif, y la presuntuosidad.

[2] Azarello, B. y Bermejo, L. (2009). Joker. Barcelona: Planeta DeAgostini (Traducción: Diego de Los Santos).