Construir un caso (o el problema de los “juicios paralelos”)

Alguna vez he comentado que las razones por las que un crimen, delito, suicidio concreto se convierte en un suceso “mediático” frente al resto de acontecimientos similares que pasan completamente desapercibidos es, a menudo, un “completo misterio”. Es una afirmación lapidaria, por supuesto, pero como sucede con toda sentencia de estas características en relación a los acontecimientos humanos, precisa de matices en la medida que suscita preguntas: ¿Qué tienen de especial estos casos “famosos”? ¿Por qué un crimen vulgar y corriente, de aquellos que las Autoridades afrontan muy a menudo, se convierte en fenómeno de masas?

A mi parecer, estas cuestiones se relacionan con otras como, por ejemplo, ¿Qué convierte a un sujeto sobre el que no hay más que pruebas circunstanciales en “sospechoso” de un crimen? ¿Cuál es la conducta que la opinión pública espera de un culpable? ¿Qué tiene determinada víctima para convertirse en objetivo apetecible por parte de los medios? ¿Por qué ciertas víctimas son más “agradables”, “simpáticas” o “irreprochables” a ojos del cuerpo social? ¿Qué circunstancias rodean al caso para incentivar ese interés? Esto es así porque todas las cuestiones enunciadas conforman, de presentarse en cierta manera, un circuito de retroalimentación infernal: del mismo modo que ocasionalmente los medios de comunicación y la opinión pública “demandan” un cierto tipo de caso, las Autoridades pueden concederlo inadvertidamente para aliviar la presión, convirtiéndose así en cómplices involuntarios del fenómeno.

Dolores Vázquez
Dolores Vázquez, jugada por el asesinato de Rocío Wanninkhof, fue encontrada culpable por un tribunal popular en el que ha sido uno de los casos más sangrantes de juicio paralelo y circo mediático de la España reciente. El clamor popular en su contra, una vez convertida en la “mala” de la película, fue una completa vergüenza a pesar de que todas las “pruebas” que había en su contra eran inconcretas y circunstanciales. Finalmente hubo de ser exonerada por la misma justicia que la condenó. El auténtico culpable del crimen era otro vecino de la localidad: el súbdito británico Tony Alexander King. No obstante, ella, para dejar de ser perseguida por la depredación mediática y las interminables suspicacias vecinales, tuvo que irse de España.

Pueblo pequeño, infierno grande

Por lo común, cuando un crimen o desaparición se producen en el seno de una comunidad pequeña y bien vinculada (una urbanización, un pueblo, un barrio con fuertes estructuras sociales de apoyo) ocurre que el vecindario se vuelca y moviliza de suerte masiva, hecho que tiende a suscitar por sí mismo el interés de los medios de comunicación. Y de ahí al “interés general”, una vez el caso comienza a publicitarse, solo hay un paso. Sin embargo, cuando se da ese paso, automáticamente todo se complica, especialmente para las Autoridades, que de súbito se ven en el ojo del huracán, lo cual pone en marcha toda la compleja y retorcida maquinaria de presiones políticas y judiciales que cabe esperar. Y el último escalón de esas presiones son los agentes encargados de la investigación que, de pronto, se encuentran ante la necesidad urgente de resolver el asunto: alguien tiene que “cargar con la culpa”.

Pero la búsqueda de ayuda pública, así como la obsesión por la “eficacia”, pueden ser un arma de doble filo que conviene administrar con cuidado. Sin duda porque, hasta donde se sabe, rapidez y eficacia tienden a confundirse entre sí, pero no son la misma cosa y a menudo juegan la una en contra de la otra. Si quiere usted un trabajo bien hecho no pida nunca que se lo hagan rápido.

Lo malo de este proceso es que, ocasionalmente, resta objetividad a los investigadores. De hecho, tras la inmensa mayoría de los errores policiales y judiciales existe ese conglomerado perverso de prisas, presiones, confusiones y subjetividades que lo confunden todo. Entretanto el precepto fundamental de la investigación en cualquier campo ha de ser que los datos disponibles deben siempre corroborar, o bien modificar, sin lugar a la duda la hipótesis de partida, cuando las Autoridades no pueden trabajar en condiciones normales tiende a suceder justamente lo contrario: se busca confirmar la hipótesis original a todo trance obviando, o simplemente ignorando, aquellas evidencias que podrían contrariarla o modificarla. Es decir, en lugar de permitir que los hechos construyan el caso, es el caso el que adquiere vida propia y guía cualquier interpretación y valoración de los hechos. Se deduce, pero no se induce. Y cuando se induce, se hace ignorando o reevaluando desde la teoría todo aquello que no cabe en la propia teoría, conformándose así ese esquema confabulatorio de manual que tan bien conocen los conspiracionistas: “como yo ya sé lo que pasa, no estoy dispuesto a aceptar nada que contraríe lo que yo sé que pasa… y si acepto algo nuevo será solo en la medida que confirme mi punto de vista preconcebido”.

Se olvidan así, en un afán por satisfacer la demanda social y la presión mediática intensa, las más razonables salvaguardas policiales y jurídicas. Un amigo, abogado penalista de larga trayectoria, me cuenta a este respecto que lo peor que a un sospechoso sobre el que no existen más que pruebas de convicción –que no prueban nada- le puede pasar es que la policía se obsesione con su culpabilidad… y que alguien cometa el error de filtrarlo a los medios de comunicación.

Filtración va, chivatazo viene

Esta clase de filtraciones en casos mediáticos, enquistados, que no se resuelven, perjudican de manera radical el principio elemental de la presunción de inocencia. Ocurre que la defensa, o el mismo sospechoso, se ven abocados a una situación reactiva en la que siempre van “por detrás” del caso, a remolque de lo que se dice, se piensa o se comenta en los mentideros de lo público. Las filtraciones –a menudo interesadas- obligan al sospechoso a tener que estar siempre defendiéndose, desmintiendo, corrigiendo, lo cual impide que la defensa pueda elaborar una estrategia coherente en la medida que siempre hay una filtración, un dato nuevo, un detalle, del que hay que protegerse o ante el que se debe reaccionar. Y ello incrementa en la opinión pública la impresión de que el sospechoso es culpable en la medida que, recordando la sentencia totalitaria, “si fuera inocente, no tendría nada que temer”. Tal vez habría que responder a quien así argumenta que, precisamente porque no soy culpable, te temo.

Colateralmente, aparecen las “noticias falsas”. Informaciones maliciosas o simplemente inventadas de procedencia indefinida que fantasean con detalles inexistentes del caso, y que contribuyen a su construcción simbólica social. Por lo común la opinión pública, que tras la primera ola de informaciones más o menos fidedignas aunque a menudo bastante inexactas ya ha comenzado a decantarse en uno u otro sentido –generalmente hacia la culpa del sospechoso en una mecánica de “chivo expiatorio”-, tiende a creerlas y son necesariamente imposibles de desmentir. No se puede discutir una invención. Justamente, este es el peor problema inherente a conducir una investigación policial o judicial “con luz y taquígrafos”; que alimenta la maquinaria de las especulaciones y las falsedades al punto de que el asunto se transforma en un laberinto mediático en el que ya todo empieza a valer.

La manera que la judicatura o la policía encuentran, por lo común, de anticiparse a los rumores y noticias falsas cuando se ha llegado a este punto pasa por redoblar los esfuerzos en la investigación del sospechoso mediático, en un afán de incrementar la “objetividad” de sus puntos de vista. Y llegados aquí, el caso ya se construye solo en una dinámica perversa e imparable. Todo aquello que contraríe la versión oficial empieza a desecharse como mera “pista falsa”, “argucia de la defensa” y “truco de abogados”. Tanto las Autoridades como los medios y la opinión pública ya han elaborado el caso, han decidido lo que pasó realmente, y automáticamente pasan a un segundo o tercer orden todas las cuestiones, testigos o evidencias que contradicen la versión oficial. Las redes sociales -que son una completa peste- se convierten en un arma de destrucción masiva. El efecto perverso de este proceso es que, cuando se produce, ya resulta imposible asumir errores o dar marcha atrás, pues el miedo a una reacción airada de la opinión pública se torna real. Porque a mucha gente le va esta marcha. La fomenta, la busca, la incentiva. Y en el camino hay otra víctima mortal a la que nadie presta atención: la presunción de inocencia.

Matrimonio Ramsey
Patsy y John Ramsey, padres de la niña asesinada JonBenet Ramsey, un caso que levantó una profunda indignación y seguimiento en la sociedad estadounidense. Una pésima investigación policial y unos medios de comunicación extremadamente depredadores los convirtieron, sin prueba alguna, en asesinos de su propia hija. Tuvieron que aguantar toda clase de humillaciones públicas, así como la difusión en horario de máxima audiencia de sus intimidades familiares, durante décadas. Lucharon contra la malévola acusación durante años hasta que finalmente fueron exonerados por las Autoridades (que no por muchos medios que aún sostienen, empecinados en el error, acríticamente, su culpabilidad). El auténtico asesino, cuyo ADN se encontró en el cuerpo de la víctima pese a que la policía desestimó de manera inexplicable esta evidencia capital, nunca ha sido capturado.

Culpable de todo

No nos engañemos. Para la inmensa mayoría de los ciudadanos (periodistas incluidos) existe un hecho psicológico incontrovertible: si la policía o la justicia creen que eres culpable de algo, lo eres. “Tienes” que serlo porque ellos “saben”. Y ahora el papel de los medios de comunicación es consolidar esa culpabilidad. Todo se reduce, una vez el caso se ha construido de este modo, a buscar una “prueba definitiva” que corrobore esa culpabilidad permitiendo salir del ámbito de la circunstancialidad y haciendo que todo termine como debe, como se espera. El malévolo circo mediático se ha constituido: cualquier cosa sobre el sospechoso que se filtre a los medios será jugosa e interesante… Desde cómo se sienta, se viste o se rasca la nariz, hasta la vez que fue expulsado de clase durante el bachillerato o el mes que se dejó la factura del teléfono sin pagar: detalles banales, vulgares, que nada tienen que ver con el tema en cuestión, pero que ayudan a vender la idea del “malvado sin entrañas”, del “psicópata”, de una personalidad “oscura y pervertida”.

Pretendidos expertos analizarán su comunicación no verbal, sus actitudes, su pasado, su  tono de voz, su aspecto, su vida privada, y todo ello se estudia minuciosamente, con lupa, a la par que se interpreta de manera unívocamente maliciosa y perversa… Para el sospechoso escapar a esta vorágine de la culpabilidad consumada en los medios –que no en los tribunales- es literalmente imposible, pues nada de lo que haga o diga servirá para ayudarle. Antes al contrario, cualquier acción que en otro contexto sería positiva será interpretada como corroboración de su malignidad y monstruosidad. Incluso el silencio o la inacción misma.

Así lo vivió en sus propias carnes, en 2009, Diego P. V., un tinerfeño de 24 años que a causa de una serie de errores encadenados de médicos, policías y periodistas se convirtió de la noche a la mañana en el asesino de la hija de su novia. Llevó a la cría al ambulatorio pues tenía dolores de cabeza porque se había caído en un tobogán días antes. La niña presentaba algunos hematomas y arañazos que se realizó en el curso de la caída. Desgraciadamente, terminaría muriendo a causa de ese golpe fortuito al que no se dio importancia. Era un accidente lamentable, pero en apenas cuestión de horas, tras un tremendo error diagnóstico que puso en marcha los protocolos de servicios sociales y alertó a las Autoridades, Diego se convirtió para la prensa -a portada completa- en el hombre que miraba “como un asesino”. Casi nada. Luego, una vez descubierto el error y tras haber hecho pasar a este hombre por un completo calvario, como suele ocurrir en muchos de estos casos de sensacionalismo desatado e irracional, se habló durante cinco minutos de fariseismo de la dichosa autorregulación de los medios de comunicación a fin de evitar tan graves excesos. Después nada. Como de costumbre[1]. Y tiempo después un periodista de sucesos muy famoso, hablando conmigo de esto, todavía me dijo como si de un axioma científico se tratara aquella estupidez patética de que “cuando el río suena…”

El caso está listo. Todos a la mesa. Y nadie aprende nada.

Eva Blanco
La violación y posterior asesinato de la jovencísima Eva Blanco en la localidad madrileña de Algete conmocionó a la opinión pública española e hizo correr ríos de tinta. Nadie comprendía por qué la justicia -que en esta ocasión no cedió a las presiones- ignoraba el clamor popular que pedía que todos los hombres del pueblo, sospechosos porque sí, se hicieran una prueba de ADN para ser descartados, aun cuando ello contravenía los más elementales derechos constitucionales. Afamados periodistas se sumaron a esta pretensión de la familia tratando de influir en un sistema que es como es por un buen puñado de razones… Finalmente, se demostró que la justicia tenía razón: el criminal no residía en Algete, pues se trataba de Ahmed Chelh Gerj, un tipo que cometió el crimen cuando pasaba por allí y que sería arrestado en Francia 18 años después. Ninguno de los periodistas que habían apoyado con luz y taquígrafos el despropósito rectificó públicamente.

[1] Pardellas, J.M. & Gómez, R.G. (2009). Nada puede reparar al falso culpable. El País [En: https://elpais.com/diario/2009/12/01/sociedad/1259622001_850215.html, recogido en septiembre de 2018].

Conviene leer:

  1. Encarcelados por delitos que no cometieron.
  2. Graves errores judiciales en Estados Unidos.
  3. Injusticias de la justicia.
Anuncios

El mito de la “americanización”

79832901-concepto-de-la-nube-de-la-palabra-de-la-americanización-ilustración-del-vector

Uno de los grandes mitos de la cultura occidental es de la “americanización” del mundo. Con ello nos referimos al hecho de que la cultura popular estadounidense, al parecer, estaría colonizando todas y cada una de las culturas locales a fin de imponer un estilo de vida único, “a la americana”, inmutable y global por la vía de la invasión de productos de toda índole difundidos masivamente en los medios de comunicación y los mercados de todo el mundo. Muchos intelectuales de prestigio, cierto que sin demasiadas evidencias más allá de sus reflexivas impresiones, han defendido esta teoría y, tal vez, ello ha motivado que goce de no poco predicamento. Sin embargo, ello contrasta de manera radical con hechos incuestionables e incluso con la infinidad de evidencias en sentido contrario encontradas por muchos estudios de campo elaborados por los antropólogos culturales. Entendámonos: la proliferación de restaurantes de comida rápida no tiene tanto que ver con una pretendida “americanización” de la existencia como con el hecho, difícil de cuestionar, de que son cómodos, socorridos y baratos. Y si hace quince años se vendía de suerte apocalíptica la “muerte” de la dieta mediterránea en detrimento de la “comida basura”, lo cierto es que en la actualidad este pronóstico nunca ha estado más lejos de cumplirse. No es lo mismo –y aquí residen tanto el fondo de la incomprensión del problema, como los prejuicios que lo sustentan- que un cadena de restaurantes sea “americana” que el uso o significado de ellos que se realice fuera de los Estados Unidos.

Modelo, ¿de qué?

El mero hecho de que la mayor parte de los ciudadanos no estadounidenses entienda tan rematadamente mal cómo funcionan los sistemas político, judicial o policial de aquel país, aún a pesar de la infinidad de productos de entretenimiento relacionados con estas temáticas que se difunden en los medios de comunicación no es, en el fondo, otra cosa que la expresión directa de este fracaso de la tesis de la “americanización”. Y por supuesto, tanto la mencionada incomprensión como el subsiguiente fracaso explicativo, son elementos que tienen su razón de ser. Y es que la incomprensión es mutua. También la mayor parte de los ciudadanos estadounidenses conocen, entienden y aceptan a menudo bastante mal los estándares de vida alejados de su propio modelo, lo cual inevitablemente limita de manera radical su imaginada capacidad como “grandes colonizadores” culturales.

Y es que los Estados Unidos de América suponen un ejemplo perfecto de hasta qué punto una sociedad puede ser pervertida informativamente hasta sumirla en la más completa confusión. Contrariamente a lo que cabría suponer –no se crean todo lo que ven en el cine- en los Estados Unidos existe porcentualmente la mitad de lectores de periódicos y libros, ya sea en formato papel o digital, que en Europa o Japón. De hecho, y frente al pretendido ejemplo de “calidad cultural” que mucha gente ve en aquel país, es la nación que, también porcentualmente, menos libros publica por habitante. Más todavía: Los periódicos y noticiarios estadounidenses han reducido su cobertura de noticias “serias” en las últimas décadas y, muy especialmente, en cuanto a las noticias relativas al mundo exterior. Un verdadero escándalo si se tiene en cuenta que, hace ya veinte años, tal cobertura de los acontecimientos internacionales era la menor del mundo industrializado[1]. Estos datos se comprenderán mejor si se presta, por ejemplo, atención a los arrojados por una peculiar encuesta que el diario Los Angeles Times realizó ya en 1994[2]. Entonces se hicieron a ciudadanos de ocho países -Estados Unidos, México, Gran Bretaña, Francia, España, Alemania e Italia- cinco preguntas básicas sobre temas de actualidad. De todos los encuestados, fueron los estadounidenses quienes peores resultados obtuvieron. Así, mientras que sólo un 3% de los alemanes respondió mal a las cinco cuestiones, lo hicieron erróneamente un 37% de los estadounidenses. Y no crean que eran preguntas difíciles pues se trataba de responder a cuestiones banales como quién era el primer ministro francés.

Cuestión simbólica

Cualquier contenido difundido por los medios de comunicación puede ser analizado no sólo por su naturaleza y sus efectos, sino también como un texto que tiene un sentido, un significado y una interpretación. Desde este punto de vista, los significados y las interpretaciones que se atribuyen a tales contenidos pueden ser muy diferentes de aquellos que pretendían atribuirles sus creadores. Es un hecho bien conocido en campos como el del análisis y la crítica de arte. Esto es así porque la gente no es pasiva ante los contenidos que proporcionan los medios de comunicación y también producen sus propios significados. En suma, como ya explicamos cuando se habló de la defensa cognitiva, un mensaje puede no conseguir en modo alguno el efecto de que pretenden sus creadores y sí despertar en el público una reacción diferente, inusual, no pretendida, extravagante e incluso contraria. Todo medio, así como todo mensaje, tienen muchas lecturas posibles… Y bien habrá podido comprobarlo en sus propias carnes quien pretendiendo hacer un comentario inocente y bienintencionado vía Twitter -o Facebook- se haya encontrado, en contrapartida, con un verdadero juicio sumarísimo.

La llamada “cultura popular” se contrapone a la cultura oficial o hegemónica que intentan apuntalar los que mandan en un contexto sociocultural en un momento dado. Todo sujeto hace de la cultura popular un acto creativo en la misma medida que la lee, interpreta y utiliza a su modo[3]. Pensemos en una estrella del rock, en un personaje de cómic, en una serie de televisión o en nuestra saga literaria preferida… Si contraponemos nuestras interpretaciones de estos elementos a las que elaboran otros aficionados a los mismos –un amigo sin ir más lejos- nos daremos cuenta de que no tienen por qué ser coincidentes y de que, incluso, pueden ser motivo de grandes debates. La razón de ello es que cada uno de nosotros hace de esos elementos lecturas distintas y produce mensajes distintos a partir de idénticos contenidos. Sentimos como “propios e intransferibles” y los relacionamos con nuestra propia vida y experiencias. Y lo más interesante es que nos aferramos a estas lecturas particularizadas de la cultura popular para expresar diferentes formas de resistencia ante la cultura oficial. Ante ese mensaje único que se nos pretende imponer de suerte transversal[4]. Este fenómeno de individualización de los contenidos generales y construcción de resistencias simbólicas convierte en estrellas a los raperos más descarados, hace héroes populares de los revolucionarios como el Subcomandante Marcos, o motiva a los más iconoclastas a lucir camisetas impresas con la efigie de Charles Manson.

La psicología y la antropología nos han mostrado hasta la saciedad que los significados no son inherentes a las cosas y que tampoco vienen impuestos desde fuera de ellas. Los sentidos que una cultura peculiar otorga a sus elementos son producidos dentro de ella misma, precisamente porque los construyen las personas que viven dentro de dicha cultura. Los elementos de una cultura específica, vengan de donde vengan, son siempre elementos locales y tienen –o no- significados locales. Un póster con el rostro de Ernesto Ché Guevara, o una camiseta con el logotipo de Los Ramones, pueden no significar absolutamente nada para un pastor masai, y sin embargo son imágenes plenas de significados diversos para un europeo. Esto ocurre porque el Ché es un producto de nuestra cultura, no de la cultura masai, y solo será asimilado por ésta cuando se le atribuya un significado “desde dentro” que no tiene por qué coincidir con el que se le atribuye en Europa. En consecuencia, los significados que otorgamos a los elementos de nuestra cultura son reflejos de nuestras propias experiencias culturales, y solo de ellas.

Primitivo serás tú…

Los denominados “pueblos indígenas”, o las consideradas “culturas primitivas” no existen fuera de Occidente. Tales denominaciones son los nombres que nosotros damos a esas otras culturas que son distintas de la nuestra. Y es un nombre que ya nos invita, en tanto que poseedores de una cultura con pretensiones hegemónicas, a desposeer a los llamados “indígenas” o “primitivos” de sus propias culturas para tratar de integrarlos en la nuestra. En esta clase de colonización cultural, hay que reconocerlo, no solo los estadounidenses en particular, sino todos los occidentales en general, nos hemos especializado de una manera absolutamente magistral. El proceso es sencillo: en lugar de imponer a los miembros de otras culturas la nuestra por la fuerza, lo que solemos hacer es hacerlos partícipes de nuestra cultura popular, e invitarlos a integrarse en ella. Así funciona la globalización. Lo primero que hace Occidente cuando se encuentra con otra cultura es introducir en ella su cine, sus industrias, sus grandes almacenes y supermercados, los restaurantes de comida rápida, la música rock, los estilos artísticos y literarios, los videojuegos, nuestros deportes tradicionales –los Juegos Olímpicos o el fútbol serían el ejemplo superlativo de este proceso- o los iconos del cómic[5].

Parecería que este proceso invasivo es imparable. Sin embargo, los componentes de esas otras culturas se resisten a la asimilación en la misma medida de que también hacen sus propias lecturas de nuestra cultura popular y le otorgan significados propios. Es decir, los utilizan para generar su propia cultura popular. De este modo, en una investigación de campo se encontró que la película favorita de muchos aborígenes de los desiertos australianos era Rambo, pero que su lectura era muy distinta de la que hacemos en Occidente y, por supuesto, radicalmente diferente de la propuesta por sus creadores. Para ellos John Rambo era un representante del subdesarrollo que luchaba contra la clase de los oficiales y, en gran medida, era contemplado como una imagen de su odio hacia el paternalismo de los blancos y el racismo existente en Australia. Cuando el investigador quiso profundizar en el tema, se encontró con que los aborígenes imaginaban lazos tribales y de parentesco entre el soldado John Rambo y los prisioneros que rescataba en Vietnam pues están sobrerrepresentados en la población carcelaria australiana y, según su cultura, sólo quien tiene lazos de sangre con los cautivos estaría dispuesto a liberarlos de la tiranía y del encierro[6]. Como vemos, esta singular lectura de las películas de Sylvester Stallone son generadas a partir del texto y no inducidas por el propio texto.

Lo cierto es que todas las culturas tienen un gran componente imaginario que se expresa en la forma de fantasías, mitos, leyendas y cuentos. Actualmente, por influencia de los medios de comunicación de masas, esa variabilidad, la cantidad de posibilidades imaginarias, se ha multiplicado en todo el mundo. Hoy en día cualquiera puede imaginar muchas más vidas posibles que hace cien años. Fundamentalmente porque hoy nuestro universo personal es mucho más amplio en todos los sentidos del que era posible hace un siglo[7].

Se ve, pero no se cree

Los medios de comunicación masas han propiciado un sistema mundial de imágenes que, como vemos, antes que destruir pueden incluso reforzar identidades nacionales y étnicas de manera muy potente. De hecho, todos los estudios transnacionales acerca de la televisión muestran que, contrariamente a lo que creen algunos productores de teleseries norteamericanos –y algunos intelectuales confusos- de manera marcadamente etnocéntrica, la mayoría del público suele preferir los productos locales cuando estos reúnen unos estándares mínimos de calidad. Más todavía: cada vez cuesta más esfuerzos a las grandes productoras estadounidenses –HBO, NBC, CBS o FOX- introducir sus series en las televisiones extranjeras, pues reciben audiencias inusitadamente bajas cuando deben competir con producciones locales que reúnan ciertos requisitos como el de reflejar bien los estándares culturales propios.

En Brasil, por ejemplo, las series norteamericanas –incluso las más celebradas históricamente como Dallas, Dinastía, Star Trek, CSI o Perdidos– encuentran muy bajas audiencias en comparación con las telenovelas que produce TV Globo. La respuesta del público brasileño ante este fenómeno es rotunda: entienden que los productos de TV Globo están hechos por brasileños y para brasileños, por lo que reflejan mucho mejor sus condiciones de vida y son más sensibles a su manera de entender las cosas. Más aún: TV Globo, aunque resulte sorprendente, se ha convertido en una competidora directa con los Estados Unidos de América en la exportación de teleseries que vende sus producciones en más de cien países de todo el mundo. Lo mismo podría decirse de las series venezolanas o mejicanas a las que podemos llamar despectivamente culebrones, pero que tienen sin embargo audiencias muy sólidas y compiten en el mercado internacional con gran eficacia[8].

Hay casos aún más claros. En la India y otros países de su entorno como Pakistán, Tailandia o Nepal, las grandes películas norteamericanas pasan muy a menudo inadvertidas en las carteleras y en ningún caso pueden competir con las producciones locales. Más aún: la India es el país que más películas produce al año en todo el mundo –el famoso Bollywood– y buena parte de ellas obtienen recaudaciones récord. Tanto es así que, recientemente, los productores cinematográficos occidentales solo han podido diseñar una estrategia óptima para tratar de penetrar en ese mercado, o en el chino: copiarlo. ¿Acaso hay alguien que considere casual que el dinero y los premios occidentales apoyen producciones como Tigre y Dragón (Ang Lee, 2000) o Slumdog Millionare (Danny Boyle, 2009)? En España, por poner un ejemplo patrio, teleseries de gran éxito como Los Serrano (Telecinco), Aquí no hay quien viva (Antena 3), o Isabel (TVE1), por citar algunas, nunca tuvieron competencia en la parrilla televisiva, y todas las producciones cinematográficas o televisivas estadounidenses programadas por otras emisoras en su misma franja horaria, perdieron sistemáticamente la batalla por las audiencias.

¿Necesitan más ejemplos? Bien: Países como Nigeria o Egipto –por citar dos casos africanos- programan en sus televisiones productos norteamericanos muy excepcionalmente porque nada menos que el 75% de la audiencia prefiere siempre y en todo caso las producciones nacionales. El argumento del televidente, cuando se le pregunta por esta aparente contradicción, es obvio: estás series locales están repletas de momentos cotidianos con los que el espectador se identifica bastante más que con el discurso para ellos incomprensible y artificioso de Juego de Tronos[9].

En consecuencia, la idea de que el cine y la TV estadounidenses han colonizado el mundo –uno de los argumentos centrales de los defensores de la teoría de la “americanización”- es, simplemente, una falacia que se sostiene en algunos momentos, naciones y coyunturas para apuntalar convenientemente otros planteamientos políticos e ideológicos específicos y no siempre bien definidos. Las agendas ocultas funcionan por doquier. De hecho, los programadores de medio mundo se han convencido de que introducir en la parrilla algo que sea culturalmente ajeno solo es una opción cuando no hay alternativas locales aceptables. Podemos sintetizar la idea diciendo que, frente a la falacia de que cada vez somos más parecidos en todo el mundo a los norteamericanos, el sujeto, de manera automática y si puede elegir, tiende a ser proteccionista con su propia cultura popular en la medida que repleta de sentidos y significados propios que no debe reelaborar para comprender y asumir[10].

Hay otro detalle importante que desmiente la idea de que los medios de comunicación fomentan una visión mundial y única de la realidad, y que esta visión es necesariamente “americanizante”. Los inmigrantes musulmanes en casi todos los países del mundo no renuncian ni a su etnia ni a sus costumbres en la vida privada, y una de las maneras que habitualmente emplean para conseguirlo es sintonizar la cadena catarí Al Jazeera, ya sea mediante satélite o por internet. Además, las ventajas de la red a la hora de mantener los lazos de los inmigrantes con sus países de origen son evidentes: hoy en día gracias al correo electrónico, los chats, foros y videoconferencias, nadie se desarraiga de su cultura de origen si no lo desea. Es decir, la globalización, al menos en relación a la colonización cultural, se ha convertido en una monumental paradoja que la enfrenta a sí misma en un juego de suma cero. Y si no, que pregunten por los dolores de cabeza que esta cuestión provoca a los cuerpos y fuerzas de seguridad occidentales.

Lo no americano también es buen negocio

La otra gran fuerza transnacional clave son las finanzas en la medida que quienes se dedican a fabricar dinero, hoy en día, miran más allá de las fronteras nacionales en busca de lugares en los que invertir, o bien en busca de productos que comprar. Ya lo insinuamos antes en relación a la industria del cine. En un mundo que se ha hecho pequeño gracias a los nuevos medios de transporte y los medios de comunicación masivos, el dinero, las mercancías y las personas se persiguen unos a los otros alrededor del planeta[11]. Así por ejemplo, muchas comunidades iberoamericanas han empezado paulatinamente a perder autonomía económica en la medida que dependen cada vez más del dinero en efectivo que llega a través de la emigración laboral internacional. Incluso los Estados Unidos de América, que antes se encontraban casi por entero en manos de su capital doméstico, están cada vez más sometidos a la dependencia de la inversión de capitales extranjeros, hecho que convierte las actuales políticas proteccionistas de Donald Trump en la antesala de un desastre económico cuyas consecuencias futuras –ya sean internas o externas- son aún difíciles de calibrar. Y no sólo. En el presente la economía “más fuerte del mundo” depende como nunca antes en su historia de la mano de obra foránea, ya sea en la forma de inmigración laboral, o bien recurriendo a la deslocalización y exportación de puestos de trabajo[12].

Todo esto implica que la cultura global contemporánea está muy lejos de ser controlada interesadamente desde alguna parte en concreto del planeta. En realidad, se encuentra influenciada por flujos de personas, tecnología, finanzas, e información cuyos patrones se alteran constantemente. El mundo, ciertamente, camina hacia una cultura global de consumo de la que casi todos los países participan en mayor o menor medida. Rara es la persona en cualquier parte del planeta que no ha visto una valla publicitaria o camiseta anunciando un producto occidental, o que no utiliza alguno de ellos… Pero, y en un proceso de constante retroalimentación, del mismo modo que los grupos de pop-rock occidentales suenan en las calles de Río de Janeiro, la bossa nova se escucha con suma fruición en los bares copas de Madrid, Londres o Nueva York. De hecho, el “mundo-negocio” actual ha descubierto que las culturas no occidentales también son un buen factor de productividad si se las vende adecuadamente, por lo que no duda en introducirlas en el cine, en la televisión y los centros comerciales. Así se explica el fenómeno creciente de “lo étnico” –ya sea en el arte, la moda, la literatura o la música-, o el hecho de que cada vez con mayor asiduidad los protagonistas de películas o series de televisión respondan a perfiles interétnicos. Más aún: a través de iniciativas exitosas como el “comercio justo” los grupos tribales también empiezan a competir en el mercado internacional con sus propios productos, y en pie de igualdad. Incluso el “mercado de la ciencia” se encuentra cada vez más deslocalizado, al punto de que muchos de los más potentes grupos de investigación internacionales en buena cantidad de campos no son precisamente estadounidenses… La historieta del tal Sheldon Cooper es divertida, pero no se la crean.

¿Nos estamos, por tanto, “americanizando”? Los hechos indican que es un axioma difícil de creer a menos, por supuesto, que se emplee falazmente, como mero pretexto para la defensa interesada de algún que otro corralito ideológico. Más bien cabría decir que nos estamos “mundializando”.

imagen-activa


[1] Banco Mundial, World Development Report, 2000/2001, 2000: 310; International Herald Tribune, 23 de octubre de 2001; Los Angeles Times, 27 de septiembre de 2001.

[2] Edición del 16 de marzo.

[3] Fiske, J. (2003). Understanding Popular Culture. London: Routledge.

[4] Fiske, J., 2003, op. cit.

[5] Appadurai, A. (1990). Disjuncture and Difference in the Global Cultural Economy. Theory, Culture & Society, 7: 295-310.

[6] Michaels, E. (1989). For a Cultural Future. Francis Jupurrurla Makes TV at Yuendumu. Sydney: Art and Text.

[7] Appadurai, A., 1990, op. cit.

[8] Kottak, C.P. (2006). Antropología cultural. Madrid: McGraw-Hill Interamericana (11ª ed.).

[9] Kottak, C.P. (2016). Prime-Time Society. An Anthropological Analysis of Television and Culture. London: Routledge.

[10] Kottak, C.P., 2016, op. cit.

[11] Appadurai, A. (1991). Global Ethnoscapes: Notes and Queries for a Transnational Anthropology. R.G. Fox (Ed.), Interventions: Anthropologies of the Present. Santa Fe: School of American Research, 191-210.

[12] Rouse, R. (1991). Mexican Migration and the Social Space of Postmodernism. Diaspora A Journal of Transnational Studies 1(1): 8-23. DOI: 10.1353/dsp.1991.0011.

Sobre la moral, la pena y los delitos

Dilema Moral

Es el debate de los tiempos presentes: endurecer las penas e incrementar el control. Sacrificar libertades a cambio de seguridad. Otorgar, en suma, más poder a quien puede castigar aún a costa de renunciar a conquistas milenarias. Nunca funcionó y sabemos desde Cesare Beccaria (1738-1794) que es seguro que nunca funcionará, pero la verdad tiene escasa capacidad de competencia enfrentada al poder, al dinero o al albur de la circunstancia inmediata. Nadie piensa con prevención, orden y cordura cuando se siente apremiado por el presente:

“Las historias nos enseñan que debiendo ser las leyes pactos considerados de hombres libres, han sido pactos casuales de una necesidad pasajera; que debiendo ser dictadas por un apasionado examinador de la naturaleza humana, han sido instrumento de las pasiones de pocos”[1].

Legislar en caliente se llama hoy, eufemísticamente, a tal cosa cuando solo tiene un nombre coherente: insensatez.

Es tópico entre los más devotos partidarios del orden, la restricción y el castigo recurrir en sus explicaciones a la filosofía y la jurisprudencia anglosajonas a la hora de justificar sus posiciones. Al obrar así se pasa por encima del hecho de que tales modelos jurídicos son reflejo inmediato de la Ilustración. En todos ellos tiene gran importancia la jurisprudencia, están plagados de criterios utilitaristas y pragmáticos e, irónicamente, se esfuerzan en limitar el alcance y poder castigador del Estado. Cuando Benjamin Franklin (1706-1790), uno de los padres fundadores de los Estados Unidos, afirmaba que quien sacrifica su libertad para obtener más seguridad no suele obtener ninguna de ambas cosas, pensaba justamente en esta cuestión. Porque la penalidad es el negativo de la libertad y es obvio que cuanto más poder se concede a un Estado –o a un particular- para castigar, más fácil es que incurra en la vulneración de los derechos más básicos y elementales[2]. Así, la defensa ilustrada de las libertades y los derechos individuales, que consagra la Constitución democrática más antigua del mundo –la de los Estados Unidos de América- permite la independencia y la libertad de los individuos y, por simpatía, de las comunidades, y motiva, entre otras cosas, que el peso de los asertos taxativos y cerrados en torno a la calidad ético-moral de sus sistema penal deban ser matizados: en aquel país, desde el mandato constitucional general, hay tantos códigos penales como Estados lo constituyen, lo cual motiva que muchos de ellos no tengan, por poner el caso, legislada la pena de muerte, o simplemente no la apliquen. Ello por no mencionar que asumen un sistema jurídico extremadamente garantista –y por ello mismo carísimo- en el que los derechos del acusado son fundamentales y absolutamente inviolables.

Tampoco resulta menos manipulatorio sostener, por principio, que quienes están contra la dura lex son “buenistas”, gentes “políticamente correctas” o meros partidarios de eso que la retórica ultraconservadora llama “optimismo antropológico”. Habitualmente, la defensa del extremista y el demagogo suele comenzar por el ataque –por fútil que resulte-. Para empezar, la ofensa puede ser efectista, pero nunca es un argumento y solo debilita a quien la practica en la medida que solo disfraza su incapacidad argumental. La condenada “corrección política” es cosa que va y viene. Tiene más que ver con el estado de una cuestión sociopolítica concreta que con cualquier forma coherente de racionalidad, y no es argumento de nada o para nada. De hecho, igual de políticamente correcto podría ser –y lo ha sido en determinado contexto- defender la amenaza, el maltrato y la tortura bajo el pretexto discutible de que una sociedad tiene el derecho y el deber de defenderse de sus posibles enemigos pues, en realidad, nada tendría que temer quien nada hubiera hecho -uno de los argumentos favoritos de un tal Joseph Göbbels (1897-1945), por cierto-. Idea que solo puede sostenerse de manera convincente vendiendo la especie de que cualquier otra forma de pensar debe ser necesariamente irracional y absurda:

“Nada importaban el ingente número de leales judíos alemanes que había luchado con de denuedo –y perdido la vida en no pocos casos- durante la guerra ni el hecho de que hubiese en el país miles de judíos que no comulgaban con el comunismo ni con las izquierdas en general; para Hitler y sus seguidores resultaba mucho más fácil hacer de ellos el chivo expiatorio de los males de Alemania. […] Desde el principio sus partidarios [del Partido Nazi] aseguraron que el odio que profesaban a los judíos no provenía de un prejuicio ignorante, sino de un hecho científico”[3].

Defender los Derechos Humanos y los Derechos Fundamentales que consagran las constituciones democráticas de los Estados no es, como vemos, un “buenismo” ridículo, sino una cuestión de principio en la medida que la salvaguarda del derecho individual es siempre, y en todo caso, la protección de un bien colectivo. No tiene que ver con el posicionamiento moral particular de alguien en concreto, sino con la altura moral de una sociedad en su conjunto. No puede convertirse en motivo ofensa lo que es simple y llana educación ético-política, así como prevención contra la barbarie y la indecencia.

Uno de los más graves problemas históricos de las culturas de raíz judeocristiana es su hipertrofia moral, como ya denunciara Friedrich Nietzsche (1844-1900). De hecho, si el endurecimiento sistemático de las leyes por encima de la prevención y de la reinserción tiene el deber que argumentarse es, precisamente, como resultado directo de tal hipertrofia. Ello explica que durante las persecuciones de herejes del Medievo y el Renacimiento uno de los esfuerzos fundamentales de los órganos inquisitoriales fuera, precisamente, el de proveerse de buen material intelectual –médico, jurídico, teológico- desde el que justificar su aberrante conducta[4]. Por el contrario, para muchos pueblos de la antigüedad ajenos a tales exigencias teóricas este factum moral no suponía problema alguno. Era asumible o prescindible en función del caso, lo cual daba justificaba en su sentido último cualquier barbarie siempre que se cometiera sobre el sujeto adecuado. Hay quien llama a tales barbaries “moral natural”, cuando lo cierto es que se trata de expresiones de no-moral posibilitadas por el hecho de que el agresor está licitado para no ver a un igual en el agredido. Un hecho que fundamenta y posibilita prácticas milenarias como el supremacismo y la esclavitud. Si el progreso de la civilización es resultado de la aceptación colectiva de propuestas morales inalienables, la negación o anulación de la moralidad de todos y para todos –se argumente como se argumente- supone, de hecho, la erradicación de cualquier comportamiento civilizado en la misma medida que conversión de determinados sujetos, por cualquier razón, en meros objetos.

Ciertamente, Nietzsche erró en sus pronósticos en la medida que las consecuencias de su crítica nos retrotraen a estados amorales e incivilizados, pero no así en sus diagnósticos: la negación del mandato moral nos convierte en sociópatas, pero su hipertrofia nos conduce irremediablemente al moralismo. Y el moralista es, por definición, un individuo hipermoral, fanatizado y capaz –precisamente por ello- de cometer idénticos actos de brutalidad que el inmoral o el amoral. Si el amoral te aniquila porque te cosifica, y el inmoral te destruye arrastrado por su perversión emocional, el moralista te tritura porque te considera imperfecto, indigno y antisocial. La racionalidad, como bien explicó Immanuel Kant, tiene límites. No llega a todas partes ni alcanza a justificar cualquier posición a menos que se violen sus reglas interesadamente, incluso por encima de la propia conciencia. Hay hechos, como el del precepto moral universal, que no pueden someterse a cálculo científico y se deben aceptar como cuestión de principio. Como criterio para la acción.

“Si el hombre nada teme tanto como hallarse ante sus propios ojos en el examen interior de sí mismo, despreciable y repugnante, puede injertarse ahora toda una buena disposición moral de ánimo; porque ese es el mejor, el único vigilante para impedir que impulsos innobles y corrompidos penetren en el ánimo”[5].

La razón por sí misma no funciona en este ámbito. Hipertrofiada, pervertida, alterada, también puede justificar genocidios, asesinatos, torturas, vejaciones sin cuento. Con razones se contamina y con razones se limpia. La racionalidad, si es genuina y se atiene a reglas, no está de parte de nadie, ni sirve a nadie más allá de sí misma. No tiene un dueño fuera de sus límites ni es lícita su apropiación.

Jugar con los números

Llegados a este punto, amenazados por el temido monstruo del inmoralismo, el doctrinario, el autoritario, el extremista, empiezan a justificarse desde el consabido baile de cifras. Reiteraciones matemáticas mareantes. Estadísticas sin fin. Lo realmente sorprendente es que son precisamente esos mismos números, calcados a la milésima, los que emplearán discrecionalmente sus opositores para justificar sus alternativas. Algo hay aquí que no funciona. ¿Unos miran los números mal? ¿Y por qué razón peregrina hemos de suponer que los otros los miran bien? ¿No estarán indicando esos dígitos, tal vez, otra cosa cualquiera…? Quienes nos dedicamos a la investigación y la enseñanza de las Humanidades solemos ser plenamente conscientes de un hecho que a mucho obseso del guarismo y el cálculo se le escapa: que en los asuntos de lo humano todo dato numérico es indicativo e intencional, “apunta hacia” algo, pero jamás refleja una verdad cerrada por lo que se encuentra sometido a constante revisión. Precisamente por ello puede ser leído de tantas maneras dispares, diversas e incluso encontradas.

Se debe ser extremadamente cauteloso con los números y su uso debe ser orientativo, pero no prescriptivo: nunca hay una realidad social –o psicológica- obvia tras ellos y sí, por lo general, mucha interpretación ideológica. No son translúcidos. Asertos como: “la mitad de los ciudadanos creen…” deben leerse como: “la mitad de la cantidad limitada de ciudadanos a los que se ha preguntado opinan…”. Y luego vendrá la interpretación particular de los motivos por los que se estima que ese colectivo específico –no toda la sociedad- opina tal cosa.

Ciertamente, este es el más grave problema metodológico que deben enfrentar las Humanidades: tras miles de horas de trabajo teórico, recolección de datos y reflexión, siempre han de enfrentarse al vértigo del salto a lo real. En efecto, Jorge Luis Borges (1899-1986), hombre indiscutiblemente perspicaz, advirtió este hecho a la perfección cuando dijo que la realidad solía ser muy poco interesante comparada con cualquier hipótesis acerca de ella, por la simple razón de que una hipótesis tiene la obligación de resultar, cuando menos, “interesante”. Por eso se avanza tan lentamente en la comprensión de los fenómenos de lo humano: las personas no son piedras. No comen con aceleración constante, no duermen según la ley de Boyle-Mariotte y, en general, no viven sus vidas particulares de acuerdo a los principios de la termodinámica. La Humanidad no cabe en una ecuación y, en la mayor parte de los casos, quienes pretenden atraparla en simples números no hacen otra cosa que jugar al reduccionismo.

Se nos dice, por ejemplo: en las cárceles de tal nación hay tantos presos, más que hace no sé cuánto tiempo y suponen, en proyección, un X% menos de los que habrá dentro de diez años. Siempre, más allá de la mera noticia, cabe preguntarse cómo se nos cuenta tal cosa y qué se nos quiere decir con ella. Un eminente sociólogo como Edwin Sutherland (1833-1950) llegó a conclusiones más operativas sin dar tantos rodeos: ni todos los que están en las cárceles son delincuentes, ni todos los delincuentes están en las cárceles… de hecho, hay delincuentes terribles -especuladores, asesinos medioambientales, arruinadores de naciones enteras, genocidas y otras hierbas-, peores que los peores de muchas prisiones que no han visto ni verán una celda en toda su vida y que, en muchos casos, cuentan incluso con una elevada consideración social. ¿Hay estadísticas de eso? Las prisiones, en toda época y lugar, han sido siempre alimentadas mayoritariamente por los estratos más bajos de la escala social para cuyas costumbres –más o menos dolosas para la opinión de los grupos hegemónicos- el cuerpo social diseña la mayor parte de los delitos y las penas –Foucault dixit-. Parecería que la sociedad no solo tolera el maltrato al reo, sino que por su propia dinámica lo exige.

Se trata de una evidencia histórica que no necesita de mayor justificación pues se descubre simplemente leyendo: salvo casos de la más rotunda excepcionalidad, no hay –ni ha habido- ricos en ningún corredor de la muerte o sala de torturas del mundo. Los códigos penales de los países avanzados tienden a ser durísimos con cierta clase de tipos delictivos que concitan el interés voluble de la opinión pública y, sin embargo, extremadamente garantistas con los delincuentes de cuello blanco, cuyas actividades tienen consecuencias devastadoras, pero difusas. Parece que cuando la víctima es identificable por la acción directa de su victimario y tiene nombre y apellidos, es más víctima. Es más adaptativo en términos biológicos  y psicológicos simpatizar con el sujeto que compadecer al grupo.

Se nos cuenta, por ejemplo, que en cierta época y en ciertos lugares se derogó la pena capital y automáticamente la cantidad de delitos ascendió. Así de simple. Tanto número para terminar siendo tan intelectualmente ramplón y terminar, por cierto, burlándose de la estadística. No es solo que se trate de una afirmación demostrablemente falaz, es que además, en el caso en concreto que pudiera acercarse a una certeza, siempre cabría preguntarse cosas interesantes: ese aumento o disminución de las tasas criminales, ¿depende solo de cuán dura sea la pena que se impone? ¿No influyen otros factores? ¿Los hechos sociales son unívocos, unidireccionales, y pueden ser explicados fuera del órgano en el que se insertan? ¿Para eso tanto dato? Desde luego, Emile Durkheim (1858-1917) se moriría de la risa ante tanta banalidad. No se dice con todo esto que la estadística sea aporte inútil o arma innecesaria y que, por tanto, no deba realizarse o tenerse presente. Sólo un imbécil redomado sostendría tal cosa sin ponerse colorado. Lo que se dice es que orienta y ayuda, pero solo ilustra y nada explica por sí misma. Que la pasión del presente por buscar regularidades universales y tendencias en procelosos mares de datos es poco menos que una moda pasajera a la que más pronto o más tarde se reconocerá como instrumento de apoyo, pero de “verdad” anecdótica. Porque el problema de la calculadora no reside en lo que ella “hace” con los números, sino en los números que le introduce “quien” la emplea[6].

En el fondo argumental de las posiciones partidarias a la limitación de derechos, el endurecimiento de penas, la aplicación de castigos cada vez más severos y etcétera, siempre late una idea que opera en su fondo como correa de transmisión. A saber, que esa postura nos hace “más civilizados” en la medida que, de algún modo, nos acerca al sufrimiento de esa víctima con nombre y apellidos. Nos sintoniza con su desgracia. Nos coloca en la siempre agradable posición de la defensa del individuo y, a través suyo, en su nombre y por simpatía, del cuerpo social en su conjunto. Nos aligera la conciencia. Nos permite cabalgar sobre la cresta de la ola de un malentendido altruismo. Y esa es precisamente una tentación a la que no se debiera sucumbir en tanto que prejuicio sentimental que poco o nada tiene que ver con la justicia en sí misma.

La metáfora del asesino

Hace varios años entré en una librería de viejo –esas que solemos recorrer los buscadores de rarezas- y un libro me encontró. Todavía lo conservo. Se trata de un texto autobiográfico escrito por un pastor metodista que fue capellán de varias prisiones en los Estados Unidos, especialmente en la célebre cárcel de San Quintín, lugar en el que hace años funcionaba una maravillosa cámara de gas que hoy es pieza de museo que se muestra a curiosos, amigos de lo macabro, nostálgicos del Medievo y sadomasoquistas en general[7]. El hecho es que, en calidad de capellán, este buen hombre asistió a muchas ejecuciones y compartió con muchos presos sus vidas en el corredor de la muerte.

Como es de suponer, el texto estaba repleto de la tópica verborrea cristiana al uso y de análisis no menos fastidiosos y extensos de la situación espiritual de los condenados durante las diferentes fases del proceso. Pero hacia el final incluía una interesante reflexión: Imagínense –decía su autor- que un asesino sádico ciertamente especial y terrible secuestrara a una persona, la encerrara en una habitación y le dijera algo como:

-Te voy a matar, pero no sé bien cuándo. Tal vez mañana, tal vez dentro de una semana o tal vez dentro de un año. Pero te aseguro que, pase el tiempo que pase, sólo saldrás de aquí muerto. Y lo voy a hacer por tal y tal motivo.

En efecto, este peculiar asesino se encargaría de alimentar a su prisionero, de mantenerlo limpio y vestido, de sacarlo a pasear al patio trasero de la casa de vez en cuando… Hasta que pensara que había llegado el momento de darle muerte. El prisionero incluso engordaría, estaría con buena salud y llegaría a intercambiar confidencias con él. Hasta que un día cualquiera entrara en la celda y le dijese:

-La semana que viene, a tal día, a tal hora, morirás.

¿Qué pensaría usted de un asesino como ese?

Bien, imagine ahora que ese criminal tan perverso se llama Estado. Que ese sujeto somos todos nosotros, erigidos en un organismo meta-humano que ya no tiene cara, cuerpo, familia, trabajo o nombre, pero que hace exactamente eso mismo con perfecta meticulosidad, presteza y eficiencia. Piénselo bien y advertirá el hecho central que nadie quiere reconocer cuando defiende este tipo de posturas, pero que inevitablemente late en el fondo de ellas. En efecto. Son posibles, pueden existir y ser defendidas alegremente porque implican necesariamente la despersonalización. No es un “yo” quien mata, castiga o tortura, sino “el Estado”. Un “todos”. Esa forma de pensar cínica y tremenda es precisamente la que sirvió a Luis García Berlanga para construir una de sus más memorables y críticas películas: El Verdugo… Este trabajo, el de verdugo, es necesario para el buen orden social, pero que lo haga otro…[8] ¿Paradoja? Porque esta es precisamente la primera cuestión que conviene hacerse: ¿Estaría usted dispuesto a ejercer como verdugo? Dejémonos de argucias intelectuales y vayamos a lo concreto, a lo terriblemente real, entero y verdadero. Es una cuestión, posiblemente, fácil de responder sentado frente a un teclado, rodeado de libros, con nuestro disco favorito sonando al fondo, un cafecito y gesto intelectual. Pero aquí no se trata de hablar, se trata de hacer. Se trata de que todos nos pongamos de acuerdo para matar a una persona. ¿Eso pretende defenderse como “civilizado”?

Si no tenemos un trasfondo personal tenebroso, y quiero decir con ello que no mostramos tendencia a alegrarnos de los males ajenos -hay gente que, desde la imbecilidad moral más básica, confunde términos y supone que defender determinada causa debe terminar necesariamente con el maltrato de quienes se oponen a ella-, entenderemos que las razones por las que la gente comete delitos son múltiples y variopintas. Hay gente que roba porque lo necesita y gente que lo hace porque es más fácil que trabajar. Hay gente que roba porque es lo único que sabe hacer y gente que lo hace porque no quiere hacer otra cosa. Incluso hay quien roba tonterías como respuesta a un trastorno psicológico. Erradiquemos de buena vez la simpleza que impera en el discurso social a la hora de enjuiciar a los demás. Hay personas que matan porque les gusta, otras se confunden, algunas pierden momentáneamente la razón, en algunos casos no ven más salida que el asesinato, a veces no tienen otra opción, del mismo modo que hay quien mata para defenderse y quien mata por accidente. La experiencia profesional me dice que “los buenos” pueden matar exactamente igual que “los malos”. Que solo basta con someter al individuo a determinadas circunstancias y presiones. Hay sujetos que matan por sistema y sujetos que matan sólo una vez. Los hay que tienen arreglo y los hay que no cambiarían aunque naciesen dos veces. Y aquí es donde se presenta el partidario de la dura lex –que ante todo quiere seguir pareciendo una persona respetable y moral- y nos dice: “es que las penas, por duras que sean, deben ser aplicadas racional y razonablemente”. ¿Cómo de razonablemente? ¿Mediante qué principios indiscutibles, inalterables y carentes de excepción? Usted quiere mecanizar y legalizar la barbarie homogeneizando situaciones completamente heterogéneas. ¿Y eso se defiende como “civilizado”?

El problema de los límites

Nuestros modelos jurídicos son limitados en lo referente a su capacidad de esclarecer las causas últimas de los delitos, así como para argumentar racionalmente algunas de las sentencias que emite y que, sin embargo, están ajustadas a derecho. De hecho, no existe ni ha existido en el mundo un solo sistema de justicia perfecto en este sentido. Ni existirá. Da igual cuántas precauciones apliquen los legisladores al mismo y cuánto cuidado pongan sus actores. Ello es resultado de evidencias tan claras que sólo los obtusos o los extremistas se niegan a ver: 1) lo moral y lo ético no son lo mismo; y 2) las leyes tienen texto, pero también espíritu.

La justicia sólo juzga a las personas por la calidad de sus acciones –eticidad-, pero nunca por los principios psicológicos que las motivan –moralidad-. Los actos se ven. Son claros y concisos. Los principios se deducen, se imaginan, se estiman. La tragedia de todo esto es que un individuo puede cometer actos terribles con las mejores intenciones, y viceversa. Y ante un tribunal no vale lo que se estima como cierto desde la convicción, sino en todo caso lo que se puede probar de acuerdo a derecho. Por ello encogerse en rincón haciendo pucheros y argumentando que “la ley no es justa” es equivalente a decir que “el agua moja”. La dañina creencia en el “mundo justo” es cosa tan infantil y cuasi religiosa que provoca profunda fascinación. Pero es que debe ser así. No es una casualidad arbitraria la que exige que la justicia opere de tal modo. Condenar o liberar por convicción nos conduce irremediablemente a los tiempos de la caza de brujas, en los que todos estaban “convencidos” de que las brujas existían. Condenar o liberar por convicción es condenar arbitrariamente, porque cualquiera puede estar perfectamente convencido de cualquier cosa, sea cierta o no. Idéntico argumento es aplicable a la tortura, y por ello las leyes de las naciones avanzadas, así como el derecho internacional, la proscriben y persiguen: bajo condiciones de tortura cualquier persona puede confesarse autora –por acción, omisión o complicidad- de cualquier disparate[9].

Dado que el sofisma es una plaga común de los tiempos presentes, cada vez es más fácil encontrarse que uno de los asertos más socorridos del partidario de la pena de muerte, del endurecimiento de las penas, de la no reinserción, del castigo mondo y lirondo, cuando es enfrentado consigo mismo -no olvidemos que estamos ante personas que viven necesariamente en la contradicción permanente de defender la vida, la dignidad y el derecho negando, a su vez, la vida, la dignidad y el derecho de determinados individuos o colectivos- es el que apela directamente a una pretendida falta de moralidad en quien se le opone: ¿Y qué hay de las víctimas? ¿Es que acaso las víctimas no tienen derechos? ¿Es que el criminal debe ser protegido entretanto las víctimas han de soportar estoicamente sus abusos? Debo decir que, por lo común, me sorprende que personas adultas y a menudo bien formadas tengan tan escasa flexibilidad mental y sean tan profundamente infantiles en sus juicios.

Resulta que en la misma medida que se intenta defender los Derechos Humanos, la dignidad, la justicia y el respecto de todos y para todos –empezando por el Estado, que debe dar ejemplo en el cumplimiento escrupuloso de las leyes que él mismo promulga y en las que se sostiene-, somos necesariamente culpable de algo. De una especie de crimen terrible y oscuro que nos convierte en monstruos. El defensor selectivo, ergo inmoral, de los castigos y de las torturas nos acusa de inmoralidad. ¿Se puede ser más cínico? ¿Esto es maldad o simple estupidez? ¿Se olvida que torturar, castigar, penalizar, robar, violar, agredir o matar es discrecional e impredecible? Cualquiera puede hacerlo. Ahora o mañana. Por un motivo u otro y nadie puede impedirlo. Siempre habrá quien delinca por cualquier motivo y, por tanto, siempre habrá quien deba convertirse en inopinada víctima. Nadie es responsable de esto excepto el criminal cuando se demuestra que lo es –por ello se le detiene y se le juzga de acuerdo a derecho-. Nadie puede culpabilizarnos de que el crimen, cualquiera que sea su modalidad, exista. Nadie puede decirme sin sonrojarse que defender el cumplimiento de la ley me iguala a quienes la transgreden.

Yo no estoy de parte más que de la defensa de la vida humana, de la justicia, del derecho, de la dignidad de la persona… Porque una sociedad que no respeta los derechos de sus culpables, de sus acusados, de sus condenados, es, sépanlo, una sociedad tiránica, deshumanizada y perdida que no respetará los derechos de nadie en absoluto.

“Bajo Stalin, la Unión Soviética había evolucionado, lentamente y de forma titubeante, de un estado marxista revolucionario a un enorme imperio plurinacional con un barniz de ideología marxista y continuamente preocupado por la seguridad de sus fronteras y por las minorías. Debido a que Stalin heredó, mantuvo y dirigió el aparato de seguridad de los años revolucionarios, estas preocupaciones derivaron en estallidos de matanzas nacionales […], y en episodios de deportaciones nacionales que empezaron en 1930 y prosiguieron durante toda la vida de Stalin”[10].

Ocurre, por lo demás, que extremar la dureza de las condenas e incrementar exponencialmente las penas cada vez que se presenta un caso sonado –los motivos y procesos por los que unos crímenes se hacen “famosos” entre la opinión pública y otros se ignoran por completo es un misterio que nadie ha sido capaz de descifrar del todo-, no ayuda en modo alguno a paliar el dolor de la víctima. Otro de los graves déficits de la justicia reside en el hecho de que no puede restituir en modo alguno los males causados. Si alguien incapacita de por vida a otra persona por causa de accidente, puede ser denunciado y castigado por su imprudencia, hecho que proporcionará una ventaja moral a la víctima, pero ello no restituirá su integridad física o psíquica. El dolor permanecerá a menos que se aprenda a convivir con él. Nada lo cubre y nada lo tapa. El mal recibido nunca es restituido o reintegrado de suerte simétrica a quien nos lo procura y, en cualquier caso, sería dudoso creer que ello fuera justo. El resentimiento de quien es objeto y objetivo del crimen es algo natural. De hecho humano y, por tanto, perfectamente comprensible. Pero la razonable sed de justicia no debe confundirse con el arrebato de odio o el simple deseo de venganza que, realmente, no conducen a nada y tampoco anulan o palian el dolor del victimizado. El más terrible de los castigos contra el agresor, la permanente y lícita exigencia de perdón y respeto, no borran ni la agresión recibida ni sus secuelas. La solución a esas cuestiones íntimas no reside ni tan siquiera centralmente en el derecho. Se encuentra en otra parte. El hecho que nadie parece querer comprender es el siguiente: el problema que la víctima plantea a la sociedad es diferente del que le plantea el victimario y, en consecuencia, ambas cuestiones han de abordarse de forma independiente.

Contrariamente a lo que el común de los mortales cree, la justicia moderna no está hecha para castigar a los culpables, sino para proteger a los inocentes. Y debe ser así porque cualquier otra cosa degeneraría en un estado reduccionista, policial, infame y peligroso. Ya ha sucedido. No respetar arbitrariamente los derechos de determinados colectivos es abrir la puerta a un sutil riesgo: el de que mañana alguien decida que nadie –o solo unos pocos- tienen cierta clase de derechos. Es evidente que las garantías que se imponen para proteger al inocente permiten a algunos culpables zafarse del abrazo de la ley, pero este es un problema que hemos de asumir si queremos evitar males mayores. Las garantías son imprescindibles para proteger a quien es acusado injusta o erróneamente. ¿Es preferible que se detenga a cualquiera, con cualquier pretexto y se le torture hasta la muerte por miedo a que sea culpable? ¿Esto es lo civilizado?

Es preferible un sistema judicial garantista que se esfuerza por seleccionar y extraer las manzanas podridas del cesto de las sanas, que aquel que piensa por principio que todas las manzanas están podridas. La justicia y la aplicación de las penas no pueden ser retributivas porque ello las conduciría al absurdo. Y si la justicia no puede operar desde la retribución, tiene que buscar el espíritu de la reinserción, pues algo tiene que hacer para afrontar el problema del delito de modo constructivo, operativo, eficaz.

El problema de los modelos penitenciarios actuales es que, más allá del mandato constitucional en el que basan, han evacuado de su seno la pedagogía por diversas razones. La principal son los costes. El actual modelo jurídico-penitenciario, oscuro y poco ilustrativo, nada amigo de ofrecer explicaciones, y ciertamente limitado en sus capacidades, ha motivado un crecimiento exponencial de sus detractores y críticos, cosa que conduce al populismo: aumento de los partidarios de las medidas extremas, los castigos, el endurecimiento de las penas e incluso, en la exigencia de la pena de muerte como medida pretendidamente ejemplarizante. De nada sirve que se viva en un país básicamente seguro, o que las cifras de la criminalidad sean razonables para el volumen creciente del cuerpo social. Ello no sirve frente a los enemigos de las libertades que se agazapan en todas partes. El hecho es que hoy la ciencia cuenta con medios eficaces en lo relativo a la prevención y corrección de las conductas delictivas, pero no solo ocurre que no se publicitan en un silenciamiento manifiestamente sospechoso, es que el contribuyente tampoco quiere invertir en recursos para las prisiones, ni en programas de reinserción, ni en terapias, ni en cosa alguna que pueda sonar a conceder a los reos –que ante todo deben ser castigados por sus iniquidades- alguna suerte de ventaja que pueda, remotamente, incomodarnos frente a la víctima.

Seamos sinceros: Los contribuyentes prefieren que sus dineros se gasten en otras cosas, ignorando que una buena política de reinserción contribuiría más a su propio beneficio que una buena carretera. Así es el abrazo del autoritarismo. Ciego, irracional e implacable. Y con total independencia de las tasas de reincidencia –esa cifra que irónicamente no suele servir a quien tanto se sirve de ella, y por ello nunca se ofrece al gran público- homogeneizamos casos y cosas. Dado que no contamos con los medios para hacer obrar de otro modo -ni pensamos arbitrarlos-, institucionalizamos al convicto y a otra cosa.

No es caso de convencer a alguien de algo tan ridículo como que todos los condenados/as, con total independencia del delito que hayan cometido, son salvables “almas de Dios”. Pero una mayoría sí. ¿Qué hacer con el resto? Pues precisamente lo mejor que podemos hacer: Investigar, estudiar, comprender sus motivaciones y prevenir a los que vendrán… Porque vendrán. Hoy la ciencia está en disposición de ello como no lo ha estado nunca antes en el pasado, precisamente porque hemos ido desprendiéndonos, no sin esfuerzos, de buena parte de los prejuicios pseudocientíficos que la inundaban respecto de la consideración del crimen. Precisamente, el argumento invalidatorio más importante para los partidarios del endurecimiento extremo de las penas como medida coercitiva eficiente reside en la ignorancia de que el crimen, en tanto que fenómeno psicosocial, va mucho más allá lo meramente policial, jurídico o penitenciario y se relaciona, de suerte intrínseca, con variables ajenas a la redacción, aprobación y cumplimiento de las leyes.

Panoptico


[1] Beccaria, C. (1993). De los delitos y de las penas. Madrid: Alianza, pp, 25-26.

[2] John Locke (1632-1704) o Jeremy Bentham (1748-1832), por ejemplo, referencias comunes en este contexto, no eran partidarios de la acumulación de poder, la justicia vengativa, los castigos excesivos o la represión sistémica, cosas que consideraban contrarias al buen orden y al gobierno democrático en tanto que enemigos directos del valor del individuo: “La teoría del castigo de Locke es liberal porque se funda en ciertos principios y valores individualistas. En efecto, una teoría del castigo que no tome en serio el valor del individuo difícilmente podría entenderse como una teoría lockeana del castigo. […] La sugerencia de que el individuo debe mantener su derecho a efectuar/actualizar su derecho a amenazar a otros y, en consecuencia, mantener su derecho natural a castigar en el contexto de una comunidad política, es algo que ninguna propuesta genuinamente lockeana podría defender” [Donoso, A. (2012). Hacia una teoría liberal del castigo: Locke, propiedad e individualismo. Revista de Ciencia Política (Santiago), 32, 2, 433-448].

[3] Rees, L. (2007). Auschwitz. Los Nazis y la “solución final”. Barcelona: Crítica, p. 36.

[4] López-Muñoz, F. & Pérez-Fernández, F. (2017). El Vuelo de Clavileño. Brujas, pócimas, fármacos, médicos e inquisidores a través de la literatura cervantina. Madrid: Delta Publicaciones.

[5] Kant, I. (1995). Crítica de la razón práctica. Barcelona: Círculo de Lectores.

[6] Véase, por ejemplo: El gran problema del big data: las mentiras de los consumidores y la información falsa. PuroMarketing.com [visitado en mayo de 2018].

[7] Eshellman, B.E. & Riley, F. (1963). Pabellón de la muerte. Día de ejecución. Barcelona, Madrid: Dux, Ediciones y Publicaciones.

[8] Sueiro, D. (1974). La pena de muerte. Ceremonial, historia, procedimientos. Madrid: Alianza.

[9] Tomás y Valiente, F. (1973). La tortura en España. Estudios históricos. Barcelona: Ariel.

[10] Snyder, T. (2011). Tierras de sangre. Europa entre Hitler y Stalin. Barcelona: Galaxia Guttenberg, pp. 389-390.

La mecánica de la persuasión

Cerebro Publicitario

Una buena forma de delimitar el tema de la persuasión en los medios de comunicación de masas pasa por establecer los márgenes de lo que puede -o no- ser entendido y tratado como “manipulación” y/o “control” que, en gran medida, acotarían los ámbitos de lo que podría considerar “propaganda” frente a lo que no sería otra que “publicidad”. No obstante, caracterizar los conceptos de publicidad y propaganda -como sucede con la mayor parte de los conceptos relativos a los diversos aspectos de la comunicación- tampoco es tarea fácil. Sobre todo porque habitualmente suelen fundirse y confundirse tanto en la teoría como en la práctica. En todo caso podría servirnos para introducirnos cualquier definición coherente de lo que entendemos por publicidad:

“[La publicidad es] una actividad comunicativa mediadora entre el mundo material de la producción y el universo simbolizado del consumo, que permite que los anunciantes, merced al desarrollo de un lenguaje específico, creen demanda para sus productos, pudiendo no sólo controlar los mercados, sino incluso prescindir de ellos” [1].

Debe insistirse en la idea de que la publicidad no tiene tan sólo una dimensión comercial, sino que también es una comunicación pagada, intencional e interesada, imprescindible al sistema de producción vigente dado que en él los productores y los consumidores se encuentran desvinculados[2]. Así, la publicidad obraría como elemento mediador entre ambos de suerte que el consumidor conoce mediante la publicidad la gama de elementos de consumo que la sociedad le ofrece. De tal modo aquella publicidad que en sus orígenes tenía una mera finalidad informativa es ahora, a causa del crecimiento incesante de la oferta y la subsiguiente competencia, un elemento persuasivo que incita al consumidor potencial a la búsqueda de un producto u otro de entre todos aquellos que se le ofrecen. No puede olvidarse que la estimulación del elemento consumista entre el público es, al menos en parte, lo que permite que el sistema de producción perdure o, por mejor decir, que se mantengan las estructuras económicas vigentes.

Frente a la imagen vulgar –y excesivamente benévola- de la propaganda como forma de publicidad, debe plantearse la idea de que la publicidad es ante todo un proceso transaccional económico-comercial entretanto la propaganda opera como forma de difusión persuasiva de diferentes motivos ideológicos. Pretensión, por lo demás, ligada a los propios orígenes terminológicos del concepto puesto que la voz “propaganda” aparece en relación a la locución latina Propaganda Fide, nombre que adoptó la congregación vaticana destinada a la difusión de la fe católica[3]. De tal manera, se llama conoce como propaganda a la acción de divulgar doctrinas e ideologías con la finalidad intrínseca de ganar adeptos a las mismas. Y si en su génesis esta difusión se refería a idearios religiosos, el devenir de los tiempos ha extendido la propaganda a infinidad de manifestaciones de la vida, de las cuales la más conocida –pero en absoluto única- sería la política. Sucede además que en el devenir histórico la polisemia ha empantanado con matices el concepto, de suerte que también han pasado a ser consideradas “propaganda” la propia organización que pretende difundir un ideario concreto, la doctrina difundida, las técnicas que se emplean para tal fin, e incluso los medios materiales con los que esta difusión es llevada a cabo[4].

Tanto en el diseño de las estrategias publicitarias como de las campañas propagandísticas -a pequeña o gran escala-, el emisor siempre es capaz de persuadir en alguna medida acerca de la bondad de aquello que ofrece por la razón elemental de que posee un pleno control sobre el mensaje, el medio de transmisión y las condiciones en que será recibido por el receptor potencial. Del lado del receptor, pues, quedaría tan sólo la voluntad de dejarse -o no- persuadir por el discurso que se le transmite. Esto es así porque tanto publicidad como propaganda cuentan, más allá de la mera manipulación del mensaje, con elementos añadidos de persuasión que generan en los sujetos diana –o target– una voluntad de cambio y un impulso hacia la acción. Estos elementos generalmente apelan a criterios puramente psicológicos y permanecen ocultos al propio mensaje.

Propaganda Fide Roma (Fuente La Stampa)
Sede de la antigua “Propaganda Fide” en Roma (Fuente: La Stampa).

Fabricando ideologías

La intención del propagandista es la de promover unos intereses propios de suerte que las preferencias del receptor pasen a un segundo plano, o bien, puedan obviarse. Los contenidos del mensaje que se construye, pues, están supeditados por entero a esta finalidad y su eficacia será valorada, únicamente, en función del fin para el que ha sido elaborado. Ahora bien, la historia de la propaganda muestra que es mucho más efectiva cuando las verdaderas intenciones del emisor, e incluso su propia identidad, permanecen en el anonimato. De esta manera el mensaje se transforma en una o varias ideas en absoluto ingenuas que “se dicen”, “se creen” o “se comentan” por todo el mundo a la vez, pero por nadie en particular, dejando así su poso tanto en la mentalidad colectiva como en la individual.

Esto es así porque la respuesta habitual de las personas ante la persuasión es en primer lugar defensiva: si alguien sospecha que el mensaje que se le transmite es propagandístico -luego de intención manipulatoria- no tardará en preguntarse por el sesgo del emisor y sus posibles intereses[5]. Así pues, el primer y más importante reto del propagandista dentro de la sociedad de la información del presente en las que la opinión, la cultura, y la educación son de dominio público y accesibles a la par que transmisibles a todos, es el de no parecerlo. Las premisas, los mensajes, las autorías, deben ser debidamente disfrazadas al ojo crítico del receptor. Ello nos permite comprender, precisamente, el fenómeno cada vez más extendido de las fake-news o noticias falsas: camuflar como información fidedigna lo que en realidad no es otra cosa que un discurso ideológico-persuasivo, en la esperanza de que el usuario acepte la pretendida noticia como auténtica y eluda su posterior contrastación.

Los recursos del emisor de propaganda para camuflar el discurso o alejarse del mismo son, en muchos casos, tan viejos como la propia humanidad y se relacionan estrechamente con la simulación y/o la disimulación, así como con la activación de los resortes emocionales más básicos: la charlatanería de hacer creer que no se gana nada con lo que se dice; ofrecer una imagen equívoca o tergiversada de uno mismo alegando debilidad, falta de poder, ingenuidad o ineficacia; lanzar el mensaje de manera espontánea, como por casualidad, de manera que no parezca elaborado previamente; apelar a la movilización de las emociones más básicas –ira, temor, tristeza, alegría- o, sencillamente, idear consignas pegadizas que resulten fácilmente aprehensibles y repetibles por la audiencia[6]. No basta, por consiguiente, con poner el mensaje en manos de un buen orador o con argumentar retóricamente que se dice la verdad. En el fondo el asunto es más sibilino ya que se trata de encontrar la manera de expresar lo que se desea haciendo al receptor partícipe de ello, motivándole a creer que eso y no otra cosa es lo que realmente quiere escuchar, saber o hacer. Se trata, pues, no de una cuestión retórica –confusión muy común- sino de una cuestión erística[7].

El éxito de las armas psicológicas de la propaganda se consolida en el miedo de las personas a ser excluidas u obviadas por el colectivo. El sujeto individual experimenta una intensa fobia a “ser diferente” o “entrar en conflicto consigo mismo” y, en consecuencia, a tener que pensar y obrar libremente, tal y como mostraron muchos de los célebres experimentos de Leon Festinger en torno a la disonancia cognitiva[8], las propuestas de Erving Goffman en relación al estigma[9], o las propuestas de Aaron Beck en relación a las distorsiones cognitivas[10].

De hecho, el propio cuerpo social observa a las personas que no asumen con facilidad el ideario colectivo –o estandarizado, lo que es “normal” creer o pensar- como tipos excéntricos, raros e incluso potencialmente peligrosos[11]. Una tesis, por lo demás, ya clásica en el estudio psicosociológico –y antropológico- de la cultura occidental y que se ha fundamentado y sistematizado con gran finura en la literatura y el pensamiento contemporáneos. El problema es que, por norma, una vez enfrentadas a la expectativa de esta soledad existencial que suponen el pensamiento crítico, la libertad de acción y la autonomía personal, la mayor parte de las personas en conflicto tienden a optar “desde dentro”, como si se tratara de sus propios y razonados puntos de vista, por cualquiera del repertorio de soluciones cómodas, políticamente correctas y automatizadas que la sociedad les ofrece. Se establece de tal modo un círculo vicioso, pues se obliga a los individuos a un constante reajuste interno en la medida que “desde fuera”, se los somete sin descanso a cientos de mensajes contradictorios, equívocos o simplemente incontrastables que terminan limitando su capacidad de acción y decisión eficientes: no hay elementos de juicio nítidos por lo que un pensamiento crítico, sólido y racional se torna virtualmente imposible. A esto precisamente se referían autores con Jean-François Revel cuando argumentaban que,

“se sabe qué lugar ocupan en nuestra actividad psíquica las delicadas asociaciones de falsedad y sinceridad; la necesidad de creer, más fuerte que el deseo de saber; la mala fe, por la cual tomamos la precaución de disimularnos la verdad a nosotros mismos para estar más seguros de nuestra firmeza cuando la neguemos delante del prójimo; la repugnancia a reconocer un error, salvo si podemos imputarlo a nuestras cualidades; finalmente –y sobre todo- nuestra facilidad para implantar en nuestro espíritu esas explicaciones sistemáticas de lo real que se llaman ideologías, especie de máquinas para escoger los hechos favorables a nuestras convicciones y rechazar los otros […] Recordemos que todas las maniobras y contorsiones mentales y morales que hemos evocado tienen una finalidad común: dispensarnos de utilizar la información y, sobre todo, impedir dejarla utilizar, es decir, dejarla circular. Es bien evidente que a tal efecto la mentira simple constituye el medio más económico”[12].

Vendiendo humo

Nos surge, pues, una pregunta: ¿hemos de conceder a la publicidad más pureza moral o mayor integridad ética que a la propaganda? En primer lugar, existe una distinción que nos servirá para deshacer ese primer engaño de la publicidad que al mismo tiempo es una de sus mejores armas y la primera falacia psicológica con que se nos aproxima: el “emisor real” de la publicidad -la empresa que anuncia el producto- suele esconderse bajo la máscara de un “emisor aparente” -la persona, animal o cosa que se nos presenta en el anuncio-. El juego de identificaciones entre ambos es tan intenso que en ocasiones perdemos de vista quién o quiénes están tras el producto que se nos publicita ya que el emisor aparente siempre, y en todo caso, se apropia de las posibles virtudes o de los futuribles defectos de aquello que se nos está vendiendo. Así, cuando el famoso de turno nos sugiere la compra de un perfume es su imagen la que está en juego y no la de los productores reales de la fragancia, cuyo nombre queda a salvo de toda crítica adversa. Y cuando compramos tal perfume creemos –en el colmo del absurdo- que debe ser el utiliza ese actor o deportista que nos lo anunció.

El emisor real, o anunciante, es siempre una entidad pública o privada que pone en la calle cualquier suerte de objeto –ya sea material o intelectual- y desea promocionarlo entre el público a fin de obtener los beneficios que considere óptimos en cada caso. De este modo, y contrariamente a ciertas pretensiones intelectualistas o pseudo-artísticas, la publicidad no es más que un artefacto operativo, es decir, un medio destinado a la consecución de un fin al que siempre debe supeditarse. Entre otras cosas, porque nadie contrataría los servicios de una agencia publicitaria que no pusiera todo su empeño en vender el producto que el contratista pone en sus manos y se limitara a, sencillamente, “construir anuncios” de acuerdo a una u otra pretensión estilística, intelectual o estética. En efecto. La publicidad es una tarea creativa, pero no es arte y tampoco debe ser vendida engañosamente como tal. En todo caso es una herramienta al servicio del consumo que utilizará todos los medios de que disponga para conseguir sus fines y que podrá permitirse alguna que otra licencia artística en la medida que ésta satisfaga sus exigencias de partida. Si un anuncio “no vende lo que tiene que vender” tampoco se mantendrá en antena por sus valores artísticos, sino que simplemente se retirará. Cada segundo de televisión en horario de máxima audiencia es demasiado caro como para dedicarlo a la simple exhibición de las dotes creativas de alguien.

De la misma manera, tanto los planteamientos como los medios publicitarios son el último eslabón de un proceso que comienza con una investigación de mercado, pasa por un análisis del propio producto y tiene en cuenta los aspectos relativos a su distribución. En último término, cuando la empresa, asociación o administración pública que ha realizado estos estudios determina que el producto en cuestión es susceptible de incrementar sus ventas o su aceptación popular de forma considerable, se echa mano de una estrategia publicitaria cuyos objetivos son meridianamente claros, pero en muchas ocasiones sólo se logran a un plazo medio o largo. Esto significa que no sirve de nada anunciar algo sólo durante un mes, pues en ese tiempo la publicidad apenas si puede satisfacer las primeras expectativas al no ser capaz de alcanzar más que a unos pocos consumidores o, dicho de otro modo, que las campañas publicitarias con pretensiones de efectividad son por su propia idiosincrasia largas y costosas estando tan sólo a disposición de los grandes productores.

De tal manera, se produce en el entorno de la publicidad un acontecimiento selectivo similar al que afecta al “mercado ideológico-político”: la inmensa mayoría de los productos y empresas, cuyos propietarios no están en disposición de realizar grandes dispendios económicos, no existen para el ciudadano al carecer de una “imagen de marca” definida e identificable lo cual les impide competir con sus propios productos en igualdad de condiciones.

Por otro lado, y pese a que habitualmente se ha considerado que el emisor publicitario debería permanecer completamente al margen del producto anunciado, en la actualidad se estima que una buena estrategia publicitaria consiste en explotar sus posibles virtudes y logros. Así, recurrir al prestigio y la credibilidad de la entidad o de algunas de las personas que las componen se ha convertido en un elemento importante de la persuasión publicitaria. Precisamente por ello, ahora nos anuncian la leche quienes la ordeñan y envasan -y nos permiten observar el proceso-, nos muestran el mejor coche del mercado sus propios diseñadores o se nos dice que ciertos títulos bancarios son mejores que otros cualesquiera porque los respalda el mismísimo Estado. Emisor aparente y real tienden, en teoría, a coincidir cada vez con mayor asiduidad. Sin embargo esto supone un nuevo engaño, pues la distancia entre ambos permanece en la misma medida que la publicidad jamás ofrece el lado negativo del producto o de quien lo promociona, centrándose únicamente en la vertiente positiva de ambos. Ello da lugar a farsas grotescas en las que una gran compañía cosmética anuncia y vende masivamente una crema anti-arrugas que, al fin y al cabo, nunca hace que las arrugas desaparezcan o dejen de aparecer. La escapatoria ante posibles demandas del consumidor es tan simple como efectiva: “el producto es magnífico señor cliente tal y como demuestran nuestras ‘experiencias de laboratorio’, pero en su caso particular no ha funcionado”; “no se garantiza el éxito en todos los usuarios”; “se advierte en el prospecto interior que en determinadas condiciones no funciona” y etcétera. O sea, el usuario descontento será siempre la excepción a la norma o el individuo diferente que no encaja en el arco grande de la estadística.

Rebels AreTerrorists (Star Wars)
¿Esto es publicidad o propaganda?

Lo habitual es que el receptor ya esté acostumbrado al bombardeo publicitario que sufre a diario y posea un buen número de filtros para eludirlo, de modo que el éxito de la publicidad radica en lo habilidoso que haya sido el diseñador del anuncio para burlar esos filtros y alcanzar los resortes psicológicos correctos[13]. Así, a fin de romper con la resistencia del público en general, el técnico publicitario juega con ciertas ventajas añadidas: cuenta con un potente aparato de recursos científico-técnicos a su disposición; dispone de los criterios suficientes como para seleccionar el medio en el que difundir el anuncio; tiene más o menos bien perfilado un público potencial que podrá estar interesado en la cuestión. De tal suerte, cuando el anuncio es expuesto puede parecer que todo queda ya en manos del consumidor, pero se trata de una ilusión: la realidad es que la mayor parte del público objetivo hacia el que se dirige la comunicación publicitaria mostrará alguna clase de interés en el producto que se le anuncia[14].

Como puede intuirse, la publicidad, al igual que cualquier otra forma de comunicación masiva, depende intrínsecamente de las variables socioculturales –los universos simbólicos- a las que se supedita pues estas configuran la mayor parte de la vida psicológica de los individuos. Esto motiva una curiosa paradoja: la publicidad, en tanto que medio de comunicación de masas, está destinada a generar y perpetuar un sistema de consumo cambiante que, finalmente, termina estableciendo las variables de acción de la propia publicidad. A esto se refería ya de manera ciertamente sutil Alvin Toffler cuando explicó que,

“cada uno de nosotros crea en su cerebro un modelo mental de la realidad, un almacén de imágenes […]. Todas estas imágenes juntas componen nuestra representación del mundo, situándonos en el tiempo, el espacio y la red de relaciones personales que nos rodea. Estas imágenes no surgen de la nada. Se forman, de maneras que no comprendemos, a partir de las señales o la información que nos llegan desde el entorno. Y a medida que nuestro entorno se convulsiona por efecto del cambio […], cambia también el mar de información que nos rodea”[15].


[1] González, J. A. (1996). Teoría general de la publicidad. Madrid: Fondo de Cultura  Económica.

[2] Reyzábal, Mª. V. (2002). Didáctica de los discursos persuasivos: La publicidad y la propaganda. Madrid: Editorial La Muralla.

[3] Desde 1988, y por disposición del Papa Juan Pablo II, Propaganda Fide pasó a denominarse Congregación para la Evangelización de los Pueblos. El concepto de propaganda, tal y como hoy lo conocemos, fue incluido por vez primera en el diccionario de la RAE en su duodécima edición (1884).

[4] Reyzábal, M.V., 2002, op. cit.

[5] Pratkanis, A. y Aronson, E. (1994). La era de la propaganda: Uso y abuso de la persuasión. Barcelona: Paidós.

[6] Reyzábal, M.V., 2002, op. cit.

[7] Convertir el asunto en una cuestión meramente dialéctica que evacúe el problema de fondo y convierta el debate en simple controversia. Llegados a ese punto es posible entrar en el juego del convencimiento con total independencia de la verdad interna o la coherencia lógica de lo que se dice. Por consiguiente y frente a la retórica –que sería el arte de expresar ideas con eficacia-, la erística es el arte de convencer con total independencia de las ideas en disputa.

[8] Festinger, L. (1993). Los métodos de investigación en las ciencias sociales. México: Paidós.

[9] Goffman, E. (2003). Estigma. La identidad deteriorada. Buenos Aires: Amorrortu.

[10] Beck, A.T. (2003). Prisioneros del odio: las bases de la ira, la hostilidad y la violencia. Barcelona: Paidós, 2003.

[11] Basta con observar la caracterización del trastorno de personalidad antisocial (TAP) que contemplan guías diagnósticas como el DSM-5.

[12] Revel, J.F. (1989). El conocimiento inútil. Barcelona: Planeta.

[13] Kapferer, J.N. (1978). Les chemins de la persuasion. París : Gautier-Villars.

[14] Muchos de mis alumnos/as se sorprenden cuando les explico que las marcas de refresco más populares incluso tienen registrado el diseño de sus latas y el sonido que hacen cuando se tira de la anilla, pues ha sido demostrado, mediante estudios de resonancia magnética funcional –RMf- que el cerebro humano es capaz de discernir esas sutilezas y operan como forma eficaz de condicionamiento. O que una de las estrategias más comunes de las grandes editoriales para vender sus libros consiste, precisamente, en pagar a grandes superficies comerciales y medios de comunicación para que los presenten al consumidor como “más vendidos”. Las estrategias de control del consumidor, en este sentido, son literalmente infinitas e incluso ocasionalmente hasta terriblemente siniestras: una marca de café filipina creó miles de niños adictos a su línea de caramelos de café haciendo que sus madres los consumieran en las salas de espera de los ginecólogos cuando estaban embarazadas… ¿Cómo? Pues porque hoy sabemos que lo que las madres comen –o no- se comunica al feto por vía química durante la gestación. Increíble pero cierto. (Si quiere usted saber más acerca de estas cosas le recomiendo una interesante y muy entretenida lectura: Lindstrom, M. (2012). Así se manipula al consumidor (2ª ed.). Barcelona: Planeta).

[15] Toffler, A. (1980). La tercera ola. Barcelona: Plaza & Janés.

La pesadilla del Plan Bolonia

Para Gloria. Cariño, es lo que hay.

Resulta que mi hija comienza este año estudios de arqueología y uno de los primeros trabajos que le mandan sus docentes tiene que ver con el modo en que el dichoso Plan Bolonia ha afectado a su especialidad. Se pasa varios días escribiéndolo, me pide que lo lea para ver qué me parece… Y encuentro con suprema fascinación algo que ya me barruntaba desde hace unos años y es, precisamente, que los muchos males, críticas y deficiencias que en ese trabajo se desgranan son equiparables a los que padecen todas las titulaciones relacionadas con las humanidades en España. Males endémicos que el engendro de Bolonia no puede –ni podrá- resolver porque ni está pensado para beneficio de la academia, ni acaba de dar al alumnado lo que le promete, ni es otra cosa que un producto tecnocrático pensado, en el mejor de los casos, para el beneficio –sin pasarse- de las ciencias que se nos venden como pretendidamente “duras” y las carreras tecnológicas. Defectos que en el caso español se agravan, precisamente, por su larga tradición en eso de renegar del humanismo y la intelectualidad, alentándolos en público pero hundiéndolos en privado.

Plan Bolonia

Las humanidades siempre han estado maltratadas en los planes de estudio españoles prácticamente desde que existe la educación reglada, y en todo el arco educativo. Y la tendencia va a más a tenor de los acontecimientos. Paradójicamente, pese a ser cuna de grandes humanistas procedentes de los más diversos ámbitos del conocimiento –no me entretendré en enumeraciones innecesarias-, España es una nación que siempre ha mirado con sospecha al humanismo y al humanista. De reojo. Como no fiándose. Tiene lógica si entendemos que en este país las humanidades nacieron ligadas a insoportables mamotretos tomistas y estuvieron durante siglos bajo el control de las autoridades eclesiásticas de la Contrarreforma, lo cual las sumió en un escandaloso atraso formativo e investigador. Consecuentemente, a poco que el poder civil pudo decidir con cierta tranquilidad sobre los contenidos de los planes de estudio, entendió que el “progresismo” comenzaba por librarse de ese pasado oscuro y retrógrado que, lamentablemente, quedó de suerte indeleble asociado a “las letras”. Para los primeros prebostes de la universidad decimonónica española, si no andabas metido en las ciencias naturales –y sus variantes-, por definición, eras un tipo arcaico que solo se limitaba a perorar, a no producir absolutamente nada, y a vivir del cuento. Fin de la cita.

Por supuesto, y con oscilaciones, la situación se agudizó tras el régimen franquista: tras cuarenta años de nacional-catolicismo y adoctrinamiento ético-moral transversal, todo lo que pudiera oler remotamente a letras era ya la mismísima peste, con lo cual se dio pie a una segunda ola de anti-humanismo. Y ello sin contar con el hecho de que no eran los prebostes franquistas gente precisamente favorable al debate intelectual, hecho que redujo a la formación en humanidades a poca cosa, generalmente supeditada a los avatares del desarrollismo, y reducida a discurso único. Así, España, en 1975, era el resultado de un país autárquico, con un sistema educativo sin parangón en el continente europeo, extravagante y desajustado a la altura de los tiempos, que formaba titulados no homologables a prácticamente nada. Si a ello sumamos la falta de profesionales formados para sacar a la nación de su atraso galopante y la paulatina universalización de los estudios universitarios –pues ahora ya, por suerte, podía estudiar una carrera casi todo el mundo-, tenemos un resultado claro: las carreras científico-tecnológicas se convirtieron en la formación estrella, lo cual devino en un abandono progresivo de las ciencias sociales y las humanidades. Total, para eso, en el reino de los tecnócratas y los “progres” de paella dominguera, había poco o ningún futuro. Resultado: hoy en día dices que has estudiado una carrera de ciencias sociales o de humanidades y cualquier tonto del bote se permite el lujo de faltarte al respeto. Como si a los de letras los títulos nos los anduvieran regalando. Como si tuviéramos que creernos que un físico, un ingeniero o un médico son más listos, más científicos y mejores personas que un filólogo o un sociólogo nada más que porque sí.

¡Qué país, amigo Sancho!

Tampoco nos ha concedido grandes réditos a los docentes el pésimo concepto que siempre se tuvo de la enseñanza. En España, desde tiempos inmemoriales, el público solo ha venido hablando del maestro, o de la docencia, para hacer leña. Otro mal endémico. La enseñanza siempre ha sido –y lo sigue siendo en comparación con el resto de naciones de la UE- una profesión denostada, mal pagada, machacada, vilipendiada y roturada… Ya es curioso –por sintomático- que un país que se pasa horas y horas perorando sobre la “calidad del sistema educativo” a todos los niveles dedique tan escasos recursos a la formación del docente, a su satisfacción laboral, a su formación continua y a prestigiar socialmente una profesión que es justamente la base de tal sistema. Raro porque me barrunto que existen intenciones aviesas tras tales carencias ancestrales y siempre corregidas, por lo común, a desgana y a destiempo. Consecuentemente, a la gente le importa que le construyan un colegio, le pongan ordenadores a los chiquillos, o esté acondicionado con un buen gimnasio, pero no pregunta nada acerca de las condiciones en las que los enseñantes desarrollan su trabajo. Los chavales y chavalas se matriculan en la universidad y lo primero que preguntan el padre o la madre es con qué recursos materiales va a contar su retoño, pero no conozco universidad alguna que venda como un plus la excelente calidad de sus docentes. Eso, al parecer, no hace “marketing” genuino.

Precisamente por ello, cuando alguien me cantó en cierta ocasión las excelencias del sistema educativo finlandés a la par que se quejaba de lo “malo” que era el nuestro, solo pude argumentarle que para tener un sistema educativo como el de Finlandia, lo que hacía falta –y no sería mal comienzo- eran padres y madres finlandeses. Porque cuando, y esta es otra, uno de los deportes familiares es la desautorización –cuando no el insulto- del docente, muy mal comienza la cosa. Sepan ustedes, ya que estamos, que la de maestro, en Finlandia, es una profesión reconocidísima, respetadísima y aún mejor pagada. Igual hay que empezar por ahí y aburrir menos al personal con tanta chinchorrería pedagógica y tanta tertulia de baratillo.

Y así vamos a Bolonia…

…Y fuimos para allá pensando que eso del Espacio Europeo de Educación Superior (EEES) iba a ser la tabla de salvación de la universidad española. No conozco los datos generales de la universidad patria, pero si puedo garantizar una cosa que estoy seguro las cifras corroboran: a las humanidades y a las ciencias sociales las ha hecho trizas. Las ha metido en un laberinto de toda suerte de carencias y contradicciones del que ya nadie sabe cómo ir saliendo con garantías. La formación humanística –utilizaré en adelante el término en sentido genérico- arrastra tal cantidad de limitaciones históricas que la impiden adecuarse en España a las demandas socioculturales del momento. De hecho vienen precisando de un tratamiento especial desde hace décadas, y amalgamarlas en el mismo modelo de las titulaciones científico-técnicas no solo es un completo error –que no creo falto de intención-; es un disparate garrafal que parece ideado ex profeso para terminar liquidándolas por derribo. Total, en España es un hecho que el que piensa por sí mismo, se sale de la vorágine del adoctrinamiento único, y desarrolla cierto espíritu crítico ante las cosas, molesta más que una china en un zapato. Y si no me creen, es que no tienen cuenta abierta en una red social.

A la mayor parte de las humanidades, en la universidad española, e históricamente, se las ha hecho depender, por sistema y salvo excepciones, de otras ciencias –o carreras más generales en su caso- a las que han estado asociadas. El aprendizaje de muchas de ellas era casi marginal. Apenas una asignatura en un plan de estudios. Quizá unos seminarios. Algunos ciclos de conferencias… Si estabas interesado en algo “diferente” tenías que buscarte la vida por ahí como pudieras. Además, con la llegada de la Constitución de 1978 nació el Estado de las Autonomías y esto vino a complicarlo todo por cuanto cada región a los pocos días tenía ya su universidad, y cada universidad tenía su propio modelo, y cada modelo daba mayor o menor importancia a una cosa u otra en función de las cabezas pensantes que lo montaran. Cierto que el Estado ha mantenido un tutelaje general sobre el sistema universitario de cara a garantizar la homologación nacional de los títulos, pero poco más en la medida que toda posible intervención en la autonomía universitaria se veía, en última instancia, como una amenaza contra el modelo territorial mismo. De hecho, la única forma confiable que la administración central tenía de controlar el desarrollo de los títulos universitarios era la de tomar iniciativas legislativas que, de un modo u otro, obligaran a las universidades, motu proprio, a impulsar modificaciones en sus planes de estudios para adecuarlos a normativa.

La política chapucera del parche y tentetieso. Todo muy español.

España suscribió el Plan Bolonia en 1999. Éste divide la enseñanza superior en tres niveles: grado, máster y doctorado. El grado tiene una duración de cuatro años y sustituye a las diplomaturas y licenciaturas. El máster supone una especialización en un ámbito concreto o multidisciplinar y puede tener una duración de un año o dos. Al doctorado se accede a través de un máster específico y, por término medio, los estudios se prolongan durante cuatro años. El proyecto, en realidad, no era otra cosa que la adaptación y unificación de los criterios educativos de todos los centros europeos a fin de tener un criterio estandarizado que pudiera medirlos a todos por los mismos parámetros -o eso dicen-. La verdad es que en el caso de España, precisamente por las particularidades que venimos describiendo, el dichoso plan entró como elefante en cacharrería por cuanto su letra pequeña no tenía prácticamente nada que ver con lo que existía aquí, se impuso manu militari con plazos inasumibles para satisfacer a los capitostes políticos de turno, y además el Estado trató por todos los medios de que fueran las propias universidades las que asumieran los costes del proceso, lo cual degeneró en un completo desastre económico para muchas.

Si alguien recuerda aquellos años tan bien como yo, seguro que se hartó de escuchar las dos palabritas de marras en boca de todo el que tuviera algún cargo que exhibir y que ahora seguro que anda escondido en algún agujero: “calidad” y “excelencia”… Pues no, mire usted.

Competente, ¿para qué?

Porque, supuestamente, lo que prima en el modelo Bolonia son las “competencias” que el alumno desarrolla a lo largo de su carrera universitaria. Pero detrás de la nueva palabra de moda no hay nada en absoluto si exceptuamos muchos kilos de papel mojado y toneladas de verborrea. Los títulos ahora discurren hacia una pretendida orientación formativa destinada a las salidas profesionales que, en un futuro, permita al alumnado integrarse en el mercado de trabajo. O lo que es lo mismo: bajo esta peregrina excusa se obliga a diseñarlos para tratar de ahorrar a las empresas, en la medida de lo posible, gastos en formación en una reedición de ese viejo axioma patrio: que pague otro. Ese es el hecho, y no funciona. No lo hace porque cada empresa y empresario tiene sus demandas peculiares y, al final, lo único que puede hacer un centro académico digno es formar a un profesional adaptable, pero no a un profesional a la carta. Vamos, que en un mundo normal y lógico debiera ser quien contrata el que se hiciera cargo de que sus empleados sepan hacer lo que él necesita específicamente. Una universidad respetable, en suma y permítanme ser tan gráfico, no puede ser ni funcionar como una fábrica de tornillos. Punto.

En segundo lugar, hay muchas profesiones -algunas no tan nuevas, no se crean el cuento- carentes de una regulación específica, lo cual impide dotar al alumno de esas supuestas competencias en la medida que, sencillamente, no existen al no tratarse de profesiones reguladas –hecho que afecta de suerte dramática no solo a las humanidades, sino también a diversas carreras científico-técnicas-. Así, existe un desfase imposible de salvar entre lo que se presupone que académicamente “debe saber” cierto egresado, y lo que se pretende que haga en su desarrollo profesional. Para que nos entendamos, una reedición del viejo dualismo kantiano entre lo que las cosas son y lo que debieran ser. Esta situación provoca un gran problema a la hora de elaborar los planes de estudio, ya que los grados no pueden diseñarse para cubrir racionalmente las competencias requeridas.

Así, la formación básica de los grados, que se adquiere en general durante el primer curso académico, consiste en asignaturas que no hacen sino completar las carencias formativas de un bachillerato en el que, lamento decirlo, se pierde mucho el tiempo en zalamerías y letra muerta –y conste que no culpo de ello a los compañeros de esta etapa formativa, pues la mayor parte de ellos son muy competentes, sino al pésimo sistema en el que se ven obligados a trabajar-. Esto conlleva la necesidad de incluir, en el primer año de carrera, asignaturas cuyos contenidos y competencias deberían estar asimilados por el alumno en etapas anteriores a la universitaria, lo cual provoca un arrastre hacia la universidad de los defectos inherentes a otros tramos educativos. También se percibe en infinidad de títulos, por cierto, un número muy bajo de asignaturas relacionadas con la práctica de la profesión –recordemos, no desarrollada-, lo que supone una contradicción de base con respecto a la idea de que el grado debe formar profesionalmente al alumno.

Y en tercer lugar, hay un problema de homogeneización de la evaluación de la calidad docente que la hace a todas luces injusta y disfuncional. No puede ser el mismo el criterio para evaluar a un profesor de psicología, de ciencias de la comunicación o de criminología, que el que se emplea para evaluar a un profesor de química o de ingeniera de la edificación. Y no puede serlo porque ni enseñan lo mismo, ni hacen lo mismo, ni están formados de igual modo, ni cuentan con las mismas posibilidades a la hora de investigar y/o publicar, ni tienen nada que ver entre sí. Porque nuestros mandatarios parecen olvidar que por mucho que se le pinten rayas blancas a un caballo negro, no se convertirá en una cebra… Sin contar con la profunda ignorancia epistemológica de este modelo que hace tabla rasa de toda diferencia: las ciencias sociales, técnicas, naturales y humanas comparten a lo sumo metodologías y ahí se terminan los parecidos. Ello por no hablar del absurdo inherente a tratar de evaluar la calidad docente de un profesional midiendo su calidad investigadora, que es cosa radicalmente distinta; o la dificultad cada vez más acusada a la hora de etiquetar campos de investigación específicos en una comunidad científica y académica que, en general, y por la fuerza de los acontecimientos, camina cada vez con mayor velocidad hacia la interdisciplinariedad y la consiguiente difusión de fronteras a la hora de abordar los problemas.

Se puede hacer peor, pero es difícil discernir cómo.

Desastre Europeo de Educación Superior

El hecho es que las condiciones de implantación del EEES han perjudicado de manera muy especial a las nuevas materias, especialmente a las carreras de humanidades, al punto de que ha conducido a las universidades a la adopción de actitudes claramente defensivas: la filosofía del Plan Bolonia con respecto a las competencias del alumno, o la utilidad del grado, las ha llevado a una protección numantina de los departamentos universitarios en términos meramente supervivenciales. Había que mantener a los mismos profesores de antaño impartiendo clases a todo trance –ya fuera dentro o fuera de sus materias específicas-, pues era necesario preservar las cargas docentes, el peso académico de los departamentos en sus ecosistemas universitarios y, por supuesto, los puestos de trabajo.

Este problema va más lejos de lo que se pudiera pensar en un principio pues el diseño de un nuevo plan curricular que respetara las antiguas divisiones departamentales, siempre sin aumentar las plantillas a causa de unos presupuestos bajos y/o inexistentes, ha dado como resultado una ingente cantidad de docentes burocratizados, sobre-exigidos, sobrecargados, mal pagados, desmotivados, aburridos y cada vez más interesados en buscarse la vida fuera de la universidad española, o bien fuera de la universidad misma, lo cual ha comenzado a empobrecer la calidad –justo aquello que el Plan Bolonia pretendía preservar y aumentar a bombo y platillo, ¿recuerdan?-.

O como me dijo en cierta ocasión un amigo al que le sobra la sorna: “de catedrático, a taquillero”.

Consecuentemente, el panorama que se está abriendo para las ciencias sociales y las humanidades –aunque no solo- en las universidades es muy preocupante: la falta de estrategias claras a la hora de planificar los planes de estudio necesarios, la imposición de una visión mercantilista y “empresarializada” de la enseñanza superior, y las propias dinámicas de la academia provocarán a medio plazo –lo están provocando ya de hecho- un escenario en el que primará la competitividad de las universidades a la hora de captar estudiantes sobre la propia calidad de las titulaciones, o de la docencia misma.

En efecto, esto es lo que hay. Pero no pasa nada.

No a Bolonia

Introducción a la violencia de género

Violencia de Genero

Al hablar de “violencia de género”, en la medida que el problema existe como concepto de uso común, nos olvidamos de que se trata de un asunto extremadamente complejo cuyo abordaje sería imposible sin recurrir a un enfoque multidisciplinar capaz de integrar todas sus vertientes, que son muchas. De hecho, ni tan siquiera ha sido fácil encontrar consenso a la hora de denominar a este tipo peculiar de violencia en la misma medida que sus diferentes visiones y nomenclaturas, en última instancia, generan sesgos teóricos que introducen o excluyen aspectos controvertidos para la comprensión y abordaje del fenómeno.

El primer escollo a resolver, algo por lo demás común en materias científicas que tienen un fuerte calado social, surge a partir de la novedad del problema. Es cierto que la violencia de género es un hecho indiscutible que ha venido atravesando a todas las culturas y sus manifestaciones desde tiempos ancestrales, pero la verdad es que solo empezó a entenderse que era un auténtico problema cuando las demandas de las propias mujeres lo convirtieron en tal cosa. Así, fue cuando el movimiento feminista lo visibilizó a partir del siglo XVIII que la cuestión comenzó a existir y a despertar interés sociopolítico. Estas primeras demandas de aquel feminismo incipiente se centraban en la exigencia de los derechos de ciudadanía para la mujer, como el acceso a la educación, al voto, al trabajo remunerado y etcétera. Demandas que solo era posible sostener mostrando que su carencia procedía de una desigualdad esencial –metafísica si se quiere- insostenible desde el plano intelectual, pero arraigada con gran firmeza en el sustrato último de la cultura. No podemos olvidar, por ejemplo, que la Revolución Francesa, al proclamar en 1789 la Declaración de los Derechos del Hombre, solo tenía en cuenta, literalmente, a los propios hombres. Resulta paradójico, por cuanto es público y notorio que las mujeres lucharon tanto por la consecución de esos derechos como los propios varones, que una vez obtenidos se vieran excluidas de ellos y relegadas a un segundo plano sociocultural. Y no resulta extraño, pues, que fueran estas mismas mujeres las primeras en rebelarse contra semejante injusticia histórica[1].

Tras esta primera oleada se pasó a una segunda fase, ya durante el siglo XIX, que “redujo” las ambiciones iniciales del movimiento para concentrarse en la consecución del derecho al voto. Nacería así el famoso “movimiento sufragista”, que enraizó con especial fuerza en los Estados Unidos a partir de 1848. No hemos de dejarnos engañar por esta aparente reducción de las demandas de la mujer por cuanto, teóricamente, se entendía que el derecho al voto y a la consiguiente decisión en lo relativo a la representación política supondría, a medio plazo, la mejor herramienta para combatir la desigualdad. El cálculo efectuado por las sufragistas era obvio: Si las mujeres terminaban por convertirse en una bolsa estable de votos sucedería que los políticos, necesariamente, habrían de tomar también en consideración sus problemas y demandas. De hecho, la consecución del voto para la mujer en diversos lugares del mundo provocó el inevitable efecto dominó en Occidente que, sin embargo, tardó mucho tiempo en empezar a ofrecer los efectos apetecidos, pues la consecución del sufragio femenino raramente vino acompañada de la posibilidad de que las mujeres tuvieran un acceso efectivo a la esfera política[2]. Este lento progreso desencadenó la tercera ola del feminismo, a mediados del siglo XX.

Manifestacion Sufragista USA Finales Siglo XIX (americaslibrary gov)
Manifestación sufragista en los Estados Unidos a finales del siglo XIX [fuente: Americaslibrary.gov].

Eran ya muchas las mujeres descontentas con los escasos avances logrados tras una lucha tan larga, pero fue en torno a un libro publicado en 1949, El segundo sexo, que este descontento generalizado comenzó a agruparse para tomar la forma de un movimiento intelectual y material bien construido. Su autora, Simone de Beauvoir, teorizó por primera vez en torno al significado de lo que implica “ser mujer” y con ello alimentó la toma de conciencia general sobre las relaciones de desigualdad existentes entre hombres y mujeres, mostrando a qué punto se encontraban afianzadas en la historia de la cultura y cómo iban evolucionando y readaptándose a lo largo del tiempo. De hecho, fue de Beauvoir quien comenzó a visibilizar el problema de la naturalización de la violencia sobre las mujeres, abriendo una línea de trabajo consolidada posteriormente, en 1963, cuando la psicóloga estadounidense Betty Friedan publique La mística de la feminidad. Un texto centrado, por primera vez, en la violencia de género en cuanto tal así como en los procesos psicosociales que la facilitan, la justifican y la ocultan al recluirla en el ámbito de “lo privado”.

Gracias a la aportación del tandem de Beuvoir-Friedan, y hasta su consolidación final con los muy celebrados textos antropológicos de Gayle Rubin, el movimiento feminista internacional pudo al fin contar con elementos que antes no había tenido: una teoría sólida que someter al debate sociopolítico, y capacidad organizativa desde las que exponer demandas concretas, uniformes y coherentes. La principal de ellas surge precisamente en torno al problema de la violencia de género como acontecimiento natural, fatal e invisible que afecta a la mujer en todas las manifestaciones de su existencia. La cultura y la sociedad habían convertido a las mujeres en víctimas de un destino inexorable que no podía ser alterado porque era legítimo, inmemorial e incuestionado. Precisamente, y más allá de ulteriores retóricas, ideologismos y manipulaciones, en esto reside el verdadero mérito histórico y central del feminismo: mostró que ese destino “natural” de la mujer –ser violentada, ser desigual, ser sometida- no solo se cimentaba sobre falacias históricas ocultas, sino que también era un destino injusto y terrible que una sociedad, para ser simplemente humana, debía combatir y erradicar.

Simone de Beauvoir
Simone de Beauvoir (1908-1986).

El discurso patriarcal sobre la violencia de género

Sería absurdo –y debemos tenerlo claro a estas alturas- decir, como se trata de argumentar desde diferentes entornos, que la violencia de género sólo afecta a la esfera privada de las personas. Absurdo y falaz porque, en realidad, se trata de un producto devenido de la tradicional organización patriarcal de la sociedad que afecta de un modo u otro a todas sus manifestaciones. Pero también sucede que, en efecto, parece que los sucesivos avances psicológicos y sociopolíticos provocados por la visibilización permanente del problema han ido matizando las desigualdades públicas, limando sus aristas, y recluyendo con ello las peores y más trágicas implicaciones de la violencia de género en la vida privada de las mujeres, donde aún permanecen ocultas en muchos casos. Poca gente toleraría ya que a una mujer se la ofendiera en la calle, o en el trabajo, por causa de su mera condición de mujer, pero las mismas personas que no admitirían tales conductas públicas –bien sea por “corrección política”, apelando a supuestos “principios morales”, o por simple “caballerosidad”- a menudo se muestran renuentes a implicarse cuando esto mismo sucede en el ámbito doméstico. Adoptan de tal modo una postura templada, inconsistente, que precisamente es más dañina que cualquier otra porque contribuye de manera sutil pero decidida a la perpetuación de esa violencia estructural y que, además, es muy difícil de combatir a causa de su aparente sensatez.

Esto ocurre porque desde el clásico discurso patriarcal en torno a la violencia de género se rehuyen las explicaciones en clave estructural, que son precisamente las relevantes, y se trata de individualizar el problema. Se convierte así en el fenómeno esporádico de unos cuantos sujetos con nombres y apellidos que, por diversas razones, rompen el equilibrio y la complementariedad entre el hombre y la mujer. Este argumento de la agresión como producto exclusivo del agresor particular concluye con un axioma sencillo: en realidad no existe un problema sociocultural de fondo, sino tan solo problemas concretos y circunstanciales. La sociedad no debería hacer nada atacar las desigualdades estructurales –que no las habría-, sino las desigualdades específicas, propias del caso. Así es como en el discurso patriarcal sobre la violencia de género transforma el hecho social en simple anomalía individual y, de nuevo más allá de intereses peculiares e ideologismos varios que no nos competen y que nada aportan al tema, esta es precisamente su verdadera palanca de fuerza.

Mediante ese argumento, hemos de indicar ahora que perfectamente integrado en la educación de un elevado número de mujeres que también lo asumen y difunden, el agresor es observado como un enfermo, un tipo marginal que no respeta las normas sociales básicas. La mujer agredida, por su parte, es considerada como una persona transgresora y/o provocadora que dificulta las relaciones familiares, que tiene problemas para gestionar su relación de pareja, o bien que no es hábil a la hora de mantener al hombre dentro de las convenciones. Así dispuesto el discurso, la violencia de género en el ámbito intrafamiliar se convierte con suma facilidad en simple “violencia doméstica” y nos habla de un conflicto entre personas particulares que se resuelve de manera disfuncional. Al ser la mujer la que transgrede o es inhábil en uno u otro sentido sucede que también, a menudo, “provoca” la acción violenta sobre ella y contribuye inevitablemente a su propia victimización.

Este modelo discursivo trata, por otro lado, de sostener que la sociedad es igualitaria y que las diferencias observables entre hombres y mujeres se fundamentan en su naturaleza biológica. Un imponderable contra el que sería ridículo luchar porque, sencillamente y de manera esencial, las mujeres y los hombres “son diferentes” y están naturalmente dirigidos hacia finalidades productivas diversas: El hombre estaría más dotado para la actividad pública, la valentía, el esfuerzo, la competitividad y los sacrificios que conlleva sacar adelante a una familia… Pero las mujeres –que necesitan ser protegidas por los hombres a causa de una supuesta debilidad biológica- estarían más dotadas para la vida hogareña, la crianza, el cuidado y la gestión de los sentimientos… Como si la maquinaria emocional de hombres y mujeres fuera fisiologicamente diferente, lo cual es un simple y llano disparate.

Si pensamos en esto durante un minuto, veremos en seguida que existe una fuerte contradicción entre el modelo discursivo patriarcal y la práctica social diaria. Contradicción irresoluble que derrumba el propio discurso y nos muestra con claridad sus falacias: Primero, porque cada vez son más las mujeres que rompen la barrera del género e irrumpen en terrenos que se consideran tópicamente varoniles. Segundo, porque entretanto se niega teóricamente que las diferencias entre hombres y mujeres, así como sus diferentes jerarquías, existan en la sociedad, se aceptan de facto todas aquellas prácticas que subordinan a la mujer por causa de su naturaleza femenina. Consecuentemente, de manera subrepticia, se desvaloriza el trabajo doméstico, se ocultan las aportaciones históricas de la mujer y se minusvaloran aquellas tradiciones, costumbres e instituciones que se consideran como propiamente femeninas.

Discurso Patriarcal
Tabla 1. La violencia de género en el discurso patriarcal tópico.

El análisis “de género”

Es interesante, desde un punto de vista psicosocial, darse cuenta de lo poco que se comprende –o lo mucho que se malinterpreta- el concepto de género. Hay quien cree que se trata de una categoría elaborada ad-hoc con la finalidad expresa de sustentar un programa político de corte feminista. También se dice que es una simple invención semántica carente de apoyo científico alguno. Hay quien sostiene, incluso, que se trata de un pretexto diseñado por los supuestos “enemigos de lo establecido” –los siempre peligrosísimos “antisistema”, sean quienes fueren- para interferir o subvertir el buen orden sociocultural. Sin embargo, ninguno de estos tres puntos de vista es correcto y quien los defiende de manera acrítica muestra un profundo desconocimiento del problema, cuando no el hecho de ser partidario –o difusor involuntario- de ciertos discursos políticos y culturales tan poco fundamentados y falaces como interesados.

John Money
John Money (1921-2006).

Lo cierto es que el concepto de género apareció en el seno de la investigación psicológica, y los primeros autores que lo emplearon, dicho sea de paso, no fueron mujeres sino hombres. Si bien acuñado en 1955 por Money, sería Robert Stoller en 1968, en el transcurso de sus estudios acerca de niños y niñas aquejadas de diferentes síndromes androgenitales y sometidos a terapias hormonales, quien establecería la diferencia conceptual entre sexo y género tal y como hoy la entendemos. De sus trabajos Stoller concluyó que la identidad y el comportamiento de género no están determinados por el sexo biológico, sino por las experiencias vividas, los ritos y las costumbres que se le atribuyen a los sexos biológicos a partir del etiquetado sociocultural[3]:

  • El “sexo” hablaría de las diferencias innatas y determinadas por la biología que existen entre hombres y mujeres, y que son universales e invariables.
  • El “género” hablaría de diferencias entre hombres y mujeres construidas en el contexto social: Actitudes, roles, actividades y pensamientos que la cultura establece como más aptas y deseables en función del sexo.
Sex & Gender (Robert Stoller)
Primera edición del célebre libro de Robert Stoller “Sex and Gender” (1968).

Siguiendo con esta argumentación en clave psicológica, pronto se nos muestra evidente que el concepto de género moviliza alrededor de la violencia tres instancias o elementos básicos que, para nosotros, van a ser muy relevantes en adelante:

  1. Asignación de género. También llamada en la literatura “rotulación”, “etiquetado” o “atribución” implica que tanto la víctima como el agresor han asumido un programa de individuación personal cuya diferencia fundamental estriba en haber sido definidos como “hombre” o como “mujer”. Estas etiquetas implican modos de relación peculiar entre los sexos que, como es lógico, van a generar estilos peculiares y específicos de violencia. Así las cosas, se comete un grave error cuando se homogeneiza la violencia de género con respecto a otras y se la trata de igual modo[4].
  2. Identidad de género. Tanto la víctima como el victimario han estructurado y consolidado todas sus experiencias vitales desde una identificación con las ideas que la sociedad y la cultura tienen acerca de lo que significa “ser hombre” o “ser mujer”. De tal modo, el proceso de identificación se convierte en un filtro de las experiencias que las transformará en eventos con significados diferentes para ambos.
  3. Rol de género. La identificación provoca la interiorización de un conjunto de preceptos y normas sobre el comportamiento que se va a considera adecuado en cada sexo. En el caso de la violencia de género esto implicará que el agresor y la víctima van a situarse en posiciones diferentes y, por tanto, desarrollarán diferentes estrategias de afrontamiento de la violencia.

Esto es lo que explica que en el caso de la violencia de género no resulté irrelevante, sino todo lo contrario, quién es el que agrede y quién es el agredido. Debemos entender que en la producción de esta clase peculiar de violencia –al igual que sucede con cada una de las formas específicas de violencia, por cierto- existe, y es un tópico en la literatura, un vínculo muy complejo y elaborado entre la sociedad y la estructura psíquica de las personas. Ahí es donde adquiere pleno sentido el hecho de que,

“no deja de ser curioso que las diferencias de sexo condicionen el tipo de violencia experimentada. Cuando un hombre sufre una agresión, ésta tiene lugar habitualmente en la calle y suele estar asociada a un robo, a una pelea, un ajuste de cuentas o un problema de celos. Las mujeres, por el contrario, al menos en la mayoría de los casos, cuando son víctimas de actos violentos, suelen sufrirlos en el hogar y a manos de sus parejas”[5].


[1] Olympia de Gouges –seudónimo de Marie Gouze- fue una de las primeras en levantarse contra ella al publicar en 1791 su Declaración de los Derechos de la Mujer y la Ciudadana, hecho por el cual fue guillotinada. Por aquel entonces, en 1792, también la británica Mary W. Shelley, autora del célebre Frankenstein, publicaría en Londres su Reivindicación de los Derechos de la Mujer.

[2] Nueva Jersey fue el primer Estado de la Unión en aprobar el voto femenino, cosa que ocurrió en 1776 y por accidente al utilizarse en la ley electoral la palabra “personas” en lugar de “hombres”, con lo cual fue de nuevo abolido en 1807. El primer país del mundo que aprobó el voto femenino sin restricciones de clase alguna, gracias al movimiento que lideró la activista Kate Sheppard, fue Nueva Zelanda, en 1893. Interesa destacar que en muchos de los lugares en los que se aceptó el voto de la mujer, se logró esta victoria incluso antes que la del sufragio universal. El primer lugar de Europa en el que se admitió el voto femenino fue Finlandia, en 1907, seguida posteriormente por Noruega y Suecia. En España las mujeres pudieron votar por vez primera a partir de la promulgación de la Constitución de 1931, y hasta 1939, año en el que la norma fundamental fuera suspendida por motivos sobradamente conocidos.

[3] No está de más mencionar que fue a partir de esta línea de trabajo que comenzó a considerarse que la homosexualidad no tenía base biológica y que, por consiguiente, carecía de sentido científico considerarla una patología. Con ello, no tardaría en ser excluida de las clasificaciones de trastornos mentales más habituales.

[4] Uno de los errores más comunes que se cometen a la hora de analizar e interpretar el fenómeno delincuencial reside, precisamente, en la igualación de la génesis del delito y del delincuente. Este yerro, muy habitual en los análisis poco concisos y mal estructurados de los medios de comunicación, lleva a la simplificación –radicalmente superada en el plano científico- de que sólo existen personas criminales y no criminales, de que solo hay agresiones, robos o asesinatos en general, y de que por tanto el problema del crimen tiene una resolución unitaria y específica. La realidad, evidentemente, es que no todos los delincuentes se conducen por las mismas motivaciones y no todos los delitos tienen el mismo origen, lo cual implica que necesitan de una comprensión y de un tratamiento tan peculiar como especializado.

[5] Echeburúa, E. y Corral, P. de (1998). Manual de violencia familiar. Madrid: Siglo XXI, p. 1.

Las historias que nunca debiste creer

Chica de la Curva
Si te han contado que esta chica existe, no lo creas… Pero si la ves, tampoco la recojas.

La leyenda urbana, como solemos decir a menudo en este blog, se caracterizan por ser esa historia redonda, completa, argumentalmente cerrada, que cae de su peso y que tiene toda la pinta de ser “demasiado buena”. Tan buena que cabe sospechar que ha sido construida por alguien y que, simplemente, es tan perfecta que no puede ser cierta. Entendámonos: el mundo real es caótico, complejo, abierto, azaroso, condenado a la “magia” de la probabilística, a menudo irracional a ojos humanos, y por lo común fastidioso y molesto para la mayor parte de la gente por lo que simplemente prefiere ignorarlo. Al fin y al cabo, las “verdades” que podemos encontrar en él siempre son abiertas y están por ello mismo sometidas a ese constante proceso de discusión y revisión metódica al que llamamos ciencia. No ocurre así en el mundo imaginado, fantástico y perfecto del arte, de la creación literaria, de la cultura popular o de las magníficas leyendas urbanas –en tanto que parte de esa cultura pública- en la medida que entornos comunicativos artificiales en los que no imperan las reglas aparentemente menudo arbitrarias e incomprensibles de la naturaleza.

Por ello, del mismo modo que la mayor parte de la gente suele preferir una mentira maravillosa a una verdad mediocre, es habitual que tenga más sentido creer una perfecta leyenda urbana que comprender parcialmente un hecho real complejo. Bien lo saben los demagogos, los doctrinarios o los estafadores de toda suerte y cuño: para la mayor parte de las personas la verdad, en tanto que cuestión costosa, difícilmente alcanzable, por lo común “injusta” o “degradante”, y a menudo tan poco “razonable” como falta de estética, supone un completo fastidio.

Urban Legend
El cine también ha hecho dinero con las leyendas urbanas. Total, nunca debes permitir que la realidad te hunda un buen negocio.

Qué es una leyenda urbana

Tal y como explica uno de los más conocidos estudiosos de las leyendas urbanas, el profesor de literatura de la Universidad de Utah y especialista en folclore Jan Harold Brunvand, éstas son fábulas populares que relatan acontecimientos “reales” aunque raros o extravagantes, que le pasaron a alguien a quien no conocemos –ni podemos conocer-, y que nos suelen llegar por la vía del testimonio de alguien que nos resulta creíble porque, generalmente, este relator también se las cree. En general, y aunque parezca sorprendente, todas son estructuralmente muy parecidas y se caracterizan por una serie de elementos que son, precisamente, los que las hacen creíbles, fácilmente asimilables por cualquier público, y facilitan su difusión[1].

  1. Su final es aparentemente cerrado, pero permiten que sea el propio receptor quien saque sus propias conclusiones y complete el relato. Lo interesante es que cuando el receptor lo analiza descubre que solo puede concluir aquello “tiene lógica” a partir de lo que se le narra.
  2. Se construyen sobre bases argumentales simples. Tienden a ser lineales, poco complejas, de modo que puedan ser contadas y asumidas con brevedad y cierto grado de literalidad.
  3. Los elementos que las componen suelen formar parte de la vida diaria. De hecho, nos interesan porque suelen hablarnos de cosas que, aparentemente, son comunes y corrientes y “le pueden pasar a cualquiera”.
  4. Recurren a los elementos más simples y atávicos de la conciencia –especialmente el miedo-. Utilizan como palanca las emociones, nunca la razón.
  5. Son fácilmente intercambiables entre culturas y sociedades con escasos “retoques estéticos”, por lo que es normal que la misma leyenda se cuente en muchos sitios, aunque con la oportuna modificación de los detalles. Sin embargo, su estructura básica, el tronco argumental, permanece.
  6. Todas tienen una lejana base real, a veces tan remota y deformada que no recuerda en nada a los hechos originales que les sirven de inspiración. El hecho es que no importan los detalles concretos o los fundamentos documentales si los hubiere. Lo relevante es revestir el relato de veracidad -que al oyente “le suene”-.
  7. Existen en la medida que responden a la necesidad antropológica del mito en tanto que elemento que da sentido a “lo inexplicable”.
  8. Han existido en todas las culturas y épocas históricas, si bien no siempre se han llamado “leyendas urbanas”. De hecho, y en no pocos casos, las situaciones y elementos simbólicos que emplean son en su fondo los mismos, tanto en el presente como en el pasado. Por ello, muchos antropólogos las han relacionado con la teoría psicológica jungiana del inconsciente colectivo y los arquetipos[2].

La cuestión a dilucidar es cómo funcionan. Es decir, por qué se difunden con tanta facilidad al punto de que su expansión a menudo se convierte en una ola imparable y ajena a toda lógica. Ciertamente, ello se debe a que explotan toda una serie de elementos psicosociales que operan como “palancas” desde las que retroalimentarse: la necesidad de certezas, de “estar informado”, de conocer “aquello que no conoce nadie”, de poder “prevenir” o “anticipar” futuribles problemas y desastres o, en última instancia, la necesidad de integración social, de no quedar al margen y fuera de “lo que se cuece”, “lo que se dice”, “lo que se hace” o “lo que está de moda”… En realidad, son resortes psicológicos elementales que se conocen desde hace décadas y que se emplean en diferentes ámbitos y contextos relacionados con el arte de la persuasión, desde el discurso político al publicitario. Del mismo modo que el 99% de los animales que corren durante una estampida ignoran los motivos por los que la manada huye despavorida y se limitan a conducirse por el principio adaptativo de “es mejor hacer lo que hacen todos”, la inmensa mayoría de la gente prefiere, en tanto que elemento básico de nuestra sociabilidad –que nos ha concedido enorme éxito evolutivo, por cierto-, “seguir la corriente” del colectivo[3]. Así pues, las leyendas urbanas, en un fenómeno paralelo al de las falsas noticias o fakes,

  1. Siguen, en su propagación, la misma dinámica que el rumor: van de boca en boca -de email en email, de una red social a otra, de un usuario al siguiente, expandiéndose siguiendo el mismo modelo matemático de las ondas que genera  en el agua una piedra al ser lanzada en un estanque.
  2. La historia de la que parten puede ser cierta, inventada, de origen desconocido, o bien resultado de la desinformación pero, a medida que avanzan, los diversos relatores la  van apuntalando, adecuándola a sus necesidades o circunstancias. Por ello, y al igual que con el antes mencionado fenómeno de las noticias falsas, es un hecho que el usuario tiene una responsabilidad real y no puede encogerse de hombros argumentando que a él “también se le ha engañado”. En la sociedad digital moderna todos somos receptores, generadores y difusores de información, lo cual debería apelar de manera directa a nuestra responsabilidad a la hora de difundir falsedades o, simplemente, cosas de las que no estamos seguros o que simplemente desconocemos.
  3. Al final adquieren una forma estable y cerrada, de gran coherencia interna, que resulta muy difícil cuestionar.
  4. En algunos casos están tan bien estructuradas y consolidadas que cuesta mucho trabajo deslindar la realidad de la mera ficción, lo cual ha motivado, por ejemplo, que no pocos medios de comunicación “serios” hayan quedado atrapados por la magia inherente a la leyenda urbana y la hayan convertido en una noticia “real”[4].
Fake News
Los tipos que “cazaban” chicas desnudas con balas de pintura… Una fake news de gran éxito en su día. Si quieres saber más, debes leer la nota 4.

Como bien explica Brunvand, el miedo es una correa de transmisión excelente para estas historias. Ciertamente, no todas las leyendas urbanas son aterradoras o tienen por finalidad asustar, pero no es menos verdad que son precisamente las que nos tratan de prevenir de desastres, enfermedades, o crímenes, las que mejor funcionan y mayor éxito suelen alcanzar[5]. De hecho, si en este momento pidiéramos a alguien que nos contara “aquella historia que le contaron sobre un amigo de un amigo y que le impresionó”, es muy probable que escogiera una fábula truculenta o simplemente terrorífica. Del mismo modo, como sabe bien la industria de los productos milagrosos, que no hay nada mejor que mostrar a alguien que en el futuro podría ser calvo o gordo para venderle maravillas embotelladas, los difusores de leyendas urbanas o de mentiras políticas saben que lo que mejor funciona y más manipula a las masas es el pánico.

El modelo de los memes

El de meme es un concepto acuñado por el biólogo Richard Dawkins[6], y explicaría en buena medida el funcionamiento intrínseco de la leyenda urbana en tanto que “meme cultural”. A su parecer, en la naturaleza existen dos sistemas de procesamiento de información diferentes, pero complementarios:

  1. El genético: Transmite información biológica de generación en generación mediante la duplicación del ADN y los procesos de la herencia.
  2. El constituido por el cerebro y el sistema nervioso: Procesa información ambiental. Esta información se transmite por medio de la educación, la asimilación o la imitación –mímesis- y es la base de la cultura.

La idea de Dawkins es que los rasgos culturales –o memes– también seguirían en su  reproducción y replicación un proceso equivalente al de la información biológica (ADN). De tal modo, los memes constituyen unidades de información modificables e incrementables que evolucionarían, a largo plazo, igual que lo hacen los genes.

La diferencia fundamental entre ambos modelos de transmisión de información es que los genes son unidades naturales independientes, mientras que los memes los construimos nosotros como resultado del proceso de interacción comunicativa intrínseco a la dinámica sociocultural. Consecuentemente, y en términos antropológicos, la cultura no sería un conjunto determinado de conductas estandarizadas, sino la información que las concreta y otorga sentido. Desde este planteamiento es fácil entender las razones por las que el formato de la leyenda urbana es multicultural y fácilmente trasladable de unos entornos a otros: si aceptamos que los procesos que regulan el proceso comunicativo humano son constantes en la medida que categorías de especie, no hay motivo alguno para presuponer que los contenidos de tales procesos comunicativos sean diferentes más allá de sus peculiaridades superficiales. O de otro modo: es cierto que no todas las personas comen lo mismo, pero también lo es que todas las personas deben comer en tanto que necesidad biológica, con lo que las diferentes comidas que se expresan en la conducta “comer” dentro de culturas diversas expresan diferencias superficiales coyunturales, pero nunca de fondo en tanto que expresión de una necesidad universal.

El fascinante caso de los alienígenas

Alien
¿Te suena este tipo? Pues seguramente es inventado… Si no me crees, sigue leyendo.

Si prestamos atención a los relatos, ampliamente difundidos, de encuentros con supuestas entidades alienígenas ocurridos a partir de la década de 1960, y los analizamos pormenorizadamente y sin apasionamiento, pronto nos encontramos con el paradigma de la leyenda urbana: salvo muy peculiares excepciones tienden a reproducir un historia tipo en la que incluso se repiten, con pocas variantes significativas, las tipologías de alienígenas que los protagonizan:

  • Es sintomático que todos sean altos o bajos sin términos medios. Vayan ataviados con trajes fosforescentes o bien aparentemente desnudos. Siempre tienen “aspecto humanoide” y suelen ser delgados, de cabeza gruesa y ojos negros rasgados.
  • En raras ocasiones hablan con los abducidos, y si lo hacen, suele ser a través de comunicaciones “telepáticas”.
  • El abordado por estas entidades, o el directamente abduccido, por lo común argumenta no recordar gran cosa de lo sucedido durante la experiencia y su memoria se concentra en recuerdos sensoriales y toda suerte de cenestésias traumaticas –elevaciones, tocamientos, operaciones, penetraciones, y etcétera-. Raros, por muy extraordinarios, son los casos en los que detallan aspectos pormenorizados de lo que sucedió en el interior de la nave.
Alienigena de los Hill
El alienígena de los Hill. ¿Te suena?

Un antropólogo especializado en cultura popular contemporánea, John F. Moffit, profesor emérito en la New Mexico State University, se entretuvo en catalogar pacientemente infinidad de relatos anteriores y posteriores a 1965 de encuentros con pretendidos alienígenas para encontrarse con un detalle extremadamente significativo: el alienígena tipo que todos tenemos en mente siempre que sale el tema en una conversación, así como la historia de abducción básica, se apoya o recrea invariablemente en el testimonio de una sola pareja cuyo caso alcanzó enorme repercusión mediática: el del matrimonio Hill -Betty y Barney-, y data precisamente de 1965, ese año al parecer “mágico” para la consolidación cultural de esta clase de historias[7]. Lo cual, con total independencia de que exista o no vida extraterrestre -hecho que no forma parte de esta discusión- suscita inevitables preguntas: ¿es que los alienígenas que nos visitaban antes de 1965 han dejado de hacerlo? ¿A todos los “visitantes” les interesa lo mismo? ¿Todos son iguales? Y ya que estamos… Si usted pudiera realizar periódicamente un viaje de miles de años luz para visitar a unos tipos primitivos que habitan un planeta, ¿escogería a cualquier persona al azar para trabar contacto? ¿Y lo único que se le ocurriría hacer es meterles un buen susto y secuestrarlos para hacerles un examen rectal?

Barney y Betty Hill
El matrimonio Hill contándonos con pelos y detalles su historia. Poco imaginaban la que iban a armar con ella.

[1] Brunvand, J.H. (2003). El fabuloso libro de las leyendas urbanas. Demasiado bueno para ser cierto. Barcelona: Alba Editorial.

[2] Jung, C.G. (2012). Símbolos de la transformación. Madrid: Editorial Trotta.

[3] Bromhall, C. (2003). The eternal child. An explosive new theory of human origins and behavior. London: Ebury Press.

[4] En 2003, por ejemplo, el Diario El País se hizo eco de una presunta noticia difundida por gran diversidad de medios en los Estados Unidos: una supuesta empresa con sede en el estado de Nevada organizaba “cacerías”, a precios astronómicos por supuesto, de mujeres desnudas a los que los pretendidos cazadores tiroteaban con balas de pintura, en un juego absolutamente degradante y machista [Disparo a la chica]. El escándalo se había organizado a partir de las imágenes y ofertas difundidas por la pretendida página web de esta empresa. El asunto alcanzó tal revuelo que incluso el FBI investigó el caso. La realidad es que nunca se encontró a la tal empresa, ni se supo de “cacería” real alguna, ni se pudo localizar a nadie que hubiera participado –ya fuera como pretendida víctima o supuesto verdugo- en el juego perverso… La conclusión fue que se trataba de un broma a la que la sensibilización ante esta cuestión que expresan ciertos colectivos había dotado de credibilidad. Y es que la corrección política, en general, ayuda muy poco a la verdad.

[5] Brunvand, J.H. (2005). Tened miedo… mucho miedo. El libro de las leyendas urbanas de terror. Barcelona: Alba Editorial.

[6] Aunger, R. (2004). El meme eléctrico. Una nueva teoría acerca de cómo pensamos. Barcelona: Paidós.

[7] Moffit, J.F. (2006). Alienígenas. Madrid: Siruela.

Del genocidio al documental

La Segunda Guerra Mundial concluyó con la deflagración de dos bombas atómicas, en Hiroshima y Nagasaki –el 6 y el 9 de agosto de 1945-, que fuerzan la rendición incondicional del Japón. En la conciencia de muchos ciudadanos victoriosos de las potencias aliadas este acontecimiento generó un hondo sentimiento de culpa. La orden del presidente Harry Truman llevó a no pocos a pensar que el brutal esfuerzo material y humano realizado para impedir el triunfo de la depravación moral que simbolizaban las fuerzas del Eje, sólo había sido un espejismo. Al final, la guerra es un hecho criminal per se. El hongo atómico que dejó tras de sí el paso del bombardero B29 Enola Gay se convirtió en hito del desarrollo de la conciencia moral de la democracia occidental pues demostró que en la guerra todo está permitido y que, si de imponer la fuerza se trata, no hay límites que se puedan considerar razonables o inquebrantables[1]. Matar siempre es matar, y al final cualquiera puede matar mucho y bien si se lo propone seriamente. En última instancia, la catástrofe atómica, como se refleja de manera magistral en películas como Creadores de Sombra (Roland Joffé, 1989), difuminó de suerte radical las fronteras entre los vencedores y los vencidos: el terror nuclear que sustentó los precarios equilibrios de la Guerra Fría se basaba en el principio fatalista de que daba exactamente igual quién llegara a pulsar antes el botón, pues en cualquier caso nadie ganaría.

Boeing B-29 "Enola Gay"
El bombardero Enola Gay (Fuente: U.S. Air Force Photo)

Pero lo peor no habían sido la guerra en sí, o la escenografía perfectamente apropiada de su colofón atómico, sino el racimo de espantos que comenzó a airearse en los años posteriores. El polvo de los campos de batalla apenas empezaba a sedimentarse cuando ya se exhibían en los noticiarios las imágenes de Auschwitz-Birkenau y de los tremebundos campos de exterminio erigidos por los japoneses en China, si bien el horror de Hiroshima y Nagasaki motivará que esta historia quede suavizada, cuando no oculta por la mala conciencia occidental. Apenas han comenzado los juicios de Nüremberg cuando la izquierda–que no deja de escandalizarse farisáicamente con la brutalidad genocida de Hitler y sus seguidores-, se ve obligada a plegar velas. Stalin, quien coyunturalmente se había aliado con las democracias occidentales para zafarse de la amenaza germánica, empezaba a ser un enemigo y los esfuerzos realizados para mostrar a la Unión Soviética como un país amigable se diluyen. Así se empiezan a airear las terribles purgas del estalinismo. Consecuentemente, el siglo XX no sólo se convierte en el de las dos grandes guerras, sino también en el de las grandes masacres, etnocidios, genocidios y dramas humanos que culminará con las limpiezas étnicas e ideológicas de Los Balcanes, Chechenia o Libia. El siglo del odio. De hecho, es tras la Segunda Guerra Mundial que un mundo atónito ante la magnitud de la barbarie “civilizada” todos entienden necesario sancionar un delito que hasta entonces había permanecido en la impunidad: el de crimen contra la humanidad.

Acceso tren Auschwitz (Cracow Tours)
Acceso ferroviario al campo de trabajo de Auschwitz-Birkenau.

Se ha dicho a menudo que el siglo XX ha sido el de los Derechos Humanos, y no sólo porque signifique un trágico punto de inflexión en él se hayan cometido barbaries tan terribles como las arriba mencionadas, u otras no menos degradantes como el apartheid sudafricano, o la emergencia de fundamentalismos terroristas de todo signo y color. También lo ha sido porque se ha comprendido que tales derechos son una realidad inalienable que debe ser protegida por encima del siempre dudoso –y peligroso- “derecho de las mayorías” o la “razón de Estado”. De hecho, sólo tras la Segunda Guerra Mundial, a partir de 1948, los Derechos Humanos van a ser concebidos como un elemento más del derecho internacional y regulados por organizaciones internacionales de carácter mundial. Y es que se ha entendido, al fin, que la preservación de los Derechos Humanos no sólo es imprescindible para la dignificación de la persona, sino también para la estabilidad internacional. Allá donde personas son perseguidas y tiranizadas sistemáticamente más tarde o más temprano la situación interna se degrada sin remisión, hasta generar conflictos más amplios y complejos.

Como es lógico, la cultura popular se hará eco por extenso de los horrores y tragedias internacionales, así como de sus consecuencias, al punto de que ha impulsado más la conciencia mundial ante los desastres humanitarios y los crímenes del odio étnico y nacionalista que una Organización de las Naciones Unidas que, muy a menudo, se ha mostrado inerme e inoperante ante las presiones políticas de criminales y genocidas de toda suerte y color. Al fin y al cabo, los gulags protegidos por la amenaza nuclear de la URSS y los regímenes tiránicos latinoamericanos salvaguardados por los Estados Unidos eran tan inatacables en el seno del Consejo de Seguridad de la ONU, como lo puedan ser hoy los regímenes de Birmania y Corea del Norte a los que protege el gigante chino. Consecuencia: muy a menudo sólo mediante la expresión artística han sido posibles la denuncia, la concienciación de los espectadores, así como la persecución, bien sea moral -como sucedió con el ex dictador chileno Augusto Pinochet-, de los criminales.

Trabajadores en un Gulag (Gulaghistory.org)
Trabajadores en un Gulag (Fuente: Gulaghistory.com)

El siglo XX convirtió en fenómeno de masas el crimen político en sus más variopintas manifestaciones, desde el magnicidio cometido por el lobo solitario de turno o los conspiradores de rigor, al crimen de Estado diseñado para aplacar –o controlar- a determinados sectores del entorno sociopolítico de los que convenía liberarse, o a los que interesaba someter. Así, tanto el crimen de estado o de guerra, el odio interracial instigado desde el poder y el magnicidio, en todas sus manifestaciones posibles, van a ocupar un lugar central entre las imágenes icónicas de la cultura popular contemporánea, al punto de que han llegado a adquirir el rango de subgénero dentro de las manifestaciones artísticas populares destinadas a la protesta y el debate sociocultural. Así, ya en fecha tan temprana como 1915, con la técnica del rodaje cinematográfico prácticamente en desarrollo, David Wark Griffith rueda la primera película estrictamente moderna de todos los tiempos, El nacimiento de una nación. Cinta polémica donde las haya por su contenido netamente racista –los héroes salvadores de la patria son encarnados nada menos que por el Ku Klux Klan-, que provocó disturbios tras su estreno en diversas ciudades y uno de cuyos puntos culminantes es precisamente un magnicidio, el de Abraham Lincoln. El primero recreado por el cine en toda su historia. Por cierto, para el momento en que Griffith estrena su película ya se han producido otros fenómenos mediáticos que van a prefigurar la cultura popular occidental. El principal de ellos es la Guerra de Cuba, primer conflicto bélico internacional narrado masivamente en los medios de comunicación modernos.

Birth of a Nation
Uno de los reclamos publicitarios de El Nacimiento de una Nación, película basada en el texto El hombre del Clan, de Thomas DixonEl contenido del filme es más que explícito.

No es extraño, pues, que entre las imágenes más difundidas y reconocibles de nuestro pasado inmediato se encuentren el hongo atómico de Hiroshima, las excavadoras desplazando las pilas de cadáveres en Auschwitz, las víctimas de las hambrunas en Ucrania, los niños vietnamitas regados con napalm o las matanzas de hutus y tutsis en Ruanda. Tampoco que una las películas más vistas de la historia, rodada por un aficionado con un tomavistas, sea precisamente el testimonio de un testigo directo, Abraham Zapruder, quien en la Plaza Dealey de Dallas el 22 de noviembre de 1963 asistió al asesinato de John F. Kennedy. Y más: en esta tesitura, a casi nadie sorprende que el siglo XXI comenzase con las imágenes del colapso de las Torres Gemelas tras el atentado islamista del 11 de septiembre de 2001 en Nueva York. Parecería que la fusión de imagen, relato, símbolo y barbarie sean elementos insertos en la genética misma de nuestra cultura en tanto que producto audiovisual destinado al consumo de masas.

Zapruder 313
El archifamoso fotograma 313 de la película tomada por Abraham Zapruder. Un filme que ha hecho correr ríos de tinta.

Lo más increíble, sin embargo, y quizá un perfecto testimonio del cinismo en el que nos ha sumido el siglo de la barbarie, es que tras exhibirse en horario de máxima audiencia lindezas como las ejecuciones de Nguyen Van Lem[2] y Samuel Doe[3] o la autoinmolación de Thich Quan Duc[4], aún haya quien defienda la inexistencia de unas snuff-movies a las que denominamos “información” cuando nos interesa difundirlas, o pueda simplemente escandalizarse acerca de los contenidos de algunas expresiones culturales. De hecho, en un medio que, como la televisión, copa audiencias y alcanza todos los hogares, el debate acerca de las líneas que deben o no ser traspasadas en beneficio de la libertad de prensa ha hecho correr ríos de tinta y, aún hoy, se encuentra muy lejos de su resolución. Mucho se ha discutido acerca del tratamiento mediático de los sucesos, de los programas de tele-realidad como forma de entretenimiento, o de los contenidos que deberían exhibirse en determinados horarios.

Tampoco ha sido raro que los propios medios hayan intentado a menudo pactar una regulación de sus contenidos sin éxito alguno. La solución más habitual, una vez enfrentados los medios al dilema ético-moral que supone arriesgarse a afrontar críticas nada inocentes cuando se pretende informar del delito, ha sido simplemente la de guardar silencio. Inexplicablemente, el periodismo empresarial del presente, acorralado desde todos los ángulos y mediante toda clase de estrategias perversas, no ha sabido encontrar un término medio entre el servicio público y el sensacionalismo.

Sea como fuere, la película El juicio de Nuremberg (1961), de Stanley Kramer[5], dará el pistoletazo de salida a lo que será, en adelante, el relato en clave artística, y docu-dramática, de la ingente cantidad de barbaries y crímenes cometidos por los seres humanos en aras a los “grandes ideales”. Con ella, tal vez, ha comenzado un proceso de lenta pero progresiva inmunización ante estos asuntos que nos ha conducido a contemplarlos como un elemento más del paisaje socioantropológico de nuestro tiempo que ha conducido a su exposición en toda suerte de formatos, bajo todo tipo de estilísticas, e incluso con los fines aparentemente más espurios, como el cómic:

“En algún lugar del tiempo suena un disparo. Bang. El eco está grabado en nuestro inconsciente colectivo. Bang, bang. Es una bala en el corazón del mundo. En Miami, un abogado del distrito se desangra hasta la muerte en la calle. En Bosnia, un reformista popular es tiroteado junto a una cafetería. Bang, bang… Se oyen disparos en Nicaragua, en Irlanda y en Costa de Marfil. Caen políticos y disidentes, las economías oscilan, países enteros cambian de forma. Es el sonido de la historia cambiando. A veces son tres disparos… o cuatro… o cinco. En Dallas un desfile de coches gira a la izquierda… Bang. Un presidente elegido democráticamente cae de lado y un golpe de Estado ha tenido lugar. Tres disparos, un tirador, fin de la historia. Días después, suena otro disparo. El pistolero loco y solitario es tiroteado a su vez, y no queda nadie que hable. La gente moverá la cabeza y volverá a su vida, y maldecirá el nombre del asesino para siempre… Dejando que el auténtico asesino vuelva a hacerlo una y otra vez”[6].

Lo cierto es que Stanley Kramer, autor reincidente en esta clase de temáticas como el alemán Otto Preminger, creó escuela y lo hizo en paralelo a la evolución del mercado literario y periodístico de su tiempo, constante fuente de inspiración para guionistas y directores de medio mundo. Fundó, por tanto, una tradición cinematográfica revisionista y harto crítica tanto con la sociedad presente como con la pasada que la inspiró y que, posteriormente, durante la década de 1970, abanderarán los Giuliano Montaldo, Gillo Pontecorvo, Werner Herzog, Arthur Penn, Stuart Rosemberg o el aclamado Reiner Werner Fassbinder, uno de los primeros cineastas que recupera de manera activa el papel protagonista de la mujer en la cultura y la sociedad. Autores y temas críticos, duros, a menudo escasamente amables para el espectador que anticipan la pasión por el documental del presente.

Judgement at Nuremberg (Kramer)
Uno de los muchos carteles promocionales de El juicio de Nuremberg, de Stanley Kramer. Cinta que va a marcar un antes y un después en la concepción del cine.

[1] Hoy, para mucha gente, el nombre de Enola Gay hoy es únicamente el título de una popular canción de la banda tecno-pop Orchestral Manoeuvres in the Dark. Un ejemplo más de que la cultura popular todo lo asume, lo reinterpreta y lo transforma en otra cosa, generalmente vendible.

[2] Soldado del Vietcong ejecutado en Saigón ante los objetivos de las cámaras del periodista Eddie Adams y de los reporteros de la NBC. Adams, que captó el momento exacto en que el ejecutado recibía el impacto fue premiado con el premio Pulitzer por esta fotografía que, durante décadas, se convirtió en el testimonio perfecto de los horrores de la guerra. Un éxito amargo: el premiado se sintió durante años culpable al creer que con su conducta había instigado la ejecución de Nguyen.

[3] Presidente-dictador de Liberia entre 1980 y 1990. Tras alcanzar el poder mediante un golpe de estado y practicar durante su mandato toda suerte de crímenes y felonías, Doe sería depuesto tras una breve pero cruenta guerra civil por Charles Taylor. Las imágenes de la tortura y posterior ejecución de Doe dieron la vuelta al mundo en horario de máxima audiencia y aún puede encontrarse en algunos lugares de internet, como este: [Daily Motion].

[4] Monje budista que se quemó hasta morir en una calle de Saigon en protesta por el trato que recibían los seguidores de su religión en el país. La imagen y el relato de la autoinmolación del monje les valió sendos premios Pulitzer a los periodistas Malcolm Browne y David Halberstam. Tristemente célebre, esta forma de suicidio protesta llegaría posteriormente a hacerse verdaderamente popular, ocupando un lugar central en los medios de comunicación. Hoy la tremenda imagen ha alcanzado el punto de banalización extrema al ser incluso portada de discos, como el primer LP de la banda Rage Against The Machine (1992).

[5] En España, de manera perfectamente equívoca y necesariamente ideológica, se estrenó con el absurdo título de Vencedores o vencidos.

[6] Jenkins, P.; Garney, R. y Buscema, S. (2000). The Dogs of War: Part 1. En: The Incredible Hulk, Vol. 3, 14. Marvel Entertainment.

El primer catedrático de psicología español

Luis Simarro Lacabra  no sólo fue uno de los fundadores de la tradición científica de la psicología en España, sino que también desempeñó un papel esencial en su proceso de institucionalización que, a posteriori, coronaron buena parte de sus discípulos. No obstante, a causa del escaso apoyo que el proyecto clínico e investigador del doctor Simarro recibió en su día, a caballo entre los siglos XIX y XX, su tarea ha quedado oscurecida, siendo a menudo injustamente olvidada como fruto de ese eterno –y a menudo interesado- malentendido que tiende a convertir la historia de las cosas en funesta “letra muerta”. En todo caso, sus continuadores dirigieron el timón de la psicología hacia campos aplicados, especialmente el de la psicotecnia, con lo que la nueva ciencia creció y prosperó en nuestro país, consolidándose en la década de 1920, cuando se establecieron, respectivamente, los laboratorios de Madrid y Barcelona.

La Guerra Civil (1936-1939), y el consiguiente exilio sudamericano de buena parte de las cabezas pensantes de la psicología española, supusieron un fuerte varapalo para el desarrollo de la actividad psicológica que, a partir de 1945, comenzó a remontar el vuelo en un lento proceso de recuperación que pasó por la fundación en 1952 de la Sociedad Española de Psicología, para llegar a su cénit en 1968, año en el que se fundó la licenciatura en psicología.

En 1980 abrió sus puertas la primera Facultad de Psicología, con lo que finalmente las esperanzas y anhelos de pioneros como Simarro se hacían realidad y la ciencia psicológica, tras casi un siglo de esfuerzos, lograba penetrar y establecerse como miembro de pleno derecho en el corazón de la actividad académica regular.

Tabla 1. Cronología del doctor Simarro

1851. Hijo del pintor valenciano Ramón Simarro Oltra, Luis Simarro Lacabra nace en Roma.

1854. Trágicamente, el pequeño Luis Simarro queda huérfano. Es internado en el Colegio de Nobles de San Pablo, en Valencia.

1869. Participa en los levantamientos republicanos.

1873. Forma parte activa del movimiento cantonalista. Diversos problemas ideológicos le llevan a instalarse en Madrid.

1874. Obtiene en esta ciudad la licenciatura en Medicina. Enseña en la Escuela Práctica Libre de Medicina y Cirugía.

1876. Defiende su tesis doctoral: Relaciones materiales entre el organismo y el medio como fundamento de una teoría general de la higiene. Se encarga de la sección de Higiene en el Anfiteatro Anatómico Español. Gana por oposición un puesto en el Hospital de la Princesa.

1877. Es nombrado director del Manicomio Santa Isabel, sito en Leganés.

1879. Problemas con las autoridades eclesiásticas que regentan el organismo, le llevan a presentar su dimisión como director del Manicomio Santa Isabel.

1880. Comienza su estancia en París. Allí conocerá a Nicolás Salmerón y será alumno de Charcot, entre otros.

1885. Regreso de París. Inaugura su propio consultorio dedicado a la neuropsiquiatría.

1888. Comienza a ofrecer clases de  psicología fisiológica en el Museo Pedagógico.

1892. Oposita sin éxito a la cátedra de Histología normal y Anatomía patológica de la Facultad de Medicina de Madrid. El ganador de la plaza fue Santiago Ramón y Cajal.

1893. Se reincorpora como médico supernumerario (sin sueldo), en el Hospital de la Princesa.

1894. Alcanza el rango de profesor ayudante del Museo Pedagógico, donde funda el primer Laboratorio de Antropología Pedagógica de España.

1902. Obtiene la recién creada cátedra de Psicología Experimental en la Facultad de Ciencias de la Universidad Central. Funda un pequeño laboratorio que será el primero dedicado a la psicología experimental de España.

1903. Colabora en la creación de la Escuela de Criminología, donde luego ejercerá como profesor de psicopatología.

1907. Participa en la creación de la Junta de Ampliación de Estudios.

1909. Defensa pública, desde la cátedra del Ateneo de Madrid, de Francisco Ferrer Guardia.

1910. Publica su único libro: El proceso de Ferrer y la opinión europea.

1913. “Decreto del catecismo”. Simarro organiza una campaña en defensa de la libertad de conciencia. Funda la Liga para la Defensa de los Derechos del Hombre y del Ciudadano. Es elegido Gran Maestre de la Masonería Española.

1921. Fallece en Madrid.


Simarro
El Doctor Simarro en una fotografía de sus últimos años.

Los años de formación

A Simarro le tocó vivir uno de los períodos más convulsos de la historia española. Su juventud se desarrolló en el seno de una nación que se debatía sin cesar entre dos tendencias contradictorias: la apertura hacia Europa en forma de un desesperado intento de recuperación del lugar preponderante que el país tuvo en el concierto internacional y, a su vez, la consolidación de un estado social y mental inmovilista, ultramontano y conservador.

Las guerras carlistas, las constantes insurrecciones militares, la guerra de África, la Revolución de 1868, las revueltas estudiantiles que preludiaron la caída del régimen monárquico de Isabel II, e incluso el emergente movimiento obrero, influyeron decisivamente en la formación de un joven Simarro educado en el ambiente romántico de la Valencia de mediados del XIX. De hecho, marcaron definitivamente su posición ideológica y existencial ante la época que le tocó vivir. De hecho, Luis Simarro se significó muy pronto como una figura progresista, políticamente radical, orientada hacia un republicanismo militante y defensora a ultranza del librepensamiento. Así, participó activamente en la Junta Revolucionaria, llegando a ser tesorero de la misma, durante el sexenio revolucionario. Del mismo modo, fue parte activa de los levantamientos republicanos y cantonales que se sucedieron en los días previos a su marcha de la Ciudad del Turia.

En el plano intelectual, el radicalismo del joven Simarro se hizo patente en el curso de su ardua defensa del positivismo en el Ateneo Valenciano. Fue en el curso de la misma que se enemistó con uno de sus profesores de medicina. Esta circunstancia, unida a la pérdida de su plaza como profesor en el Colegio de San Rafael por motivos también ideológicos, obró como detonante en su decisión de trasladarse a Madrid.

Un año después de su llegada a Madrid, en 1874, Luis Simarro obtiene sin más contratiempos su licenciatura en medicina. Pero encontró mucho más que una titulación y un destino profesional. No en vano, el Madrid en el que se desenvuelve el licenciado Simarro es el del espíritu del Ateneo y de la gestación de la Institución Libre de Enseñanza (ILE). También es el del fin de la Primera República, el inicio de la Restauración canovista y, en consecuencia, el del retrotraimiento del país al plúmbeo conservadurismo de décadas pasadas.

Pedro Gonzalez de Velasco
El doctor Pedro González de Velasco

No obstante, alejado -que no olvidado- de las complicaciones políticas de los primeros años, Simarro comenzó a abrirse camino por mediación de uno de sus profesores, el peculiar médico Pedro González de Velasco, quien le introdujo en el círculo de médicos, histólogos y naturalistas que orbitaban alrededor de la Sociedad Antropológica Española y el Museo Antropológico que él mismo había puesto en pie. En este último funcionaba la Escuela Práctica Libre de Medicina y Cirugía, en cuyo seno Simarro se va a encargar de impartir un curso sobre higiene. Su interés por las cuestiones higiénicas venía ya de los años valencianos y se convirtió en el eje central de su tesis doctoral, que empieza a ultimar en este momento. También en la misma línea se hizo cargo de la Sección de Higiene del Anfiteatro Anatómico Español.

Museo Nacional de Antropología (España) 01
Actuales instalaciones del que hoy es Museo Antropológico Nacional (Madrid).

En 1880, Luis Simarro se siente desconectado de los últimos progresos científicos y toma la tajante decisión de abandonarlo todo para viajar a París, entonces punta de lanza en la investigación neurológica y psicofisiológica. Como recuerda su amigo Cortezo, Simarro se quejaba constantemente de la falta de laboratorios y de clima intelectual apropiado para hacer una ciencia sólida y perdurable en España: “yo necesito ir a París, y después… a donde haga falta”, era su coletilla habitual. Y allí pasaría cinco años enormemente productivos.

Doctor Carlos Cortezo
El doctor Carlos Cortezo.

En el parisino Hospital de la Salpêtrière, Simarro trabaja y estudia con los mejores: Duval, Ranvier, Magnan o Richer. Pero, ante todo, con el gran Jean-Martin Charcot al que los propios franceses reconocían como “Príncipe de la Ciencia” al mismo nivel que otros ilustres como Louis Pasteur. La influencia de Charcot, defensor a ultranza de una adecuada preparación psicológica para los psiquiatras, sobre el doctor Simarro resultó decisiva a la hora de orientarle hacia la práctica clínica.

Hospital Salpetiere antigua
El Hospital de la Salpêtrière (París) en una fotografía de época.

Entretanto, y gracias al concurso del doctor Federico Rubio, Simarro tomaría contacto con la Institución Libre de Enseñanza (ILE), cuyo ideario comparte y de la que se hará accionista y estrecho colaborador. De este contacto nacerá una duradera e intensa amistad con Giner de los Ríos y algunas publicaciones científicas que veran la luz en las páginas del Boletín de la Institución Libre de Enseñanza. Cuando la Institución crea el Museo Pedagógico, Simarro se implica en el mismo como profesor de psicología fisiológica, organizando allí en 1894 un pionero Laboratorio de Antropología Pedagógica.

Federico Rubio y Galí
Federico Rubio y Galí.

Una familia peculiar

Simarro vivió unas circunstancias familiares ciertamente especiales. La temprana muerte de su padre y el posterior suicidio de su madre le dejaron huérfano con tan sólo tres años de edad, lo cual motivó que su infancia y adolescencia se desarrollaran en un internado, bajo el amparo de familiares y amigos, como el pintor Luis de Madrazo y Kuntz o Beatriz Tortosa, una dama ilustrada y religiosa de la alta sociedad valencia que siempre le apoyó.

Luis de Madrazo
El pintor Luis de Madrazo y Kuntz.

Fue precisamente gracias al concurso de doña Beatriz que Simarro contrajo nupcias con Mercedes Roca Cabezas, con lo que su vida propiamente familiar se redujo al marco del matrimonio. Lo cierto es que Simarro no tuvo hijos naturales, pero la necesidad de vida hogareña y su reconocido carácter generoso, le llevaron a adoptar la decisión de acoger en su propia casa de la calle General Oraa a algunos de sus alumnos favoritos, como es el caso de Nicolás Achúcarro, con quien compartió intimidades personales e inquietudes profesionales. No obstante, tras la prematura muerte de su esposa en 1903, vivió en el plano afectivo dedicado por entero a sus amistades, como la del pintor Joaquín Sorolla, y sus ocupaciones profesionales. Entre sus pacientes, por ejemplo, se contaron muchos de los más granados personajes de su tiempo, como es el caso del escritor Juan Ramón Jiménez, quien vivió aquejado como es sobradamente conocido de graves crisis de melancolía.

Mercedes (Madrazo)
Mercedes Roca retratada por Luis de Madrazo.

Con posterioridad, sería su ahijada Marina Romero quien se trasladaría al domicilio de Luis Simarro, conviviendo con él hasta el día de su muerte. Marina se implicó tanto con el trabajo de su padrino, que incluso llegó a prestarse como sujeto experimental de las diferentes pruebas psicométricas y de medida de la inteligencia que el Doctor desarrolló a partir de 1914.

Simarro neurohistólogo

Cuando Luis Simarro retorna de París, en 1885, lo hace con una sólida formación como neurólogo así como amplios conocimientos de neurohistología adquiridos de los maestros Duval y Ranvier. De hecho, fue en el laboratorio de este último donde aprendió el novedoso método de tinción con nitrato de plata idea por Camilo Golgi en 1873, y que permitía la visualización selectiva de las células nerviosas.

Dado que la tradición neurológica española se reducía prácticamente a la escuela creada alrededor de Avelino Martínez de San Juan, bien puede decirse que a un nivel técnico Simarro estaba en la cúspide de los avances en la materia. No es extraño, por tanto, que en 1887 recibiera la visita de Santiago Ramón y Cajal, quien le confesó sin ambages los problemas que encontraba para progresar en su trabajo con los viejos métodos de tinción del tejido nervioso, pues valiéndose de ellos su visión microscópica resultaba tarea harto compleja. Simarro no dudó en compartir con el aragonés toda suerte de información al respecto de su estancia en París, así como sobre los procedimientos del método de tinción de Golgi. Los resultados ulteriores de estas enseñanzas, que permitirían al gran Ramón y Cajal avanzar en su trabajo hasta la consecución del Premio Nobel, son de todos conocidos.

Santiago Ramón y Cajal
Santiago Ramón y Cajal.

El propio Simarro trabajó habitualmente con el microscopio en el desarrollo de las técnicas neurohistológicas, logrando resultados tan relevantes como la diferenciación del cilindroeje con respecto a las dendritas. Hallazgo que se describe en un artículo que se publicó en la Revista Micrográfica que regentaba Cajal.

Revista Micrografica
Ejemplar de la Revista Micrográfica Española.

Otra vez España

Pero la vuelta de Francia supuso para Simarro, también, el reencuentro con la dura realidad española de la época que encontró más asfixiante si cabe en relación a lo vivido allende los Pirineos. Cierto que gozó del éxito como neuropsiquiatra en su propia clínica e incluso en sus estudios microscópicos, y que la reincorporación a sus actividades en el Hospital de la Princesa pudo tener un cierto efecto balsámico. Pero el clima asfixiante, inmovilista y retrógrado de un país aislado intelectualmente sirvió para acicatear de nuevo su inquieta e insobornable conciencia política. Así lo muestra la conferencia que pronunció en 1886 en el Ateneo de Madrid. Referida a las figuras dos médicos patrios relevantes como Pedro Mata (discutido en España y aislado por sus propios colegas) y Mateo Orfila (apoyado y aclamado en su exilio francés). Su alocución, de carácter apologético, quiso ser un alegato contra el conservadurismo intelectual y científico: “las obras del genio -argumentó- exigen siempre la colaboración del medio”.

Boletin ILE
Ejemplar del Boletín de la ILE.

En todo caso, el retorno a Madrid supuso también el reencuentro del doctor Simarro con la ILE, en cuyo funcionamiento docente se implicó de manera activa a partir de 1888 como profesor de psicología fisiológica. Este influjo institucionista le indujo a preocuparse estrechamente por la aplicación de la psicología experimental a los problemas de la pedagogía como demuestran los contenidos de su curso de 1889, que versó acerca de El exceso de trabajo mental en la enseñanza. El contenido del mismo resulta interesante como muestra de la personalidad de Simarro, en la medida que le permitió aunar sus dos grandes intereses, ciencia y sociedad, propugnando una de sus aspiraciones principales: el progreso científico debía ponerse en todo caso al servicio del progreso social.

Los laboratorios. Pasión y necesidad

Simarro, en tanto que persona de claro talante empírico, siempre fue un apasionado de la actividad experimental, y su estancia en París resultó decisiva a la hora de concretar y consolidar este interés que ya venía de su mocedad. De hecho, se convirtió en un apasionado del trabajo de laboratorio y no dudo en montar uno, de carácter modesto, en su primera vivienda madrileña del Arco de Santamaría. Allí recibió la trascendental visita de Ramón y Cajal a la que antes se aludió.

Tras edificar la casa de General Oraa, el doctor Simarro instaló en ella otro excepcional laboratorio y una gran biblioteca que muy pronto se convirtieron en punto de referencia obligado y lugar de encuentro para alumnos,  discípulos, colaboradores y amigos. De la magnificencia de estas instalaciones, y del rigor científico con el que se trabajaba en ellas, da buena cuenta el hecho de que Rodríguez Lafora, bajo la estricta dirección de Simarro y Achúcarro, pudiera llevar a término su primer gran proyecto científico sobre la histología del sistema nervioso de los peces.

Simarro (Sorolla) #2
Simarro retratado por Sorolla en el ejercicio de una de sus grandes pasiones: la microscopía.

Pero Simarro, un apasionado microscopista que  siempre mostró un abierto disgusto por la escasez y precariedad de las instalaciones experimentales españolas, hizo también enormes esfuerzos en el terreno las infraestructuras para la investigación pública. Así lo demuestran la apertura del Laboratorio del Museo Pedagógico y las instalaciones que puso en marcha en el seno de la Facultad de Ciencias de la Universidad Central en 1902, a poco de obtener la cátedra de Psicología Experimental. Cabe reseñar que uno de los grandes sinsabores vitales de Luis Simarro fue precisamente el de la precariedad de este laboratorio universitario, que él habría querido mucho mejor dotado de lo que pudo estarlo en la práctica.

Entre la cátedra y la ciudadanía

A principios de la década de 1890 se produjo un trascendental cambio en la organización académica de las disciplinas humanísticas en España. El resultado del mismo es la aparición de la primera cátedra de Sociología que ocupó Salas y Ferrer, la de Antropología que ganó Manuel Antón y, finalmente, la de Psicología Experimental que obtuvo Luis Simarro.

No cabe duda de que para Simarro fue una merecida recompensa si se tienen presentes sus esfuerzos por la mejora de las condiciones científicas nacionales y, por otro lado, su fracaso en 1892 cuando perdió la cátedra de Histología y Anatomía Patológica en beneficio de un competidor mucho más que digno, como era Santiago Ramón y Cajal. En todo caso, esta nueva tribuna sirvió al profesor Simarro para dar a conocer la nueva psicología europea, en especial la psicofisiología de Wilhelm Wundt, cuyo Manual de Psicología solía recomendar a los alumnos como libro de texto. Como partidario del evolucionismo y el asociacionismo, la psicología de autores como William James, Francis Galton, Ziehen o Bechterev eran también elementos habituales de sus temarios.

La actividad docente de Simarro tuvo matices singulares, muy acordes con su marcada personalidad de librepensador. Solía preguntar a los alumnos en los primeros días del curso qué deseaban estudiar e incluso les ofrecía su propia biblioteca para preparar los exámenes. Sin embargo, aprobar resultaba tan extremadamente difícil que durante el segundo año se produjo un conato de sublevación entre los estudiantes. Ni siquiera la extraña cortesía de Simarro, que nunca suspendía al interesado sino que se limitaba a devolverle la papeleta de calificación en blanco invitándole a examinarse otra vez, pudo eximirle del comprensible enojo de algunos de sus pupilos.

Sin embargo, nunca a lo largo de su andadura vital desdeñó u olvidó el doctor Simarro las ideas políticas y sociales que defendiera en la juventud. De hecho, es probable que en más de una ocasión su republicanismo confeso, la filiación a la masonería que le indujo a una defensa a ultranza de la libertad de pensamiento, el monismo que propugnó en el plano investigador y su agnosticismo, obraran en contra de sus propios intereses certificando el aislamiento intelectual y el silencio científico que dominó los últimos años de su vida.

Simarro (Sorolla) #1
Simarro en otro célebre retrato de Sorolla.

Lo cierto es que a partir de la obtención de la cátedra, Simarro se retrotrajo al proselitismo de los primeros años, con lo que su actividad como hombre de ciencia quedó bastante mermada. Destacable es, sin embargo, la tarea institucional que desempeñó como miembro activo de la Asociación para el Progreso de las Ciencias y, en el marco de la ILE, su participación en la creación de la Junta de Ampliación de Estudios en 1907 y su contribución a la constitución de la Residencia de Estudiantes.

Luis Simarro también perteneció a la Liga Monista, entidad que pretendía hacer de la ciencia la base de la explicación del mundo y el elemento conductor de la vida de los pueblos. A este organismo estaban adscritos nombres tan relevantes como los de Ernst Haeckel, Forel y Jacques Loeb. Pero el doctor Simarro fue, ante todo, un miembro destacado de la Federation Internationale de la Libre Pensée y, en calidad de tal, un enconado opositor a la pena de muerte. No resulta extraño que tras los acontecimientos de la Semana Trágica, en 1909, fuera el primer intelectual de prestigio que salió en defensa de Francisco Ferrer Guardia, fundador de la Escuela Moderna de Barcelona injustamente acusado, primero, de ser el cerebro del atentado fallido contra Alfonso XIII y Victoria Eugenia, y luego, de agitador social. En este contexto se sitúa su libro de 1910, El proceso Ferrer y la opinión europea, catalizador de un movimiento que logró en 1911 la revisión del caso, y el posterior reconocimiento del grave error judicial cometido.

Francisco Ferrer
Francisco Ferrer y Guardia, injustamente condenado por terrorismo y crímenes políticos.

Tampoco evitó Simarro las reuniones públicas en torno a elementos liberales y disidentes, llegando a organizar un buen número de ellas, ni los enfrentamientos directos con las autoridades políticas y eclesiásticas. Así, en 1913 y con motivo del controvertido “decreto del catecismo”, organizó una campaña en defensa de la libertad de conciencia a la par que fundaba la Liga para la Defensa de los Derechos del Hombre y del Ciudadano, organismo que se destacó especialmente en la defensa de los sindicalistas condenados a raíz de la huelga general de 1917.

No resulta por todo ello sorprendente que la Masonería Española elevara al doctor al rango de Gran Maestre, como tampoco que el propio Simarro utilizara este foro para poner en marcha nuevos proyectos progresistas: la preparación y consolidación de la Sociedad de Naciones, una intensa campaña pacifista durante la I Guerra Mundial y, pese a no compartir en absoluto el ideario de la Revolución Bolchevique, la defensa humanitaria del pueblo ruso ante el bloqueo internacional. Incluso Miguel de Unamuno, perseguido por delitos de prensa, encontró en la proverbial apertura de miras del ciudadano Simarro un apoyo incondicional. No cabe pensar, sin embargo, que las tendencias políticas del doctor fueran capaces de nublar su buen juicio, o traicionar su manifiesto respeto por el librepensamiento y la negación del dogmatismo. A tal respecto, es conocida la anécdota que se produjo cuando en 1907 el padre Benito Menni, entonces Superior de la Orden Hospitalaria de San Juan de Dios, ignorando el consejo de quienes trataron de disuadirle, se presentó en el despacho de Simarro para ofrecerle el puesto de director-médico del Manicomio de Ciempozuelos, pues quería al mejor especialista posible para el cargo. Ciertamente, y dados sus antecedentes, Luis Simarro no podía aceptar la proposición, pero no por ello renunció a ayudar también al sacerdote: le propuso que contratara a uno de sus mejores discípulos y amigos, el doctor Miguel Gayarre, persona que asumió la tarea con notables resultados.

Miguel Gayarre
El doctor Miguel Gayarre.

El último gran gesto de Luis Simarro, como hombre de ciencia y como ciudadano ejemplar, fue el de legar la mayor parte de su fortuna -unas 600.000 pesetas de la época y una biblioteca personal que contaba más de 4.000 volúmenes- para la creación de una Fundación dotada de un gran laboratorio experimental que contribuyera al estudio y el desarrollo de la psicología en España. Esta Fundación se constituyó en 1927, pero el sueño del gran centro de investigación no llegó a realizarse jamás para ser definitivamente truncado por la Guerra Civil. Sin embargo, el plan de Simarro se vio cumplido al menos en parte puesto que los fondos de su Fundación, actualmente adscrita a la Fundación General de la Universidad Complutense de Madrid, sirvieron para ayudas a la investigación y becas de las que se beneficiaron personas que han sido grandes continuadores y catalizadores de la tradición psicológica que él inició. De hecho, y como el propio Simarro dijo en cierta ocasión, los verdaderos hijos de los intelectuales no son los que éstos engendran materialmente “sino los hijos sociales por quienes sacrifican su vida”.


Otras fuentes

Bandrés, J. (2003). Luis Simarro i la psicologia científica a Espanya: Cent anys de la primera càtedra de Psicologia. Valencia, España: Universitat de València.

Carpintero, H. (1987). El Dr. Simarro y la psicología científica en España. J.J. Campos Bueno & Llavona R. (eds.), Los orígenes de la psicología experimental en España. Investigaciones Psicológicas, 4, 189-207.

Saiz, M., & Saiz, D. (1996). Personajes para una historia de la psicología en España. Barcelona, España: Servei de Publicacions de la Universitat Autònoma de Barcelona.

Simarro, L. (1889). El exceso de trabajo mental en la enseñanza. Boletín de la Institución Libre de Enseñanza13, 37-39.

Simarro, L. (1910). El proceso Ferrer y la opinión europea (Vol. 1). Madrid: E. Arias.

De vampiros, licántropos y otros amigos (parte 2)

Nosferatu Murnau
El clásico “Nosferatu” (1922), del cineasta alemán F. W.  Murnau, trató de convertirse en la primera adaptación cinematográfica de la archifamosa novela de Bram Stoker. Sin embargo, un problema con los derechos de autor motivó una serie de transformaciones argumentales que, finalmente, convirtieron al vampiro de los Cárpatos original en el icónico Conde Orlok, interpretado por el actor Max Schreck.

Existen al parecer ciertas circunstancias médicas, si bien esta cuestión no deja de levantar controversias enconadas y debates relativos a su corrección política, que permitirían explicar lo que la superstición interpretó como vampirismo y licantropía[1]. La más obvia es una enfermedad conocida como porfiria cutánea tarda (PCT), una de las dos variantes de la porfiria eritropoyética[2]. Siendo la PCT una dolencia poco frecuente, pues es más común la otra variedad denominada porfiria aguda intermitente (PAI), que se manifiesta en forma de dolor abdominal, vómitos y diarrea, acompañados de otros síntomas neurológicos así como alteraciones psiquiátricas[3].

Quienes sufren de la extraña PCT, una enfermedad que aqueja especialmente pero no exclusivamente a los alcohólicos, se vuelven extremadamente fotosensibles y no pueden exponerse al sol sin sufrir lesiones ulcerosas en la piel a causa de la destrucción celular. Los tejidos cutáneos enrojecen con rapidez y se desarrollan ampollas, lo que bien haría a un observador externo imaginar que se trata de quemaduras provocadas por la luz solar. Quedan horribles cicatrices, pudiendo el paciente en los casos más extremos perder los dedos, la nariz y las orejas. Los ojos se ponen rojos. Por otra parte, se llegan a caer todos los dientes quedando tan solo los caninos. Todo ello termina por otorgar al paciente un aspecto grotesco y terrible.

Porfiria
Mujer afectada de PCT. Sobran los comentarios.

Ocurre que existen, además otras enfermedades que al sistema endocrino de espectaculares manifestaciones, como aquellas que desarrollan un anormal y desenfrenado crecimiento del cabello y el vello corporal en un proceso que se conoce como hirsutismo o hipertricosis, y que se relaciona con una rara mutación genética hereditaria que provoca, entre otras cosas, un aumento desproporcionado de la cantidad de andrógenos. Así se explica, por ejemplo, el fenómeno de las tristemente célebres “mujeres barbudas”.

hioertricosis
Hipertricosis.

En definitiva, la PCT y la hipertricosis dotarían al convaleciente de gran parte de las características físicas que la leyenda atribuye tanto a los vampiros como a los hombres lobo: palidez anémica, ojos inyectados en sangre, pelo en las palmas de las manos o en todo el cuerpo, y etcétera. Especialistas como David Dolphin, de la University Of British Columbia, han presentado en diversos foros científicos célebres informes en los que exponen con sumo detalle los muchos puntos de contacto que se observan entre las leyendas de vampiros y la bioquímica de la porfiria. Evidentemente, estos pacientes no son criminales sino, en todo caso, víctimas del imaginario popular y de la ignorancia como tantos otros que en el decurso de la historia han sufrido dolencias consideradas malditas por una u otra razón. En todo caso, resulta obvio imaginar que el mito precede a la enfermedad y que, sin más, ésta se habría convertido en supuesta prueba del primero. Por lo general, la gente ve lo que quiere ver siempre que se enfrenta a lo que no comprende.

También hay otras causas que pueden darnos cumplida cuenta del hecho vampírico como, por ejemplo, las dificultades que se han tenido hasta hace relativamente poco tiempo a la hora de determinar el fallecimiento clínico de una persona[4]. No era extraño –teniendo presente que incluso hoy es posible- que hasta hace no más de setenta años se enterrara aún con vida a un porcentaje de personas escalofriantemente elevado, ya fuera en estado catatónico o cataléptico inducido por una fiebre alta o cualquier otra dolencia que afectara de suerte peculiar al sistema nervioso. Si el supuesto fallecido tenía la suerte de haber sido depositado en un panteón familiar u otro lugar que le permitiera vencer las dificultades inherentes a su situación y abandonar su encierro, es lógico pensar que la superstición popular haría su trabajo para transformarlo en un ser maligno de cualquier especie. La cantidad de estremecedores relatos, historias, cuentos y leyendas que inciden en este sórdido tema son ingentes y pueden hallarse en todas las tradiciones culturales del mundo. Sirva un dato ciertamente terrible: a principios del siglo XX las autoridades de los Estados Unidos ya calculaban que en a lo largo y ancho del país se enterraba al menos a una persona viva cada semana. El pánico al respecto llegó a ser tan exagerado que se ideó toda suerte de ingeniosos aparatos para que el pretendido cadáver pudiera activarlos desde su macabro encierro en caso de entierro prematuro. También proliferaron las casas de muertos y otras dependencias similares, en las que el cuerpo reposaba bajo la estrecha vigilancia de celadores atentos al menor signo de vida durante unos días, antes de ser finalmente enterrado.

ataud_seguridad
Diseño de uno de los múltiples modelos de ataúd de seguridad, con cuyo concurso se pretendía evitar la eventualidad de ser enterrado vivo, cuya patente se registró durante el siglo XIX. Para saber más sobre esto, sigue el enlace.

Tampoco faltan los relatos de cadáveres conservados en perfectas condiciones tras años de recibir sepultura que fueron en su momento atravesados con estacas, clavados al suelo, desmembrados y otras lindezas parecidas. No obstante, es conocido que en determinadas circunstancias medioambientales un cadáver puede tardar años, décadas e incluso siglos en descomponerse.

“[…] La descomposición depende de muchas variables. Un cuerpo enterrado puede perdurar casi indefinidamente en el hielo. La turba y la humedad también son capaces de retardar la descomposición. En arena seca los cadáveres se momifican hasta convertirse en duradero pergamino. En tierras ricas en minerales pueden impregnarse de sales y metales. Pero si no han sido enterrados, sobre todo cuando hace calor, el proceso de esqueletización llega a ser asombrosamente rápido. El tiempo mínimo que requiere la esqueletización total no es de nueve años ni de nueve meses, ni siquiera de nueve semanas: puede producirse en aproximadamente nueve días. […] El recipiente funerario tiene una tremenda importancia. Los recipientes herméticos que protegen el cadáver del medio ambiente […] proporcionan un grado sorprendente de preservación, incluso durante periodos prolongados de tiempo. He visto como un cadáver bien embalsamado –un cadáver al que se había hecho la autopsia, lo cual dificulta considerablemente el embalsamamiento- duraba veintisiete años dentro de un ataúd hermético en el interior de una cripta, con rasgos perfectamente naturales y sólo unas pequeñas zonas de piel desprendidas de manos y pies. […] Aunque no esté protegido por ningún recipiente, un cadáver dura más si se encuentra bajo tierra”[5].

En todo caso, bastaba con que el fallecido hubiera sido un individuo peligroso, malvado, sospechoso de haber practicado la brujería o de costumbres poco respetables para que en lugar de santo fuese considerado vampiro o poseído por demonios. Así, el tratamiento que recibía su cuerpo era tan expeditivo como implacable. De esta época de supersticiones proceden falsas creencias que, aún hoy, se encuentran muy extendidas entre la población, como la de que el pelo y las uñas siguen creciendo después de la muerte: “es un mito que las uñas y el pelo sigan creciendo después de la muerte –explica William Maples-. Lo que sucede en realidad es que la piel se repliega a su alrededor, haciendo que el pelo y las uñas se levanten y sobresalgan más”[6].

El Entierro Prematuro (Antoine Wiertz)
“El entierro prematuro”, obra de Antoine Wiertz (1854).

Por otra parte, y pese a que las leyendas de vampiros resulten interesantes como pasatiempo o motivo de reflexión filosófica y antropológica, es evidente que tras la mayor parte de las que tienen algún viso de ser ciertas no puede esconderse otra cosa que una mente enferma o un criminal[7].

Vampirismo y licantropía como patología psíquica

El asesino vampírico, tanto como el licántropo, son, como todos los psicópatas y al igual que el resto de los seres humanos, prisioneros de sus fantasías. El problema reside en que la imaginación de estos individuos se rige por mapas mentales impensables para el resto de las personas. Obtienen satisfacción bebiendo la sangre de sus víctimas, sencillamente viéndola correr, comiendo su carne o profanando cadáveres, y no dudan en recurrir incluso al asesinato para satisfacer sus necesidades parafílicas. El fetichismo por la sangre y la carne, que algunos psiquiatras denominan Síndrome de Renfield[8], es en realidad una forma de necrofilia en la que el sujeto, en sus fases iniciales, comienza experimentando con animales hasta focalizarse en otras personas y convertirse a medida que los delirios fantásticos del individuo crecen, en auténticos depredadores de novela. Es cierto que este tipo de casos, cuya incidencia estadística es en realidad escasísima, resultan especialmente llamativos al profano y copen protagonismo en medios de comunicación, relatos de terror, películas, cómics, videojuegos o series de televisión. Y es por ello que muchos de los asesinos más conocidos de la historia del crimen –que no los más prolíficos- han pertenecido a esta curiosa especie.

De acuerdo con el estudio llevado a cabo por el psiquiatra Hershel Prins[9], el delirio vampírico puede manifestarse de muy diferentes formas, de modo que su catalogación comprende cuatro grandes grupos:

  • Vampirismo completo. Comprende toda suerte de fantasías y prácticas sádicas y necrofílicas que se convierten en móvil del asesinato o la profanación de tumbas. Esta clase de vampiro es un carroñero que experimenta una atracción incontrolable por los muertos y consume sangre –e incluso carne o vísceras- procedentes de personas a las que puede, o no, haber asesinado previamente. Gilles de Rais es un ejemplo histórico muy ilustrativo. Casos más cercanos son los del sargento Leger, quien en 1827 violó el cadáver de una niña de 12 años y bebió su sangre; el popular John George Haigh, también conocido como el Vampiro de Londres; Fritz Haarmann, el Vampiro de Hannover; y por supuesto Richard Trenton Chase, el Vampiro de Sacramento. Curiosamente, otros “vampiros” mediáticos como Peter Kürten o Mohammed Bijeh no realizaban esta suerte de prácticas pese a ser bautizados de tal modo por la prensa.
  • Vampirismo sin ingestión de sangre ni de materia muerta. A esta variedad se la asociaría con la simple necrofilia, que consiste en satisfacer el instinto sexual con cadáveres, o bien, gozar con tocarlos y contemplarlos. Un caso bien conocido y documentado de estas características es el del alemán Kuno Hofmann, el Vampiro de Núremberg. Hofmann, que pasó algún tiempo en el campo de concentración nazi de Dachau, era sordomudo, tenía un cociente intelectual por debajo de la media y una timidez patológica que le impedía acercarse a las mujeres. Durante años estuvo asaltando depósitos de cadáveres para consumir la sangre de los muertos y practicar relaciones sexuales. En 1972, durante uno de sus paseos, terminó por asesinar a tiros a dos jóvenes que dormían en un coche a fin de probar su sangre. Probablemente, Hofmann habría continuado asesinando una vez había transgredido los límites y culminado su transformación, pero fue detenido.
  • Vampirismo sin cadáver. Esta categoría reúne a gran cantidad de sujetos con tendencias psicóticas, pero aparentemente normales e integrados en la sociedad, cuyos deseos les igualan al vampiro. Hablamos de impulsos incontrolables y muchas veces ocultos incluso para ellos mismos, o bien normalizados. En el fondo, estas ideaciones guardan relación con las capacidades sobrenaturales que la tradición atribuye al no-muerto, de modo que los vampiros ideales envidiarían el poder de los vampiros legendarios, a los tratan de parecerse. El hecho de que no asesinen, no cometan delitos, o no agredan a otros no les hace menos peligrosos, pues los anhelos y fantasías desde los que elaboran sus estructuras cognitivas suelen inducirles irremediablemente a la mentira, la maquinación, la manipulación y la temeridad.
  • Auto-vampirismo. En este grupo de tendencias claramente masoquistas se incluirían casos igualmente psicóticos así como esquizotípicos y esquizofrénicos. Son capaces provocarse lesiones, a veces brutales, ya que la propia sangre se ha convertido por cualquier razón –si bien el motivo suele tener un fondo erótico o religioso- en objeto de veneración. McCully narra el caso de un niño de 11 años que aprendió a pincharse con suma pericia las arterias del cuello para llenar con su sangre una taza entera que luego bebía. También se cortaba las venas del antebrazo para lamer la sangre de las heridas, lo que le hacía experimentar una fuerte excitación sexual.
KunoHofmann
Kuno Hofmann.

Parafilias como el vampirismo –también la licantropía- aparecen tan raramente en la población que su incidencia estadística es prácticamente nula. De hecho tanto el DSM como el CIE ni tan siquiera las mencionan explícitamente, acumulándolas –junto a muchas otras- bajo el epígrafe de parafilias no especificadas. Sin embargo, sus manifestaciones escabrosas y espectaculares son tan llamativas que siempre y en todo lugar han despertado tanto el horror como el interés del gran público hasta el punto de que, en determinados momentos históricos, como el tramo comprendido entre la baja edad media y finales del siglo XVII, llegaron a parecer cuestiones comunes. No en vano, la consideración general del vampiro, el licántropo y el asesino serial se funden y confunden, más allá de consideraciones clínicas o antropológicas, en una apreciación tópica: son “monstruos”. Criaturas diseñadas para matar, construidas tanto a nivel individual como social y que desempeñan un papel nítido en nuestra cultura. Podría decirse que la fascinación que hoy en día nos provoca el asesino en serie es precisamente un reflejo de la que los supuestos vampiros y hombres lobo generaron en el pasado, lo cual explica que los asesinos sistemáticos de ficción sean en muchos casos antihéroes “de culto” para millones de aficionados que pueden convertirse en auténticas máquinas de producir dinero para sus creadores.

Gilles de Rais
Gilles de Rais.

Ya en fecha tan temprana como 1584, autores como Reginald Scot sostenían que la licantropía era un trastorno mental, atribuyendo a la superstición popular la idea de que realmente un ser humano pudiera transformarse en lobo o cualquier otro animal[10]. Lo cierto es que los testimonios históricos de verdaderas epidemias de esta locura son variopintos y pueden ser rastreados en la literatura desde el siglo XVI hasta, prácticamente, finales del siglo XIX. Sirva un dato: tan sólo en el periodo comprendido entre 1520 y 1630, luego durante más o menos un siglo, se registraron 30.000 casos de licantropía sólo en Francia[11]. Esto es interesante desde un punto de vista antropológico. Parece que entretanto el Este de Europa era el hogar de los vampiros, los bosques franceses se habían transformado en el territorio de los hombres-lobo. El ser humano necesita de referentes socioculturales hasta para perder el juicio.

Capitan America - Hombre lobo
Hasta el Capitán América puede convertirse en hombre lobo cuando tiene en un mal día…

La idea de Scot fue posteriormente ampliada por otros autores ingleses como Robert Burton quien en 1621 sostuvo que “[algunos llaman a la licantropía] una especie de melancolía; pero yo prefiero denominarla locura”[12]. Nada tiene de sorprendente para la época este racionalismo respecto del tema, pues en las Islas Británicas los lobos se habían extinguido muchos años antes de que ambos textos fueran escritos. De hecho, es fácil encontrar relatos de hombres-lobo en el trabajo de los ensayistas británicos si nos remontamos al periodo comprendido entre los siglos X y XIII. Ahora bien, a partir del siglo XVI, este tipo de historias tan sólo sobrevivió como argumento literario. Obsérvese, por consiguiente, el anacronismo que inherente a convertir las calles de Londres, o los páramos británicos, en escenario para los clásicos hombres lobo de la ficción.

Lo cierto es que el éxito como monstruo del licántropo, con el paso de los años, ha sido mucho menor que el del vampiro. Parece que, por alguna razón, resulta mucho más fácil creer en la existencia del vampirismo que en la de la licantropía y ello, como hecho sociocultural, también ha tenido repercusión en el escenario del crimen. A partir de 1900 han aparecido varios casos de asesinos en serie movidos por fantasías vampíricas, pero no se han presentado supuestos hombres-lobo, lo cual ha motivado que la literatura psiquiátrica y psicológica apenas si haya tocado el tema, con excepción del psicoanálisis, en la medida que muchos pacientes refieren al narrar sus sueños diversos procesos de metamorfosis que han de ser iluminados por el terapeuta. Parece que el hombre-lobo tiene un sentido más folklórico, propio de un buen relato de terror para las noches de campamento, mientras que el vampiro parece tocar con mayor profundidad los aspectos más atávicos del ser humano.

El misterio de Salem's Lot
Un vampiro de ficción especialmente terrorífico -inspirado en la imagen del “Nosferatu” de Murnau-, fue el ideado por Tobe Hooper a la hora de llevar a la gran pantalla el clásico literario de terror de Stephen King en “Salem´s Lot” (1979).

[1] De hecho, ya sea desde un punto de vista antropológico como desde una óptica meramente psiquiátrica, vampirismo y licantropía tienen muchos puntos de conexión. Daniel Farson en su libro Vampiros, hombres lobo y aparecidos (Barcelona, Noguer, 1976), indica que tradicionalmente se consideraba que un hombre lobo se convertiría en vampiro al morir a menos que su cadáver fuera debidamente exorcizado. También que podía bastar con beber la sangre o comer la carne de un cordero muerto por un lobo para transformarse en hombre lobo.

[2] Las porfirias son un grupo de enfermedades cuyo origen es una alteración, cualitativa o cuantitativa, del metabolismo de las porfirinas. Habría dos modalidades básicas: las eritropoyéticas y las hepáticas. Las porfirinas, básicamente, son sustancias que, al combinarse con determinados metales como el hierro, juegan un papel fundamental en la síntesis de la hemoglobina

[3] Un ejemplo claro y famoso de esta dolencia sería el de la célebre locura transitoria que aquejó al rey Jorge IV de Inglaterra, inmortalizada en La locura del rey Jorge, una extraordinaria y muy bien documentada película dirigida por el británico Nicholas Hyttner.

[4] Recomiendo al lector interesado en este asunto un excelente libro: Bonderson, J. (2002). Enterrado vivo. Barcelona, Ediciones B.

[5] Maples, W. R. y Browning, M. (2006). Los muertos también hablan. Barcelona, Random House Mondadori

[6] Ibid. anterior.

[7] La constatación de la existencia de estos perturbados sedientos de sangre hizo que ganara cuerpo la creencia del vulgo en la existencia de una supuesta enfermedad denominada hematodipsia o hematodixia, por la cual el sujeto que la padece se vería determinado fisiológicamente a beber sangre. Sin embargo, como bien manifiestan Miguel Gómez Aracil en su libro Vampiros (Barcelona, EDAF, 2003), así como otros especialistas, esta supuesta dolencia es un invención del imaginario colectivo completamente desconocida por la profesión médica.

[8] Por el personaje de la archiconocida novela de Bram Stoker. Renfield había sido vampirizado por el Conde Drácula durante una estancia de negocios en Transilvania, de suerte que empezó a experimentar una progresiva sed de la sangre de criaturas vivas para mantenerse a sí mismo con vida. Los doctores de la novela –salvo el excéntrico Van Helsing, por supuesto- consideraron que Renfield estaba loco, recluyéndolo en una institución mental.

[9] Prins, H. (1985): “Vampirism: A clinical condition”. En: British Journal of Psychiatry, 146 (6), pp. 666-668.

[10] Scot, R.; Discovery of Witchcraft. La primera edición de este tratado vio la luz en Londres en 1584. Hubo diversas reediciones del mismo a lo largo de los siglos. La más moderna es la de Montague Summers, New York, 1954.

[11] Farson, D.; op. cit. supra nota 1.

[12] Burton, R.; Anatomy of Melancholy. Londres, 1621.