martes, 15 de diciembre de 2015

LAS POSIBILIDADES DE CONTACTO EXTRATERRESTRE

Son muchas las veces que he hablado acerca de las posibilidades que puede haber de contactar con civilizaciones extraterrestres, la última hace apenas unas semanas. Reconozco que lo veo inviable, salvo que cambien radicalmente los fundamentos físicos por los que hasta la actualidad nos regimos, comenzando por la limitación de velocidad, es decir, que ninguna partícula puede moverse por encima de la velocidad de la luz.

Actualmente, se estima que existen 10.000 trillones de estrellas y 125.000 millones de galaxias, estimaciones que aumentan continuamente en función de los continuos descubrimientos. En nuestra galaxia (la Vía Láctea) habría unos 200.000 millones de estrellas. Partiendo de estos datos, las posibilidades de que haya vida en otros planetas del Universo son enormes. Y más aún si se consideran las más bajas estimaciones calculadas por un estudio de la PNAS (la revista científica que semanalmente publica la Academia Nacional de Ciencias de Estados Unidos) que estimaría que al menos un 1% del total de estrellas del Universo serían de tipo solar y podrían ser orbitadas por un planeta similar a la Tierra (es decir, un planeta con temperatura y condiciones similares y con posibilidad de tener agua líquida y albergar potencialmente una vida similar a la de la Tierra). Esta estimación supondría que podría haber 100 trillones (un uno con veinte ceros) de planetas en el Universo similares a la Tierra. ¡Una barbaridad!

Pero también hay que tener en cuenta que nuestra aparición en el Universo es bastante reciente. Se estima que el Big Bang tuvo lugar hace unos 13.800 millones de años, mientras que la Tierra tiene unos 4.600 millones de años, por lo que nuestro planeta sólo ha existido durante un tercio de la historia del Universo. El origen de la vida en la Tierra podría tener 4.000 millones de años, (en forma de seres unicelulares). Los hongos pueden haber colonizado la Tierra hace 1.000 millones de años, las primeras plantas aparecieron hace unos 900 millones de años y salieron del agua hace unos 700 millones de años. Los primeros vertebrados fueron peces y aparecieron hace unos 530 millones de años, los primeros artrópodos salieron del agua hace unos 450 millones de años, los primeros tetrápodos evolucionaron a partir de los peces hace unos 375 millones de años, los primeros mamíferos aparecieron hace unos 180 millones de años, los primeros primates hace unos 63 millones de años y el primer homínido apareció hace unos dos millones de años. Nuestra civilización tiene 10.000 años por lo que ésta sólo ha existido durante el 0,0002% de la existencia de la Tierra y nuestro primer sistema de radiocomunicación tiene poco más de 100 años. Con estos datos y con los parámetros barajados, (siempre en función de cómo se ha desarrollado la vida en la Tierra), se podría estimar que existen más de un billón de civilizaciones en el Universo y también se puede decir que estamos recién llegados como para poder comenzar a comunicarnos con otras civilizaciones extraterrestres, si es que las hay.

Si partimos de que el Universo actual tendría una extensión estimada de 93.000 millones de años luz, (debido a la dilatación del espacio ya que la materia no puede moverse a una velocidad superior a la velocidad de la luz), sólo hemos podido avisar de nuestra presencia a una milmillonésima parte del Universo, ya que nuestras señales de radio sólo podrían haber llegado a planetas que distasen unos cien años luz de nosotros.

En un radio de 50 años luz con respecto a la Tierra hay unos 1.300 sistemas solares, que contienen alrededor de 1.800 estrellas, (unas ocho veces más en un radio de 100 años luz). Extrapolando los datos anteriores extraídos de la PNAS, debería haber al menos unos trece planetas con posibilidad de albergar vida en esa distancia, (justo la distancia necesaria para un establecimiento de comunicación, es decir, la distancia de ida y vuelta de una onda de radio), por lo que las posibilidades de que alguien conteste son reducidísimas, prácticamente nulas. Igualmente, hemos anunciado nuestra presencia en el Universo a unos 100 posibles planetas habitados, (los que se estima que podría haber en un radio de 100 años luz), que serán casi mil dentro de cien años. Partiendo de que en la Tierra sólo ha existido una civilización avanzada durante una cienmillonésima parte de la historia del Universo, se podría tomar ese dato como ponderación con respecto al resto de planetas que potencialmente pudieran contener vida para asumir que hasta dentro de unos 8700 años no tendremos un 50% de posibilidades de haber sido capaces de haber hecho llegar nuestras ondas de radio a alguna civilización extraterrestre avanzada, según la probabilidad de eventos independientes y con una distribución planetaria constante a lo largo de las proximidades del Sistema Solar.

Asumiendo que nuestras señales son de muy reciente creación para el resto del Universo, podríamos recibir señales de otras civilizaciones lejanas, (incluso de civilizaciones ya extinguidas), que estén viajando por el Universo. De eso se encarga el SETI (Search for Extraterrestial Intelligence, o Búsqueda de Inteligencia Extraterrestre) que es una organización dedicada a prestar atención a las señales de vida inteligente. Si las estimaciones son ciertas y hay unas 100.000 civilizaciones inteligentes en nuestra galaxia y en torno a un billón en el Universo, e incluso si sólo una fracción de ellas está enviando, o han enviado en el pasado, ondas de radio, rayos láser u otros modos de intento de comunicación o contacto con otras civilizaciones, la colección de satélites del SETI debería estar captando este tipo de señales, pero sin embargo no lo ha hecho nunca, no ha recibido ni una sola señal de origen extraterrestre.

Y es que estamos recién llegados, la Tierra sólo ha existido durante un tercio de la historia del Universo, no hemos comenzado a emitir señales fuera de la Tierra hasta hace 100 años y hasta hace unos 40 años no hemos comenzado a escuchar lo que el Universo dice. Y si alguna vez llegase algo, seguramente vendría de tan lejos que sería imposible poder hacer llegar un mensaje de vuelta pues muy posiblemente el posible interlocutor ya no estuviese a la escucha. Además, cuando buscamos vida inteligente, se asume que un planeta que tiene las mismas condiciones de la Tierra va a ser capaz de generarla y, seguramente, muchos de ellos han sido incapaces o los que lo han sido no han podido evolucionarla.


Tampoco sabemos lo que durará la civilización en la Tierra, pero de momento nuestra civilización sólo ha sido capaz de comunicarse con el exterior durante una cienmillonésima parte del tiempo durante el que el Universo lleva existiendo. Nos hemos perdido todo lo que ahí fuera ha sucedido y para comunicarse no se trata sólo de llegar, sino de coincidir y de poder establecer la comunicación. Creo que jamás seremos capaces de comunicarnos con ninguna civilización extraterrestre, si es que existe alguna en este momento. Conformémonos con dar fe de que estuvimos, por si alguna vez hay alguien a la escucha.

martes, 17 de noviembre de 2015

LA ACEPTACIÓN DEL FRACASO

Siempre digo que la fortaleza mental que actualmente pueda tener la he adquirido a base de superar ciertas duras pruebas con las que me he encontrado en la vida y de las que no he salido malparado, así como de superar innumerables fracasos de mayor o menor magnitud. En definitiva, es lo que casi todos nos hemos ido encontrando en las diferentes circunstancias vividas y que cada uno ha digerido de una u otra manera. Es la puesta en práctica de la célebre frase “lo que no te mata te hace más fuerte” atribuida erróneamente al filósofo alemán Friedrich Nietzsche, puesto que lo que él dijo exactamente fue prácticamente lo contrario: “Lo que no te mata te hiere de gravedad y te deja tan apaleado que luego aceptas cualquier maltrato y te dices a ti mismo que eso te fortalece".

Un día escuché en la radio que se estima que más del 90% de los productos que se intentan colocar en el mercado fracasan y que más de un 99% de los inventos o ideas novedosas no logran ver la luz, (datos que comprobé posteriormente), por lo que fracasar no es una excepción si no que es lo normal. Es por ello que habría que aprender a convivir con más naturalidad con la posibilidad de fracasar ya que el fracaso es una parte vital del aprendizaje.

Con el fracaso solemos hacer de todo menos aceptarlo y lo que habría que hacer es aprender a llevar con naturalidad la posibilidad de fracasar. Las principales tendencias de sociólogos y psicólogos entienden el fracaso como un paso necesario hacia el futuro éxito, por lo que habría que aceptarlo desde una postura positiva. Las frustraciones experimentadas a lo largo de la vida deberían ser igualmente valoradas que los logros y aceptadas positivamente como si se trataran de conquistas personales, puesto que el enfoque psicopedagógico concluye que la aceptación de los fracasos es, en realidad, la clave para alcanzar éxitos en el futuro.

Como anécdota cabe destacar que el inventor estadounidense Thomas Edison logró fabricar la primera bombilla de larga duración tras realizar más de mil intentos. Se dice que poco antes de llegar al final uno de los discípulos que colaboraba con él en el taller le preguntó si no se desanimaba ante tantos fracasos, ante lo que Edison le respondió que él no había fracasado sino que en cada intento había descubierto un motivo por el cual una bombilla no funcionaba, por lo que ya sabía mil maneras de no hacer una bombilla. Por cierto, Thomas Edison no inventó la bombilla, fue el científico inglés Humphry Davy quien construyó la primera fuente de iluminación eléctrica basada en filamentos incandescentes. Eso sí, Edison la desarrolló y perfeccionó hasta conseguir la primera bombilla de larga duración y comercialmente rentable.

El psicólogo estadounidense de origen israelí Daniel Kahneman, (premio Nobel de Economía en 2002 por haber integrado aspectos de la investigación psicológica en la ciencia económica, especialmente en lo que respecta al juicio humano y la toma de decisiones bajo incertidumbre), asegura que “el dolor del fracaso es dos veces más intenso que la felicidad que sentimos al ganar”. Es por ello que nos da tanto miedo perder o fracasar, a pesar de que fracasar forma parte del proceso natural de desarrollo de las personas, pues ya fracasamos en todos nuestros primeros intentos, ya sea de andar, de hablar o de la gran mayoría de acciones que realizamos por primera vez. Es decir, fracasamos continuamente hasta que los errores que cometemos nos enseñan cómo hacer bien las cosas.

Estudios psicológicos explican que hay dos enfoques básicos para afrontar el fracaso según sea la creencia implícita sobre el talento por parte del individuo que ha fracasado en algo. Así hay un enfoque fijo, que cree que el talento o las habilidades son innatas, y un enfoque incremental, que cree que el talento es fruto del tesón y se desarrolla gracias a los retos y al esfuerzo por mejorar. Quienes creen en el enfoque fijo son personas que se enfrentan a los retos como una oportunidad para mostrar su talento innato así que el fracaso significa para ellos que tienen no tienen suficiente talento, mientras que quienes creen en el enfoque incremental son personas para las que los fracasos no son una humillación sino la prueba de que se están esforzando para depurar sus limitaciones actuales y el fracaso es una estrategia que utilizan para fortalecerse y mejorar. Los primeros se rendirían fácilmente ante los obstáculos y considerarían el esfuerzo innecesario, pues consideran estar carentes de talento, mientras que los segundos aceptarían desafíos, persistirían ante obstáculos y asumirían el esfuerzo como aprendizaje, pues si no fracasan no mejoran.

Reconozco que para lograr lo que se quiere, sea lo que sea, hay que perder el miedo al fracaso, algo a lo que creo que no tengo miedo, aunque también creo que siempre hay que tener en cuenta el coste que puede suponer el fracasar en el intento, ya que si el coste es inasumible o muy poco asumible, intentarlo podría ser como jugar a la ruleta rusa. Es por ello que creo estar más encasillado dentro del grupo del enfoque fijo como forma de abordar el fracaso, pues para los objetivos que no me siento apto o con el talento necesario para lograrlo, desisto por falta de capacitación, aunque como todos, en mayor o menor medida, he utilizado el enfoque incremental en determinadas circunstancias y gracias a ello he conseguido algún que otro objetivo que en un principio pensaba que no iba lograr. Al fin y al cabo, como casi todo el mundo, he fracasado en muchos de los objetivos que me he marcado.


Del escritor irlandés Samuel Beckett, (Premio Nobel de Literatura en 1969), es la frase “Inténtalo de nuevo, fracasa de nuevo, fracasa mejor”, pues consideraba que el fracaso es una fuente de información y conocimientos inagotable. No hay más que ponerse a analizar la vida de los personajes más exitosos que ha dado la historia universal para comprobar que en su vida no todo fueron éxitos, sino que coleccionaron numerosos fracasos. Así que, aquí estoy, dispuesto a afrontar un nuevo fracaso, pues, como siempre se ha dicho, de los errores se aprende.

martes, 20 de octubre de 2015

EL EFECTO DUNNING-KRUGER

Hace unos años tuve un compañero de trabajo con el que tenía un trato bastante bueno, pero que a partir de ciertos celos profesionales con respecto a otro de nuestros compañeros, comenzó a comportarse de una forma hostil hacia ambos. Esto desembocó en una gran desidia laboral por su parte, lo que provocaba que una buena parte de su carga laboral recayera sobre nosotros dos, lo que desembocó en un conflicto entre todos.

El motivo de dicho conflicto vino dado porque, a pesar de que acababa de ser promocionado, consideraba que su categoría era aún inferior con respecto a su valía profesional y que debería tener la misma categoría que nuestro otro compañero ya que, según él, realizaban las mismas tareas. Esa premisa no era cierta, ya que aparte de tener una formación y una capacidad profesional muy inferior, en cuanto se le asignaba alguna tarea de cierta complejidad, necesitaba ayuda por nuestra parte para resolverla. Eso sin contar con que en la mayoría de las tareas complejas que realizaba las llevaba a cabo a partir de los manuales realizados por nosotros dos, ya que él no tenía capacidad para afrontar tareas de investigación de nuevos productos o desarrollos y se solía auto-descartar ante la posibilidad de realizarlo.

Para resolver dicho conflicto le pedí que lo solucionásemos con nuestro superior que, al ser conocedor del tema, se mostró abierto a realizarle una mejora salarial, todo ello condicionado a que cesaran los conflictos y a que su desempeño laboral volviera a ser bueno. Aún así, el conflicto no se solucionó al rechazar mi compañero dicha mejora por considerarla insuficiente.

Nunca antes había vivido tan de cerca y de manera tan intensa un comportamiento como éste, aunque sí que me había encontrado en ciertas conversaciones a mucha gente que se pensaba que sabía mucho acerca de algún tema del que apenas tenía unas nociones básicas. Se trata de un efecto psicológico, relativamente común, por el que se distorsiona lo percibido a partir de la información de la que se dispone, por lo que personas con escaso conocimiento acerca de un tema o materia concreta, tienden sistemáticamente a pensar que saben mucho más de lo que saben. Es el denominado efecto Dunning-Kruger.

El efecto Dunning-Kruger, llamado así por ser postulado en 1999 por los profesores David Dunning y Justin Kruger del departamento de Psicología de la Universidad de Cornell (Nueva York), es un sesgo cognitivo por el que los individuos con escasa habilidad o conocimientos en campos o materias con la que se sienten familiarizados, o que son de dominio universal, padecen de un sentimiento de superioridad ilusorio, considerándose más inteligentes o aptos que otras personas más preparadas, al medir incorrectamente su habilidad situándola por encima de la real. Este sesgo se produce debido a una incapacidad del sujeto para reconocer su propia ineptitud. Sin embargo, los individuos altamente cualificados tienden a subestimar su competencia relativa, asumiendo erróneamente que las tareas que son fáciles para ellos también lo son para los demás.

Para llegar a esta conclusión, ambos profesores investigaron cierto número de estudios previos sobre comprensión lectora, conducción de vehículos de motor y diversos juegos y realizaron otros de razonamiento lógico, gramática y humor. En ellos, examinaron las autovaloraciones de los participantes y su estimación sobre la posición obtenida en la clasificación del grupo tras haberles mostrado las puntuaciones de sus pruebas. Mientras que el grupo de los más competentes estimaba bastante bien su clasificación o incluso la subestimaban, los incompetentes sobreestimaban su posición. Comprobaron que cuanto más incompetente era el sujeto, menos notaba su incompetencia y que, cuanto más competente era, más subvaloraba su competencia. Esta percepción se debe a que las habilidades necesarias para hacer algo bien, son justamente las habilidades necesarias para poder evaluar correctamente cómo se está realizando, mientras que los sujetos que se subvaloran, lo hacen debido al efecto de falso consenso por el que se cree que esas tareas de dominio universal son realizadas de igual manera por todo el mundo, asumiendo que sus capacidades están en la media, cuando en realidad, son superiores.

A partir de estos estudios expusieron que en una habilidad típica que los humanos poseen en mayor o menor grado los individuos incompetentes tienden a sobrestimar su propia habilidad, son incapaces de reconocer la habilidad de otros y son incapaces de reconocer su extrema insuficiencia. Si estos individuos pueden ser entrenados para mejorar sustancialmente su propio nivel de habilidad, podrán llegar a reconocer y aceptar su falta de habilidades previa. Y concluyeron que la mala medición del incompetente se debe a un error sobre sí mismo, mientras que la mala medición del competente se debe a un error acerca de los demás. Todo un alegato a Charles Darwin cuando enunció que “la ignorancia suele proporcionar más confianza que el conocimiento”.

Analizando estos resultados y estudios, la base esencial de este comportamiento, donde el incompetente se ve a sí mismo como competente, estaría sujeto en una falta de realismo sobre la competencia y habilidades de uno mismo, un efecto de superioridad ilusorio que se debe mantener a toda costa debido a una baja autoestima que obliga a crear estas ilusiones con el objeto de auto-protegerse y a una inhabilidad para no ver su falta de competencia. En el caso de llegar a verla, sería como atentar a su propia confianza. Como esto lo que deben evitar, lo que en un principio surge para proteger su baja autoestima, se acaba convirtiendo en una auténtica coraza que ellos mismos se creen con total naturalidad, creando una falta de realismo sobre la propia incompetencia.

Por lo tanto, antes de sentenciar acerca de un tema y de creerse un sabio en cualquier materia, habrá que recordar que, por improbable que nos pueda parecer, cualquiera de nosotros podría andar por ahí, felizmente, ajeno a su propia ignorancia. No hay más que recordar aquel aforismo atribuido al filósofo cínico Diógenes: “Cuanto más sé, más grande veo mi ignorancia”. Es algo de lo que casi todos, en algún momento de la vida, nos hemos percatado, de que según hemos ido teniendo un mayor conocimiento de algún tema en concreto más lejos nos hemos visto de poder dominar completamente esa materia.

lunes, 21 de septiembre de 2015

LA TEORÍA DEL COLOR

De mi primer año de Bachillerato tengo muchos recuerdos de la asignatura de Dibujo (Pretecnología) que nos daba una profesora bajita y algo encorvada de la que no recuerdo su nombre y a la que cruelmente apodamos “la doble” debido a su estatura y en alusiones a una regla de 20 centímetros (el doble decímetro) al que ella hacía alusión como prioritario para el desarrollo de la asignatura.

Recuerdo que realizamos muchas actividades de pintura y muy variadas, sobre todo con témperas, y también hicimos esculturas en barro ya al final del curso. Aunque no obtuve buenas notas en dicha asignatura, (tampoco malas), disfruté mucho de su asignatura, a pesar de que pintar con témperas me frustraba un poco ya que era algo torpe obteniendo colores secundarios o terciarios.

Esta frustración me venía provocada debido a que la metodología que utilizábamos para la consecución de colores secundarios o terciarios estaba basado en el famoso círculo cromático proveniente de la antigua Academia Francesa de Pintura basado en tres colores primarios (azul, amarillo y rojo), tres secundarios (verde, naranja y morado) y los distintos colores terciarios, junto con el blanco y el negro. Así, si mezclaba el azul con el rojo, en lugar de obtener el deseado color morado, obtenía un color gris oscuro, que en muy poco se parecía al morado que buscaba, que sí que lo hubiera conseguido si hubiese mezclado el azul claro con el rosa (o el magenta). Lo curioso es que esta metodología es correcta y mezclando pigmentos que reflejen estos colores pueden obtenerse todos los demás tonos.

Mediante esta citada metodología se obtienen los denominados colores pigmento o colores sustractivos, que son los colores basados en la luz reflejada de los pigmentos aplicados a las superficies u objetos, (ya que los objetos son del color del espectro de luz que reflejan, siendo el resto de espectros absorbidos por el objeto). Aunque originalmente estos colores eran el rojo, el azul y el amarillo, (modelo RYB), en la actualidad los colores empleados como primarios son el magenta, (rojo púrpura), el cian (azul claro) y el amarillo, siendo éstos los colores básicos de las tintas que se usan en la mayoría de los sistemas de impresión, motivo por el cual estos colores han desplazado en la consideración de colores primarios a los tradicionales. Es el denominado modelo CMY.

El blanco y el negro son llamados colores acromáticos, ya que los percibimos como "no colores". La mezcla de los tres colores primarios pigmento en teoría debería producir el negro, el color más oscuro y de menor cantidad de luz, por lo cual esta mezcla es conocida como síntesis sustractiva. En la práctica, el color así obtenido no es lo bastante intenso, motivo por el cual se le agrega negro pigmento. El blanco también se obtiene por pigmentación.

Sin embargo, los colores producidos por luces, (cine, televisión, pantallas, etc.), tienen como colores primarios, el rojo, el verde y el azul, (modelo RGB). La fusión de éstos crea y compone la luz blanca y con su ausencia se obtendría el negro. A esta mezcla se le denomina síntesis aditiva y las mezclas parciales de estas luces dan origen a la mayoría de los colores del espectro visible.


Modelo CMY y modelo RGB

Según los dos modelos ideales, ambos esquemas de color tienen una clara correspondencia, pues los colores secundarios del modelo RGB (basado en la luz) son los colores primarios del modelo CMY (basado en los pigmentos), y viceversa. Esto sería sobre la teoría, ya que en la realidad es casi imposible obtener pigmentos y luces totalmente puros. Cualquier mezcla, sin importar que sea sustractiva o aditiva, se convierte en una interferencia que será percibida como una falsa tonalidad por el ojo, y no un cambio real en la frecuencia de la luz.

Fue el científico inglés Isaac Newton quien en el siglo XVII tuvo las primeras evidencias de que el color no existe, al comprobar que la luz blanca se descomponía al pasar por un prisma de cristal en seis espectros de color según sus diferentes longitudes de onda, (rojo, naranja, amarillo, verde, azul y morado). Así pudo establecer que la luz blanca, presente en todas partes, está formada por "trozos" de luz de seis colores, y que cuando esa luz choca contra algún cuerpo, éste absorbe alguno de dichos trozos y refleja otros, por lo que los colores reflejados por el objeto son los que conformarán el color del objeto, (en función de la mezcla de los colores que refleje), según lo percibimos con nuestro sentido de la vista.

Aunque, en su momento, mi principal escollo creía que era la obtención de los colores exactos que quería plasmar en las pinturas, con el tiempo me he dado cuenta de que el problema es que mis habilidades para la pintura no son capaces de obtener las formas exactas y si lo logran no consiguen obtener el exacto color de los reflejos de luz. Pintar una fruta o una estela sobre una superficie líquida y que parezcan reales es algo que ya no me propongo desde hace tiempo por considerarme inepto para dicho menester.

Afortunadamente para mí, la pintura realista ha perdido muchos enteros en pos de la fotografía artística y la pintura no realista tiene una gran cantidad de géneros mediante el cual expresar, por ejemplo, lo torpe que es uno plasmando imágenes reales. 

miércoles, 19 de agosto de 2015

LA HIPOCRESÍA SOCIAL

Hace un año, más o menos, pasando el fin de semana en casa de mis padres, me encontré en el garaje comunitario con Pablo, un vecino que podría ser considerado como “de toda la vida”. Cuando me vio me preguntó acerca de cómo me iba y yo le contesté “tirando”. Me replicó que siempre hay que decir “bien” o “muy bien”, ya que si al interlocutor le importa realmente mi estado se alegrará por ello y si a dicho interlocutor no le importa en absoluto cómo me va, no tiene por qué saber si no me va del todo bien y no hay por qué darle motivos de alegría. Recuerdo que le dije que como sabía que él era de los que se encontraba en el primer grupo, no pasaba nada porque fuera del todo sincero.

La verdad es que salvo que esté atravesando una buena racha que cuando me preguntan por cómo me va contesto “bien”, cuando llevo una vida normal contesto “tirando”, “normal” o “sin novedades”, todo ello a pesar de que muchas veces se dice “qué tal” en forma de saludo. Del mismo modo, sé que cuando pregunto a otras personas, sólo las más sinceras y allegadas me dan una respuesta carente de máscaras o de tapujos. La mayoría de las veces recibo la respuesta de rigor de forma automatizada, independientemente de si le va bien o no a mi interlocutor.

Tal y como me sugirió Pablo, la mayoría de la gente utiliza un cinismo o hipocresía social en sus relaciones sociales, muy basadas en destacar los aspectos positivos o afortunados de cada uno y ocultar los aspectos negativos o adversos. En esta línea, mi amiga Raquel siempre tiene un refrán para definir estas situaciones, “que se queme la casa, pero que no se vea el humo”.

La palabra hipocresía proviene del griego πόκρισις (hypokrisis), que significa actuar, fingir o "una respuesta”. Partiendo de “hypo” (máscara) y “crytes” (respuesta), la palabra hipocresía significaría responder con máscaras. Según el diccionario de la Real Academia Española, la hipocresía es el fingimiento de cualidades o sentimientos contrarios a los que verdaderamente se tienen o experimentan. Así mismo, el cinismo sugiere una disposición a no creer en la sinceridad o bondad humana, ni en sus motivaciones y acciones.

La hipocresía consta de la simulación, mostrando algo distinto de lo que se es, y el disimulo, ocultando lo que no se quiere mostrar. En esa misma línea, alguien que cree tener ciertos derechos ante una circunstancia, pero que cree que otros no los han de tener en esa misma circunstancia, tiene doble moral o doble rasero, pero alguien que condena un comportamiento o una actitud pero lo realiza, es hipócrita. La hipocresía, por lo tanto, es como la mentira, porque se pretende aparentar ser alguien o algo que no se es y se la entiende como discurso o conducta incongruente con lo que se piensa o se desea hacer, entendiéndose tal incongruencia como una conveniencia táctica usada de forma oportunista para una mejor adaptación a las circunstancias a las que se enfrenta el hipócrita. Por ello, la hipocresía no es otra cosa que la capacidad para disimular o simular defectos y virtudes que tenemos o no tenemos, en función del interés, con el objetivo personal de ganar espacios en un mundo ante el cual, si nos presentamos como somos, quedaríamos fuera de lugar.

La hipocresía como forma de presentación de la persona en la vida cotidiana no es innata, sino que se trata simplemente de un aprendizaje social que se incorpora a las conductas sociales del individuo, motivada por el uso colectivo de ésta. Emplearla suele permitir ganar espacios y obtener recompensas, tanto materiales como simbólicas, que pudieran no conseguirse, o resultar muy dificultoso el lograrlos, sin recurrir a estrategias hipócritas, al fin y al cabo, la sociedad está regida por una gran parafernalia de valores contradictorios que conviven de manera promiscua, es decir, mezclados de forma confusa. Partiendo de que la sociedad se rige por ciertas conductas, las socialmente más aceptadas, adaptarse a ellas, independientemente de estar de acuerdo con ellas o no, conduciría a adoptar una conducta hipócrita, que nos permitiría adaptarnos mejor a la convivencia social. Por lo tanto, no nacemos hipócritas o con tendencia al uso de la hipocresía, sino que nos hacemos hipócritas en mayor o menor grado a lo largo de nuestra vida, en la que adquiriremos un continuo aprendizaje de conductas hipócritas que nos permitirán vivir mejor con los demás, en cuanto a que posibilita el acceso a bienes simbólicos o materiales que son preciados, apetecidos, deseados o envidiados por nosotros y todo ello sin mucho esfuerzo aparente.

A diferencia de la mentira, donde hay una expresa y consciente falsificación de la verdad y una alteración del orden de los hechos, ya sea para ocultarlos o deformarlos, en la hipocresía hay una alteración de los estados afectivos que vive el actor de conducta hipócrita, sin intención expresa de provocar daño, sino más bien a producir beneficios para sí mismo o para su entorno, de forma implícita.

Noam Chomsky define la hipocresía como la negativa a aplicar en nosotros mismos los mismos valores que aplicamos en otros, definiéndola como uno de los males centrales de nuestra sociedad y principal promotora de injusticias, como la guerra o las desigualdades sociales, dentro de un marco de autoengaño. Sin embargo, una gran mayoría de teorizadores de negocios que han estudiado la utilidad de la hipocresía, sugieren que los conflictos manifestados como hipocresía son una parte necesaria o benéfica del comportamiento humano y de la sociedad.

Lo más gracioso de todo es que me volví a encontrar a Pablo un par de meses después de aquel encuentro en el garaje. Estaba en uno de los bancos próximos al edificio en el que viven él y mis padres. Al verle, fui yo el que le pregunté acerca de cómo le iba a lo que él me contesto “tirando”. Me hizo gracia, agradecí su sinceridad y ni siquiera quise preguntarle acerca del consejo que me había dado un par de meses atrás.

jueves, 9 de julio de 2015

LA MANIPULACIÓN MEDIÁTICA

En los últimos años y en bastantes ocasiones, al descargarme ciertos ficheros comprimidos a través de la red, he recibido, junto con los ficheros buscados, un interesante documento titulado erróneamente “la manipulación mediática según Noam Chomsky” en el que se enumeran y explican diez estrategias de manipulación mediática.

Este documento titulado “las 10 estrategias de manipulación mediática” es un texto que se ha convertido en un fenómeno viral en Internet. Escrito por el francés Sylvain Timsit en 2002 y publicado en la web www.syti.net con el título "Estrategias de manipulación", ha sido atribuido erróneamente al filósofo y activista estadounidense Noam Chomsky a partir de un error que cometió en su momento la agencia internacional de noticias de paz y no violencia “Pressenza”. El error puede deberse a que Noam Chomsky sí que es coautor del modelo de propaganda de los medios de comunicación de masas junto al economista estadounidense Edward S. Herman.

Este documento explica las herramientas psicosociales que permiten tener distraída a la gente de lo verdaderamente importante para que los verdaderos problemas que aquejan a la sociedad sean eliminados o distraídos mediante la manipulación de la opinión pública en los medios de comunicación, obteniendo una sociedad sumisa y poco crítica.

Estas 10 estrategias de manipulación mediática, según Sylvain Timsit, serían:

La estrategia de la distracción es el elemento primordial del control social, que consiste en desviar la atención del público de los problemas importantes y de los cambios decididos por las elites políticas y económicas, mediante la técnica del diluvio o inundación de continuas informaciones insignificantes, a modo de distracción, manteniendo la atención del público distraída por temas sin importancia real, lejos de los verdaderos problemas sociales y dejando poco tiempo para el pensamiento crítico. Esta estrategia es igualmente indispensable para impedir al público interesarse por los conocimientos esenciales en las áreas más importantes del conocimiento.

Crear problemas y después ofrecer soluciones, también llamado método “problema-reacción-solución”. Consiste en crear un problema o situación prevista para causar cierta reacción en el público, con la finalidad de que sea el público quien demande ciertas medidas que se desean imponer. Ejemplos claros serían el dejar que se intensifique la violencia urbana o la organización de atentados sangrientos, con la finalidad de que sea el público quien demande leyes de seguridad y políticas que limiten la libertad; o generar crisis económicas para hacer aceptar como un mal necesario el retroceso de los derechos sociales y el desmantelamiento de los servicios públicos.

La estrategia de la gradualidad, para lograr que se acepten ciertas medidas inicialmente inaceptables. Consistiría en aplicar estas medidas de forma gradual por años sucesivos. Así, condiciones socioeconómicas radicalmente nuevas (como el neoliberalismo) fueron impuestas durante las décadas de 1980 y 1990 a cuentagotas, hasta completar su práctica introducción total. Haber introducido, de repente, múltiples medidas como reducir el Estado a mínimos, realizar privatizaciones, fomentar la flexibilidad laboral, provocar desempleos en masa o rebajar los salarios a mínimos generando precariedad, hubiera provocado una revolución social en el caso de haber sido aplicadas todas a la vez.

La estrategia de diferir, es decir, sugerir posibles futuras medidas impopulares presentándolas como “dolorosas y necesarias”, para obtener una aceptación pública, puesto que es más fácil aceptar un sacrificio futuro que uno inmediato, ya que el esfuerzo no sería realizado de manera inmediata. Como la masa tiene siempre la tendencia a esperar ingenuamente que la coyuntura mejore y que el sacrificio exigido pueda ser evitado, esto da más tiempo al público para acostumbrarse a la idea de ese cambio y de aceptarlo con resignación cuando llegue el momento.

Dirigirse al público como a criaturas de poca edad, buscando respuestas o reacciones desprovistas de sentido crítico, ya que al dirigirse a alguien como si tuviese poca edad, éste reaccionará, con cierta probabilidad, con una respuesta propia de esa edad, en función de la sugestión. Es por ello que la mayoría de la publicidad dirigida al gran público utiliza discurso, argumentos, personajes y entonación particularmente infantiles, muchas veces próximos a la debilidad, como si el espectador fuese una criatura de poca edad o un deficiente mental. Cuanto más se intente buscar engañar al espectador, más se tiende a adoptar un tono infantil.
Utilizar el aspecto emocional mucho más que la reflexión, es una técnica clásica para causar un cortocircuito en el análisis racional y en el sentido crítico de los individuos. La utilización del registro emocional permite abrir la puerta de acceso al inconsciente para implantar o insertar ideas, deseos, temores, miedos, compulsiones o inducir comportamientos.
Mantener al público sumido en la ignorancia y la mediocridad, de forma que la distancia intelectual entre las clases sociales inferiores y superiores sea y permanezca imposible de alcanzar para las clases inferiores, haciendo que el público sea incapaz de comprender los métodos utilizados para su control y su esclavitud. Para ello la calidad de la educación dada a las clases sociales inferiores debe ser la más pobre y mediocre posible.

Estimular al público a ser complaciente con la mediocridad, para hacer creer que el hecho de ser estúpido, vulgar e inculto es algo normal o está de moda.

Reforzar la autoculpabilidad, para hacer creer al individuo que él es el único culpable de su propia desgracia, bien por la insuficiencia de su inteligencia, de sus capacidades o de sus esfuerzos, para que, en lugar de rebelarse contra el sistema económico, el individuo se culpe de su desgracia, lo que le generará un estado depresivo, uno de cuyos efectos es la inhibición de su acción y, por lo tanto, de su rebeldía o movilización.

Conocer a los individuos mejor de lo que ellos mismos se conocen, de manera que el sistema ejerza un mayor poder y control sobre los individuos, mayor incluso que el que ejercen los individuos sobre sí mismos. Esto se ha logrado gracias a los avances científicos en biología, neurobiología y psicología aplicada en los últimos 50 años, generando una creciente brecha entre los conocimientos del público y los utilizados por las elites dominantes, por lo que “el sistema” ha disfrutado de un conocimiento avanzado del ser humano, tanto de forma física como psicológicamente.

Desgraciadamente, todas estas estrategias nos son más que familiares, debido a que las hemos visto y las continuamos viendo en numerosas ocasiones como formas de dirigirse la clase dirigente y los medios de comunicación hacia la opinión pública.

miércoles, 24 de junio de 2015

LA NOCHE TROPICAL

La primera noche que recuerdo no haber podido dormir bien y despertarme continuamente a causa del calor fue, aunque parezca mentira, en Valsalada, un pequeño pueblo situado al sur de la provincia de Huesca y que pertenece al municipio de Almudévar al que fui a pasar unos días con mi familia a finales de un lejano mes de Agosto para visitar a la familia de una prima de mi madre cuando tenía unos 14 años.

Hasta entonces yo había pasado la mayor parte de todos los veranos en el pueblo de mis padres, Curiel, en la casa de mi abuela o en la casa familiar donde se pasaban las noches de forma agradable debido a la constitución de los gruesos muros de esas casas de pueblo que hacen de aislante natural, pero también había acudido durante seis años a colonias de verano en la segunda quincena del mes de Julio a localidades tan mediterráneas como Benicarló (Castellón), Tortosa (Tarragona), Torrente (Valencia) o Calafell (Tarragona) y nunca había tenido problemas para dormir a causa del calor.

Aunque no recuerdo las causas por las que padecimos temperaturas mínimas superiores a 25ºC, sí que recuerdo estar ante una situación inédita para mí y tener la sensación de estar en una zona muy calurosa, algo que no es cierto, aunque sí que sea esa zona un poco más calurosa que las zonas de las provincias de Burgos o Valladolid, por donde me movía por aquellas épocas.

Sí que es cierto que posteriormente he vivido numerosos episodios parecidos. Recuerdo unas vacaciones familiares en Puerto Sagunto donde tuve que acabar durmiendo alguna noche en la cubierta del tejado o unas vacaciones con los amigos en El Mareny de Barraquetes, donde si ya era difícil dormir por la noche, mucho más lo era dormir tras llegar a casa cuando estaba amaneciendo. El resto de veces que lo he padecido ha sido por alojarme en un hotel sin aire acondicionado, por subirme a dormir a la buhardilla de la casa del pueblo en pleno mes de Agosto o por dormir con alguien que deteste el aire acondicionado. Pero sin duda, por este motivo, las peores noches las pasé el primer mes de Julio que viví en la que lleva siendo mi casa desde hace unos diez años. Los veranos madrileños son así y no me quedó más remedio que tener que instalar un sistema de aire acondicionado, inmediatamente.

Estas noches en las que sucede este fenómeno, el no poder dormir bien y despertarse continuamente por culpa del calor, se denominan noches tropicales. Esta expresión de noche tropical se utiliza en meteorología para designar a aquellas noches en donde la temperatura mínima no baja de los 20 grados. Es un término muy utilizado en climatología, sobre todo en los meses de Julio y Agosto, que es cuando se dan con más frecuencia.

En noches muy calurosas en donde las temperaturas mínimas se quedan por encima de los 20 grados centígrados, las temperaturas dentro de las casas se sitúan por encima de ese valor. Si al calor se le une una elevada humedad ambiental, de en torno al 60%-70%, se generará bochorno, la sensación térmica será mayor y resultará complicado poder dormir en condiciones aceptables. Esto se debe a que, como somos animales de sangre caliente, nuestro cuerpo tiene que mantener la temperatura interna dentro de unos valores muy determinados, (36-37 grados), y para ello pone en funcionamiento mecanismos como la sudoración o la vasodilatación, (donde la sangre circula más rápido en las proximidades de la piel para favorecer la transferencia de calor al ambiente), por lo que el cuerpo realiza un trabajo extra para poder ventilar y disipar el calor interno, abandonando su zona de confort térmico y, por lo tanto, dificultando el poder dormir con normalidad.

En España, esto ocurre con más frecuencia en zonas del litoral, sobre todo del Mediterráneo, por lo que en ciudades como Valencia o Barcelona se pueden llegar a un número aproximado de cien noches al año que se pueden calificar como noches tropicales, número aproximado al que se da en Madrid, mientras que en Sevilla se puede llegar a las 150 noches que presenten problemáticas conciliaciones de sueño.

En estos momentos, con la llegada del verano, soportaremos, un día tras otro, estas noches tropicales, que tanto nos recordarán los meteorólogos en sus espacios dedicados a la predicción del tiempo, por lo que no quedará más remedio que ponerse en manos de los aparatos de aire acondicionado, de los ventiladores o de generar corrientes de aire, para diluir el efecto de éstas y poder dormir más a gusto.

lunes, 8 de junio de 2015

EL JAMÓN CURADO

Siempre digo que el mejor desayuno que recuerdo haber tomado fue el que disfruté en el Hotel NH Luz de Huelva, donde me alojé mientras realizaba una específica auditoría en las jefaturas de tráfico de toda España. En aquella ocasión, entre las distintas opciones que había en el bufé, se encontraba un delicioso plato de jamón ibérico del que no me quedó más remedio que dar cuenta de él. Superó a cualquier otro desayuno que jamás haya tomado de adulto. Es el mejor que recuerdo sin compararlo con aquellos desayunos que tomaba de niño algunos domingos de invierno, en los que mi madre nos hacía chocolate con churros, para aprovechar el poco ético pero inocente regalo que mi hermana y yo le habíamos hecho a mi madre, (una manga churrera), Compararlos no sería competir en igualdad de condiciones, ya que aquellos desayunos de niño tienen un componente sentimental muy alto para mí.

Cierto es que pocas veces había probado el jamón ibérico con anterioridad, pero a lo largo de mi vida sí que había comido jamón en muchas ocasiones, pues a mi padre siempre le ha gustado tener un jamón en casa del que poder dar cuenta. Este hábito supongo que viene de aquellas matanzas que hacían en su pueblo, motivo por el que en el desván de la casa de mi “tío Mauro”, (con quien solíamos hacerlas), siempre había una media docena de jamones en proceso de curación. Todos aquellos jamones curados eran de cerdo blanco, también denominados como jamones serranos, que es el más consumido en España, (en torno al 90%). Por cierto, el nombre "Jamón Serrano" está protegido desde 1999 por la Unión Europea como Especialidad Tradicional Garantizada, (E.T.G). La E.T.G tiene por objeto destacar una composición tradicional del producto o un modo de producción tradicional, sin hacer referencia al origen.

Los cerdos blancos, en España, son de distintas razas, principalmente Landrace, Large White y Duroc. Son de capa blanca y pezuña blanca o ligeramente coloreada. Suelen ser sacrificados a los seis meses de edad, tras ser sometidos a un cebo intensivo, y teniendo un peso aproximado de unos 100-110 kilos. Los jamones provenientes de los cerdos blancos no permiten largos tiempos de curación, al carecer su carne de grasa infiltrada. Esta curación se suele realizar en cámaras, que adelantan el proceso de curación, permaneciendo en ella entre seis y doce meses.

En función del tiempo de curación, se distinguen distintos tipos de jamón. El Jamón Curado Gran Reserva tiene un tiempo de curación mínimo de 16 meses, el Jamón Curado Reserva (o Añejo), tiene un tiempo de curación mínimo de 12 meses, el Jamón Curado Bodega (o Cava) tiene un tiempo de curación de entre 9 y 12 meses y el Jamón Curado sin especificación ha sido curado durante un tiempo inferior a 9 meses y un mínimo de seis.

A pesar de las múltiples zonas de producción o tradición jamonera, en España sólo hay dos denominaciones de origen, la D.O. Jamón de Teruel y la D.O. Jamón de Trevélez, estando el resto de zonas productoras sujetas a la E.T.G. citada.

Con respecto a los cerdos ibéricos, la clasificación de éstos varió en 2014 con la publicación de una nueva Norma de Calidad del Ibérico. Así, ahora, los cerdos ibéricos en España pueden ser ibéricos 100%, (anteriormente denominado ibérico puro), ibéricos al 75%, (procedentes del cruce entre hembras ibéricas 100% y machos ibéricos al 50%), o ibéricos al 50%, (procedentes del  cruce entre hembras ibéricas 100% y machos Duroc). La mayoría de cerdos en explotación suelen provenir de este tipo de cruces, ya que el Duroc, proporciona a las crías procedentes del cruce una mejor velocidad de crecimiento sin afectar de forma notable a la calidad y cantidad de grasa.

El cerdo ibérico 100% (o pata negra) es una raza única en la península ibérica. Es un animal de piel oscura, pelo escaso, hocico afilado y patas finas y largas. Tiene la característica genética de poder almacenar grasa en su tejido muscular, que es la clave del sabor y la textura de los jamones ibéricos. En el momento en el que hay algún cruce se denomina ibérico (y se ha de remarcar su porcentaje de pureza) siempre y cuando provenga de cerdos ibéricos con al menos un 50% de pureza racial. Suele sacrificarse a los 14-16 meses de edad cuando alcanza un peso aproximado de 150-170 kilos (13-15 arrobas).

Los jamones ibéricos se suelen curar en bodegas que estén a una temperatura de entre 10 y 20 grados y a una humedad relativa de entre el 60% y el 80%. Durante este proceso, el jamón pierde un 35% de su peso. En función de la alimentación llevada a cabo por el cerdo ibérico, se distinguen distintos tipos de jamón de ibérico, tanto si es 100% o no. El Jamón Ibérico de Bellota es el jamón de mayor calidad de todos con una curación mínima de 24 meses, pudiendo llegar hasta 48, y para ello el animal ha debido ser criado en la dehesa (o montanera) a base de pastos frescos y bellotas hasta su sacrificio. El Jamón Ibérico de Cebo de Campo es el jamón obtenido de cerdos que han sido alimentados al aire libre en las dehesas, pero cuya alimentación ha consistido en cereales y leguminosas, (anteriormente se denominaba Jamón Ibérico de Recebo, cuando se combinaba la bellota con los piensos), teniendo un tiempo de curación de entre 14 y 36 meses. El Jamón Ibérico de Cebo se obtiene de cerdos que han sido alimentados con piensos de cereales y leguminosas en granjas, (siendo el engorde de este tipo de cerdo más rápido al no hacer ejercicio), y tiene un tiempo de curación de entre 14 y 36 meses.

En España hay cuatro denominaciones de origen reconocidas: D.O. Dehesa de Extremadura, (comprende las dehesas de alcornoques y encinas de Cáceres y Badajoz), D.O. de Guijuelo (comprende la sierra de Gredos y Béjar), D.O. de Huelva (comprende los pueblos de la sierra de Huelva y D.O. Los Pedroches (comprende la parte norte de la provincia de Córdoba).

Aunque he vuelto a probar el jamón ibérico en diferentes ocasiones y distintos tipos, ningún otro jamón ibérico me ha vuelto a generar aquella sensación de que no existía un manjar mejor que aquel que estaba degustando como el que probé en Huelva. Puede deberse a la idealización que se realiza de la primera vez que se prueba algo delicioso, algo que también me ha pasado alguna que otra vez con algún vino o postre, pero tampoco está mal quedarse con aquel grato recuerdo de creer haber comido el mejor jamón del mundo, sin necesidad de tener que encontrar uno mejor, ya que es muy posible que aunque lo logre, no lo aprecie como tal. Al fin y al cabo, la vida son momentos, los placeres son para disfrutarlos y las percepciones están condicionados por esos momentos.

miércoles, 20 de mayo de 2015

EL CONCEPTO DEL PRESENTE

Cuántas veces habré pensado en lo rápido que pasa el presente o en la volatilidad de éste, en que en el momento en el que estamos realizando una serie de pequeñas acciones, éstas pasan instantáneamente a formar parte de nuestro pasado y a ser víctimas o protagonistas de esos hechos, en función del resultado que hayamos extraído de dichas acciones. Siempre he llegado a la misma conclusión, que el presente, como tal, es efímero, un estado instantáneo en el que se realiza la transición entre el futuro y el pasado, siendo ambos infinitos por definición. Curiosamente algo muy parecido, aunque menos rotundo, que lo que en el siglo XVI pensaba el filósofo francés Michel de Montaigne: “No existe el presente, lo que así llamamos no es otra cosa que el punto de unión del futuro con el pasado”; o el escritor mallorquín Lorenzo Villalonga en el siglo pasado: “El presente no existe, es un punto entre la ilusión y la añoranza”.

A esta conclusión he llegado, debido a que cualquier cosa que se realiza pertenece al pasado, incluso las diferentes partes en las que podemos dividir una acción estaría formada por pequeños pasos que son devorados por el rodillo del tiempo, llevándolas al pasado de nuestra existencia de forma fulminante.

Por ejemplo, la lectura de la palabra o de la línea anterior ya pertenece al pasado y la lectura de las líneas posteriores pertenece al futuro, (puesto que aún quedan líneas más abajo no leídas), y es sólo la acción de lectura del texto total la que pertenece al presente, por lo que el presente es algo totalmente abstracto y necesita de una definición de intervalo de la acción para definirlo como tal. Se puede definir el presente como instantáneo o como inexistente, salvo que lo englobemos en acciones o actos finitos que se desarrollan en el momento. Incluso si lo incluimos en un gráfico del espacio-tiempo, el presente puede parecer infinitamente pequeño, o ser una parte de una secuencia mayor, dependiendo del intervalo de tiempo en el que lo queramos englobar, pero sería un intervalo de tiempo en el que la acción tiene lugar y está formado por infinitos instantes que han transitado desde el futuro hasta el pasado.

Es como si dividiésemos el tiempo actual en paquetes de tiempo en los que transcurre la acción y que hasta que ese paquete de tiempo no se ha dado por concluido se le denomina presente. Sin embargo, mientras transcurre un paquete de tiempo dedicado a una acción concreta, están transitando del futuro al pasado otros paquetes de tiempo menores, (contemporáneos al inicial y que forman parte de éste). Por ejemplo, mientras estoy escribiendo este texto, estoy formando un paquete de tiempo que cualquiera denominaría como acción presente. Si mientras tanto me he bebido un vaso de agua o me he fumado un cigarrillo, esos paquetes de tiempo habrían abarcado parte de este paquete de tiempo superior y, sin embargo, se considerarían parte del pasado, (paquetes de tiempo menor), mientras que la escritura del texto seguiría considerándose un acto presente. Igualmente, la escritura de este texto sería un paquete de tiempo englobado dentro de la acción presente de escribir en el blog, puesto que el blog ya tiene casi tres años y continúa actualizándose cada dos semanas, por lo que la escritura del blog sería un paquete de tiempo presente mayor, aunque realmente todas las entradas de éste forman parte de mi pasado, pero si hablo con referencia al blog debo utilizar el presente continuo, (presente + gerundio). Cuanto más se generalice, más grandes pueden ser esos paquetes de tiempo actuales y siempre habrá alguno que englobe la vida completa de cada uno, la de su generación, la del siglo en curso o incluso la existencia de ser humano o de la vida, todo dependerá del tema que se esté hablando y en qué medida se está haciendo, pero siempre formados por esos pequeños bloques de presente instantáneos. Por lo tanto, cuando se habla del presente, siempre se necesita acotarlo, pues en la práctica, éste estaría formado por distintas acciones presentes superpuestas de finitud diferente.

Nuestro pasado está formado por toda una concatenación de instantes que, en su momento,  conformaron nuestro presente. Evidentemente, lo que hicimos en el pasado tiene impacto en nuestro presente, al fin y al cabo no somos más que pasado o todo lo que somos está formado por acciones que realizamos en el pasado, que nos preparó para desarrollarnos en el futuro y así lo vamos realizando, escribiendo continuamente nuestro pasado mediante instantes, actos o acciones presentes de mayor o menor duración. Tal y como dijo el historiador británico Thomas Carlyle, “El presente es la viviente suma total del pasado”.

Nuestro futuro no está escrito, pero sí condicionado por toda nuestra historia, algo así como decir que nuestro pasado va a condicionar nuestro futuro y, por lo tanto, todas nuestras acciones presentes. Algo parecido a lo que decía el escritor francés Gustave Flaubert, (“El pasado nos encadena”). Ese futuro es un rodillo que mediante esas comentadas acciones presentes cuasi instantáneas se va acumulando en nuestro pasado una vez consumido, aunque también podría formar parte de los paquetes de acciones presentes cuando una de estas acciones va a prolongarse en el tiempo.
Sin embargo, partiendo de esa premisa de no acotación del presente o de las acciones presentes, que pudieran incluso englobar grandes periodos de tiempo, se puede llegar a opiniones como las del escritor español del siglo pasado Gonzalo Torrente Ballester, que dijo que “ni el pasado ni el futuro existen, todo es presente”, en posible alusión a que nuestra vida y todo lo que conocemos conforman el presente actual.

Como se puede ver, por mucho que el presente sea instantáneo, partiendo de unidades mínimas de tiempo, la R.A.E. define el presente como “el tiempo en que actualmente está uno cuando refiere una cosa”. Es por ello que cualquiera de las distintas definiciones de presente comentadas anteriormente tienen cabida en la definición dada por la R.A.E., ya que todo dependerá de la “cosa” a la que nos estemos refiriendo.


Por lo tanto, vivamos el presente, sin que nuestro pasado nos encadene y sin que la incógnita del futuro haga que nos olvidemos de vivirlo.

miércoles, 6 de mayo de 2015

LA ALEGRÍA DE DESGRACIAS AJENAS

En la entrada anterior hablaba de por qué nos reímos a partir de desgracias ajenas o de situaciones en las que un tercero sufre una pequeña desgracia o padece algún acontecimiento o percance desafortunado, a partir de situaciones inesperadas o incongruentes. Esto no es comparable a la alegría que produce la desgracia de un tercero, pues en la entrada anterior se hablaba de momentos cómicos a partir de un suceso desgraciado acaecido a alguien y la causa por la que nos genera risa, independientemente de que después del momento cómico pueda haber empatía hacia la persona que ha padecido ese momento desgraciado, mientras que en ésta se analizará la alegría que produce la desgracia de un tercero por el que, evidentemente, no se tiene ninguna empatía.

He de reconocer que este sentimiento lo he padecido en ciertas ocasiones a lo largo de mi vida, aunque nunca ha sido a partir de momentos desafortunados o de desgracias padecidas por gente cercana, pues nunca he sido lo suficientemente envidioso para alegrarme por la desgracia de algún “igual”. Sí que me ha pasado cuando he visto ver caer a corruptos, gente que se ha enriquecido ilícitamente, poderosos con prácticas poco lícitas…

Este fenómeno es el denominado “schadenfreude”, vocablo alemán sin equivalencia directa para casi ningún idioma que hace alusión al sentimiento de alegría o placer que provoca en uno mismo cuando terceras personas sufren un acontecimiento desgraciado. Literalmente se traduce como "daño-alegría" y significa disfrutar de las desgracias ajenas.

Está claro que la envidia desempeña un papel fundamental en este fenómeno. A la envidia nos conduce principalmente la percepción que tenemos de nosotros mismos en relación con la imagen general que impera en nuestro entorno, rivalidades forjadas, egocentrismo, una actitud vital negativa, (que se expresa como crítica, calumnia o injuria hacia personas más competitivas), el impulso a competir, (siendo la envidia un modo de rendición) y la inseguridad emocional o el sentimiento de inferioridad. Y la manifestación de la envidia suele tener dos claras vertientes: una es el malestar o el sufrimiento que provoca el éxito ajeno y otra es el regocijo que provoca el fracaso, caída o sufrimiento ajeno, siendo ambos sentimientos universales asociados al sentimiento de envidia.

En esta respuesta ante el dolor ajeno hay un factor decisivo, que es la opinión que se tenga de la persona que sufre, en función de si es buena o mala. En diversos experimentos con adultos, utilizando técnicas de imagen cerebral, se concluye que se siente poca empatía y mayor alegría por la desgracia del tercero, ante casos de desgracia ajena padecida por gente mal considerada, activándose en el cerebro el área de la expectación de premios, vinculada con el deseo de venganza. Sin embargo, este mismo experimento realizado con niños concluye que el cerebro de éstos reacciona de forma más empática, activándose de forma intensa las regiones implicadas en el procesamiento del dolor directo, como la ínsula y la corteza somatosensorial.

Explorando el cerebro se puede percibir que alegrarse del mal ajeno se correlaciona con la envidia que se tiene hacia el sujeto que cae en desgracia. Los sentimientos de envidia activan los nodos de dolor físico en la corteza cingulada anterior, y los centros de recompensa del cerebro, como el estriado ventral, se activan ante la recepción de noticias relativas a que algún individuo envidiado ha sufrido algún fracaso o desgracia. Es más, la magnitud de la respuesta del cerebro ante esta alegría producida por una desgracia ajena, podría predecirse a partir de la fuerza de la respuesta al sentimiento de envidia anterior. En este sentimiento de alegría malsana también está involucrada la oxicitina, pues los individuos que presentaban mayores niveles de esta hormona aumentaron sus sentimientos de alegría malsana ante la desgracia de un tercero mal considerado, así como sus sentimientos de envidia ante aconteceres afortunados por parte de este tercero.

Igualmente, el dominio de la política o del deporte son territorios privilegiados para la proliferación de sentimientos de alegría malsana, especialmente para aquellos que se identifican fuertemente con su partido político o con su equipo. En campos como la política o el deporte, en el que hay más capacidad a analizar los sucesos en virtud de nuestras ideologías o aficiones, la probabilidad de experimentar sentimientos de alegría malsana dependerá de si el daño lo está sufriendo la formación política o el equipo afín de un individuo o la parte contraria.

Estos estudios se basan en la teoría de la comparación social, por la cual cuando las personas que nos rodean tienen mala suerte provoca que se mejore la imagen que tenemos sobre nosotros mismos. Este fenómeno se acentúa en las personas con baja autoestima, pues son más propensas a alegrarse del mal ajeno que las personas que tienen una alta autoestima.

Hay un refrán alemán que bien a decir que “alegrarse de las desgracias ajenas es la alegría más bella, ya que proviene del corazón” (Schadenfreude ist die schönste freude, denn sie kommt von herzen). Puede que sea así. Reconozco que me alegro de las derrotas de cierto equipo y de que imputen y condenen a los políticos corruptos, pero creo que ser propenso a ello genera continua frustración y acabar siendo un individuo insano y hostil. Prefiero quedarme con el aforismo del filósofo alemán de principios del siglo XIX y de origen prusiano Arthur Schopenhauer: “Sentir envidia es humano, gozar de la desgracia de otros es demoníaco”.

miércoles, 22 de abril de 2015

LA TEORÍA DEL HUMOR

Mis padres tuvieron una amistad muy estrecha durante muchos años con José Antonio y Eli, los padre de José Félix y Óscar, dos amigos míos de la infancia, razón por la cual íbamos mucho a su pueblo, Fuentelcésped, situado a tan sólo 10 Kms. de Aranda.

En una de esas veces, aprovechando el buen tiempo que hacía en uno de esos días soleados de Mayo, fuimos a comer con ellos al solar en donde José Antonio se estaba haciendo un merendero. Al lado de las obras plantamos la mesa y pasamos la sobremesa jugando alrededor de ella, evitando el acercarnos mucho pues sólo estaban puestos los cimientos.

Por aquel entonces, José Félix, Óscar y mi hermana tendrían 10, 8 y 7 años, respectivamente y yo andaba por los 9. El caso es que en una de éstas, y sin saber muy bien cómo, mi hermana se cayó, ante la carcajada de nosotros tres y el pánico de mis padres, pues la caída era de unos cinco metros. Ahora lo recuerdo con bastante vergüenza, el haberme reído de aquello a carcajada limpia, pues aunque sólo se quedó en unas contusiones que dejaron a mi hermana dos días en cama, las consecuencias podrían haber sido dramáticas.

Pero el caso es generalizado y ciertas desgracias ajenas producen risa, de lo contrario no triunfarían programas del parangón de “Vídeos de primera” y todas las copias y sucedáneos que se han emitido posteriormente, así como multitud de vídeos que circulan por Youtube.

Recuerdo también un episodio de mi “tía Feli”, la que para mí fue como mi abuela paterna por el trato tan estrecho que teníamos con ella, aunque realmente era prima política de mi padre. Un día que estaba junto con sus cuatro nietos mayores merodeando una fuente que había sita junto a su casa, yo estaba encargado de cuidar de ellos y de que ninguno se cayese dentro. Ellos tendrían unos tres años cada uno, por lo que yo tendría ocho. El caso es que según me acerqué a uno de ellos para alejarlo del borde, debí resbalar y caí dentro de la fuente, empapándome por completo a pesar de que el nivel del agua difícilmente me sobrepasaría las rodillas. Jamás había visto reír a mi tía Feli, pero nada más que me caí comenzó a reírse a carcajadas durante más de media hora repitiendo continuamente “estamos pendientes de que no se caigan los pequeños y se cae el grande”. Llegué a pensar que se iba a caer de la silla del ímpetu con el que se carcajeaba.

La verdad es que no hay una fórmula para hacer reír de forma sistemática. Nos reímos de situaciones absurdas, circunstancias o aconteceres inesperados, expectativas no cumplidas,… e incluso también nos reímos forzosamente. Una pequeña desgracia de un tercero cumple con parte de estas premisas.

Según la teoría de la incongruencia y la ambigüedad, una de las tres teorías filosóficas fundamentales del humor, y base de la risa según los autores más contemporáneos, señala que el individuo tiende a reír de lo “incongruente”, de la ruptura del orden y del absurdo que percibe de la realidad. Según esta teoría, la risa puede provenir de una convergencia inusual, inconsistente o incompatible de ideas, en situaciones, conductas o actitudes, algo así como una situación en la que en una secuencia de acontecimientos ocurre algo inesperado.

Esta teoría fue desarrollada principalmente por el filósofo alemán Arthur Schopenhauer. Para él, “la causa de lo risible está siempre en la subsunción o inclusión paradójica, y por lo tanto inesperada, de una cosa en un concepto que no le corresponde, y la risa indica que de repente se advierte la incongruencia entre dicho concepto y la cosa pensada, es decir, entre la abstracción y la intuición. Cuanto mayor y más inesperada sea esa incompatibilidad, mayor será la risa”. Por lo tanto, la risa, o el placer asociado a ésta, es el resultado de la percepción de esa incongruencia en un contexto lúdico, (un contexto basado en la ausencia de racionalidad).

El humorismo se origina con la ayuda del escepticismo, (desconfianza o duda de la verdad o eficacia de alguna cosa), haciéndonos reír y pensar. Es un instrumento corrosivo de la verdad, por lo que es incisivo, mordaz o hiriente. El humor juega con las “insuficiencias de la condición humana”, encerrando la crítica e incluyendo también al sujeto. El humor crítico es cuestionador y contestatario y surge también como una lucha contra los convencionalismos.

Sin embargo, la comicidad es un fenómeno más superficial que el humorismo, en cuanto a que su función principal es hacer reír, divertir, entretener o agraviar y es situacional (torpeza, ridiculez, absurdo, incongruencia…). Viene del deseo de reírse de algo o de alguien que consideramos inferior o de una simple necesidad de exteriorización lúdica y está en relación con las limitaciones de los individuos.

Hay otras dos teorías filosóficas del humor, que son menos tenidas en cuenta actualmente. Una es la teoría de superioridad, creada desde Platón y mantenida hasta el siglo XVIII, y otra es la teoría de la descarga.

La teoría de superioridad sostiene que toda experiencia humorística surge como manifestación del sentimiento de superioridad del hombre hacia el hombre. Así, el reírse de otro afirmaría orgullosamente el propio ego y sería el cauce ejercer una represalia contra quienes consideramos inferiores a nosotros. Según el filósofo francés Henri Bergson, (Premio Nobel de Literatura en 1927), nos produce risa aquello que se nos presenta como caricatura o deformación de nosotros mismos.

La teoría de la descarga viene a decir, (según Freud), que las expresiones de humorismo, comicidad y chiste son fuentes de placer porque ahorran al hombre un gasto de energía psíquica. Igualmente, (según Aristóteles), filtrando la realidad por el humor se eliminan ciertas tensiones negativas, llegando a un equilibrio emocional.

En definitiva, que independientemente de las teorías, lo cierto es que la risa provoca una importante liberación de serotonina, dopamina, adrenalina y endorfinas, (conocidas como las hormonas de la felicidad. La explosión de carcajadas provoca algo muy parecido al éxtasis, aportando vitalidad y energía e incrementando la actividad cerebral. Al reírnos, muchos músculos de nuestro cuerpo que permanecían inactivos se ponen en funcionamiento. Es un estímulo eficaz contra el estrés, la depresión y la tristeza. Por eso nos rendimos ante la incongruencia a través de la risa en lugar de intentar imponer un orden racional, aunque en algunos casos nos pueda avergonzar reírnos de determinadas situaciones.

jueves, 9 de abril de 2015

LA GENÉTICA DEL DEPORTE

Recuerdo un debate recurrente que tenía con mis compañeros de piso en época universitaria acerca de ciertas manifestaciones que hacían algunos futbolistas donde insistían en que el futbolista nace y no se hace. Yo no estaba muy de acuerdo con ello, pues aunque la genética era bastante importante para la práctica de ciertos deportes y fundamental para otros, pensaba que en el fútbol no lo es todo la genética, sino que también se podía trabajar ciertos aspectos importantes que se ha de tener para llegar a ser un futbolista profesional, ya que el fútbol es deporte pero también se necesita del dominio del balón y del juego.

Con la irrupción de los hermanos Llorente, (Julio, Paco, José Luis y Toñín), los dos primeros futbolistas y los otros dos baloncestistas, (los cuatro eran sobrinos de Paco Gento), se zanjó el debate, pues era bastante difícil de argumentar por mi parte que dicha circunstancia no se debiese a condiciones genéticas.

Es evidente que el entrenamiento y la dedicación son imprescindibles para triunfar en el deporte pero, desde luego, la genética juega un papel fundamental, que no excluyente, salvo en ciertos deportes donde es primordial.

En fútbol, que es un deporte donde creo que la genética no es tan fundamental, es muy habitual la presencia de hermanos. Actualmente, los hermanos Boateng (Kevin-Prince y Jerome), los Alcántara (Thiago y Rafinha, hijos de Mazinho) y los Touré (Kolo y Yaya), son los más significativos, aunque también hay que destacar a los Higuaín (Gonzalo y Federico, hijos de Jorge Higuaín), los Milito (Gaby y Diego), los Callejón (Jose y Juanmi), los Alonso (Xabi y Mikel, hijos de Perico Alonso), los Negredo (Álvaro, Rubén y César), los Baraja (Rubén y Javier), los Ñíguez (Aaron, Saúl y Jony), los Da Silva (Fabio y Rafael), los Fernández (Nacho y Álex) o los gemelos Bender (Lars y Sven).

Igualmente, en las últimas décadas se han dado los conocidos casos de los hermanos De Boer (Frank y Ronald, gemelos), los Neville (Gary y Phil), los Hierro (Manolo y Fernando), los Guerrero (Julen y José Félix), los López (Sergi y Gerard), los García Junyent (Óscar, Roger y Genis), los González (Fran y José Ramón), los mellizos Barros Schelotto (Guillermo y Gustavo), los Helguera (Iván y Luis), los Maradona (Diego Armando, Lalo y Hugo), los Bakero (José Mari y Santi), los Witschge (Rob y Richard), los Koeman (Ronaldo y Erwin), los Pérez Muñoz (Alfonso e Iván), los Baresi (Giuseppe y Franco), los Ferdinand (Rio y Anton), los Rummenigge (Karl-Heinz y Michael), los Larráinzar (Txomin e Iñigo), los Ablanedo (José Luis y Juan Carlos), los Mejías (Pepe y Salvador), los Rojo (Txetxu y José Ángel) o los Castro (Quini y Jesús). Y más atrás, cabe destacar, como más significativos, a los Van de Kerkhof (René y Willy, gemelos de la Holanda del 74), los Charlton (Jack y Bobby, en los años 60) o los Regueiro (Pedro y Luis, en los años 30).

En el fútbol también se han dado muchos casos de futbolistas profesionales que son hijos de otros futbolistas profesionales. Los casos más destacados son los Cruyff (Johann y Jordi), los Maldini (Cesare y Paolo), los Sanchís (Manolo y Manolo), los Reina (Miguel y Pepe), los  González (Míchel y Adrián), los Busquets (Carlos y Sergio), los Verón (Juan Ramón y Juan Sebastián), los Suárez (Cundi y Rubén), los Ríos (Eusebio y Roberto) o los Cherishev (Dmitri y Denís), aparte de los ya comentados anteriormente, (los Alcántara, los Alonso o los Higuaín).

Quizás los hermanos más conocidos del deporte masculino mundial actual pueden ser los hermanos Gasol (Pau y Marc), estrellas en la NBA, liga en la que ha habido 60 casos de hermanos en toda su historia. Sin duda, el baloncesto es un deporte donde la genética es algo fundamental y, por lo tanto, se han dado múltiples casos de hermanos que han destacado. En la actualidad cabe destacar a los Reyes (Alfonso y Felipe), los Fernández (Rudy y Marta), los Lavrinovic (Kristof y Darjus), los Lorbek (Erazem y Domen), los Morris (Marcus y Markieff, gemelos) o las gemelas Miller (Coco y Kelly), y con anterioridad han destacado los Petrovic (Aleksandar y Drazen), los Martín (Fernando y Antonio), los Jofresa (Rafa y Tomás), los Angulo (Alberto y Lucio) o los Arcega (Fernando, José Ángel y Joaquín), entre los más conocidos en nuestro país.

Las hermanas más mediáticas en la actualidad son las Williams (Venus y Serena). El tenis también disfruta de otra presencia muy mediática de hermanos, los gemelos Bryan (Bob y Mike), en la categoría de dobles. En la actualidad, cabe destacar también a los hermanos Murray (Andy y Jamie) y menos recientemente a los Safin (Marat y Dinara), los Sánchez Vicario (Emilio, Javier y Arantxa) o los McEnroe (John y Patrick).

El ciclismo goza de incontables casos. Actualmente los más conocidos son los hermanos Schleck (Andy y Frank), que comparten carretera con los hermanos Chavanel (Sylvain y Sébastien), los Sagan (Juraj y Peter), los Izagirre (Gorka e Ion), los Herrada (Jesús y José), los Quintana (Nairo y Dayer). Con anterioridad se dieron los casos de los hermanos Induráin (Miguel y Prudencio), los Jalabert (Laurent y Nicolas), los Beloki (Joseba y Gorka), los Osa (Aitor y Unai), los González de Galdeano (Álvaro e Igor), los gemelos Ochoa (Javier y Ricardo), los Gorospe (Julián y Rubén) o los Zberg (Markus, Beat  y Luzia), entre otros muchos, así como las más conocidas sagas de los Merckx (Eddy y Axel) o de los Roche (Stephen y Nicolas).

En el mundo del motor proliferan muchos casos de hermanos y de sagas padre-hijo. Sin duda, en este campo, es más importante la preparación a edades precoces que la genética. En la actualidad los hermanos más famosos son los Márquez (Marc y Alex) y los Espargaró (Aleix y Pol), y recientemente los Schumacher (Michael y Ralf) o los Aoyama (Hiroshi y Shuhei). En cuanto a las sagas, las más destacables por logros son los Rosberg (Keke y Nico), los Sáinz (Carlos y Carlos Jr.), los Verstappen (Jos y Mas), los Piquet (Nelson y Nelsinho), los Nieto, (Ángel, Gelete y Fonsi, padre, hijo y sobrino), los Hill (Graham y Damon), los Villeneuve (Gilles y Jacques) o los Lampkin (Martin y Doug), entre innumerables casos.

En los deportes menos mediáticos, igualmente la presencia de hermanos es muy habitual e incluso mayor, ya que estas modalidades deportivas suelen tener una competencia menos brutal. Entre los más exitosos, tanto españoles como no, cabe destacar a los hermanos Entrerríos (Alberto y Raúl) y a los Gille (Bertrand, Guillaume y Benjamin) en balonmano; los Linares (Andreu y Joan) en fútbol sala; los López Zubero (David y Martín), los Wildeboer (Aschwin y Olaf) y los Manaudou (Laure y Florent) en natación; los Brownlee (Alistair y Jonathan) en triatlón; los Fernández Ochoa (Paquito y Blanca) y los Kostelic (Janica e Ivica) en esquí, los Carballo (Jesús, Javier, Manuel y Marta, hijos de Jesús Carballo) en gimnasia, los Manning (Peyton y Eli, hijos de Archie) y los Barber (Ronde y Tiki) en fútbol americano o los Molina (Bengie, Yadier y José) en béisbol.

Eso sí, más extraños son los casos de hermanos que se dedican a un deporte distinto. Aparte de los hermanos Llorente, (citados al principio), se puede destacar a los Sánchez (Pedro León y Luis León, futbolista y ciclista respectivamente) y el hecho de que el baloncestista Joakim Noah es hijo del que fuera tenista Yannick Noah.

Es difícil pensar que se puedan crear campeones por combinación genética, aunque sí que habría muchas posibilidades de crearlos si a una combinación genética se le uniese una fuerte dedicación, algo que, sin duda, también es fundamental para triunfar en el deporte de élite. En menos de una década podremos comprobar una buena prueba de ello. Podremos comprobar si los hijos de Andre Agassi y Steffi Graf, (Jaden Gil y Jaz Elle), logran destacar en tenis o en otro deporte, al fin y al cabo sus padres no sólo llegaron a ser números 1 del mundo, (en el caso de Steffi Graff durante 7 años), sino que estuvieron en lo más alto del tenis durante toda una década.

martes, 24 de marzo de 2015

LOS MUERTOS DE LA FÓRMULA 1

La primera vez que vi una carrera de Fórmula 1 fue el G.P. Portugal de 1984 donde Niki Lauda y Alain Prost se jugaban el Mundial. Desde entonces la seguí año tras año, a pesar de que algunos años no se televisó en España.

De las muchas carreras que recuerdo, la que más me impactó fue el Gran Premio de San Marino de 1994, disputado en el circuito de Ímola. Vi como Ayrton Senna, (tricampeón del Mundo), estrellaba su Williams contra un muro de protección a 320 km/h tras salirse en la curva de Tamburello por la rotura de la barra de dirección de su monoplaza. Falleció horas después a causa del fuerte traumatismo craneal producido en el choque. El día anterior también había fallecido el piloto austriaco Roland Ratzenberger en la segunda sesión de entrenamientos, tras chocar casi frontalmente a 315 km/h contra la barrera de protección. Esa fue la última carrera de Fórmula 1 con víctimas mortales y, también, la muerte más mediática de la Fórmula 1.

El primer piloto que murió en un Gran Premio de Fórmula 1 fue el estadounidense Carl Scarborough. Lo hizo por hipertermia en la disputa de las 500 millas de Indianápolis de 1953, que  estuvieron incluidas en el campeonato de Fórmula 1 desde 1950 hasta 1960. Dos semanas antes, su compatriota Chet Miller había fallecido tras un accidente en las sesiones prácticas. Seis pilotos más fallecerían durante las seis ediciones siguientes de este Gran Premio, entre ellos Bill Vukovich en 1955, en un choque en cadena cuando lideraba la carrera que había ganado las dos ediciones anteriores, justo cuatro días después de la desaparición del italiano Alberto Ascari, (bicampeón del mundo), que estrelló un Ferrari que estaba probando en el circuito italiano de Monza. Un año antes, el piloto argentino Onofre Marimón falleció en el acto tras accidentarse con su Maserati en el circuito de Nurburgring durante los entrenamientos del G.P. de Alemania.

El 6 de Julio de 1958, el italiano Luigi Musso murió tras accidentarse con un Ferrari en el G.P. de Francia. Un mes después lo hacía su compañero de equipo, el británico Peter Collins, tras un accidente en el G.P. de Alemania. Ambos iban terceros en el Mundial cuando murieron. Y en el último G.P. de esa temporada disputado en Casablanca (Marruecos), el británico Stuart Lewis-Evans sufrió graves quemaduras al arder su bólido en el arcén después de que se hubiera retirado de la carrera por problemas mecánicos. Falleció una semana después como consecuencia de dichas quemaduras.

Dos años después, el 19 de Junio de 1960, en el Gran Premio de Bélgica disputado en el circuito de Spa-Francorchamps, dos pilotos británicos Chris Bristow y Alan Stacey fallecieron en sendos accidentes ocurridos en las vueltas 19 y 24 respectivamente en la curva de Burnenville.

Al año siguiente, el 10 de septiembre de 1961, se produjo el accidente más grave de la historia de la Fórmula 1. El alemán Wolfgang Von Trips partía con la “pole-position” e iba líder del Mundial. Si subía al pódium del G.P. de Italia se proclamaba campeón del mundo a falta de una carrera. En la segunda vuelta el escocés Jim Clark tocó con su Lotus al Ferrari del alemán, que fue a chocar con una tribuna del circuito de Monza, en la que además de él, fallecieron 15 espectadores. Parece ser que a Wolfgang Von Trips el destino le deparaba lo inevitable, puesto que el mismo día de su muerte iba a coger un avión rumbo a Estados Unidos, (para preparar el último G.P.), que se estrelló sobre Escocia. Acabó siendo subcampeón del mundo a título póstumo tras su compañero de equipo el estadounidense Phil Hill.

En 1964, el holandés Carel Godin de Beaufort falleció como consecuencia del accidente sufrido en los entrenamientos del G.P. Alemania. Dos años después, nuevamente el circuito alemán de Nurburgring fue escenario de un accidente mortal, pues el británico John Taylor chocó en la primera vuelta contra el Matra del belga Jacky Ickx, incendiándose su Brabham. Falleció cuatro semanas después como consecuencia de las quemaduras. También a consecuencia de las quemaduras sufridas tras sufrir un accidente, el italiano  Lorenzo Bandini con Ferrari en 1967 y el francés Jo Schlesser con Honda en 1968 perdieron la vida tras estrellar sus coches en Mónaco y Rouen (Francia) respectivamente, mientras que en 1970, el británico Piers Courage corrió el mismo destino después de que su coche explotara tras chocar al salirse de la pista del circuito holandés de Zandvoort.

El 5 de Septiembre de 1970 el líder del Mundial, el austriaco Jochen Rindt estrelló contra un muro su Lotus en las pruebas previas a la disputa en Monza del Gran Premio de Italia. Fue el primer campeón del mundo a título póstumo, ya que en las cuatro carreras restantes nadie logró superarle. Había ganado cinco carreras en ese año.

El 29 de Julio de 1973, el británico Roger Williamson murió asfixiado después de que el coche se incendiara tras un accidente en el G.P. de Holanda. Poco más de dos meses después fue el francés François Cevert quien falleció debido al accidente en las rondas de clasificación del G.P. de Estados Unidos, (último del Mundial), cuando luchaba por conseguir la "pole" en una carrera en la que se jugaba el subcampeonato del Mundo. Al año siguiente fueron el estadounidense Peter Revson en Kyalami (Sudáfrica) y el austriaco Helmut Koinigg en Nueva York (Estados Unidos) quienes fallecieron tras estrellarse contra las protecciones de la pista. Otro estadounidense, Mark Donohue, fallecería en 1975 como consecuencia de las heridas sufridas en un choque en el G.P. de Austria.

En 1976, el líder del Mundial y vigente campeón del Mundo, el austriaco Niki Lauda, estuvo a punto de morir, (incluso recibió la extremaunción), a consecuencia de las quemaduras producidas al incendiarse su coche en el Gran Premio de Alemania tras sufrir un accidente que le dejaron secuelas físicas de por vida. Dicho accidente le privó de ganar su segundo título mundial, que ganó al año siguiente. Un año después, el galés Tom Pryce falleció en la pista sudafricana de Kyalami cuando le golpeó el extintor de un bombero, al que atropelló y mató en la recta principal del circuito, que se disponía a socorrer a su compañero de equipo, el italiano Renzo Zorzi cuyo monoplaza humeaba.

El 11 de Septiembre de 1978, el sueco Ronnie Peterson murió 24 horas después de sufrir un grave accidente en una caótica salida en una pista de Monza durante el G.P. de Italia, en la que había ganado en tres ocasiones. Fue subcampeón mundial a título póstumo.

El 8 de Mayo de 1982, el canadiense Gilles Villeneuve falleció en el acto durante la jornada de clasificación al colisionar con otro coche y salir despedido tras estrellarse contra un muro del circuito de Zolder (Bélgica). Un mes después, falleció el italiano Riccardo Paletti al estrellarse contra el Ferrari del francés Didier Pironi, que se había quedado parado en la salida del G.P. de Bélgica. Curiosamente, el propio Didier Pironi tuvo, esa misma temporada, un gravísimo accidente en los entrenos del G.P. de Alemania que le privó de ganar un título mundial que tenía casi en el bolsillo y le apartó de las pistas durante cuatro años. Murió en 1987 a causa de un accidente en una carrera motonáutica. Un año antes, el italiano Elio de Angelis que había disputado más de cien carreras en Fórmula 1, murió en un accidente durante una sesión de test, en el circuito de Paul Ricard, (Francia), mientras probaba su Brabham.

La última carrera con víctimas mortales fue la del ya comentado Gran Premio de San Marino de 1994, disputado en el circuito de Ímola, aunque Ayrton Senna no fue el último piloto de Fórmula 1 muerto, ya que el pasado 11 de Octubre de 2013 fallecía María de Villota a consecuencia de las secuelas sufridas tras estrellar su Marussia en unos entrenamientos del equipo en Julio de 2012.

Sin duda, la muerte de Ayrton Senna sirvió para mejorar la seguridad de la Fórmula 1. Entonces, la FIA estableció un grupo de expertos para analizar sistemática y científicamente cómo hacer que la F1 fuera más segura. Las pruebas de choque se volvieron más estrictas y se redujo la velocidad. Se reglamentaron los cascos, se mejoraron las barreras de contención y los circuitos (con cambios en algunos circuitos antiguos y desfasados y más escapatorias en las pistas) y se modificó el diseño de los monoplazas. Unos cambios que, sin duda, han servido para no tener que ver más muertos en pista, a pesar de los últimos accidentes vividos por Felipe Massa o Robert Kubica.