La física de las balas de mosquete

¿Se han preguntado ustedes, en alguna ocasión, cómo se las arreglaban nuestros belicosos antepasados para fabricar la munición empleada en sus rudimentarios mosquetes durante los siglos XVIII y XIX? ¿No? Pues yo se lo contaré a continuación. Además, si alguno/a de ustedes es profesor de física en un centro de enseñanza secundaria o incluso en uno de los primeros cursos de universidad, el problema entraña conceptos tanto de mecánica newtoniana como de termodinámica básicas. Puede resultarles útil y motivador en sus clases.

Como les decía, las buenas gentes de finales del siglo XVIII y buena parte del siglo XIX utilizaban como munición en sus mosquetes y pistolas unas bolitas de plomo de diferentes tamaños, dependiendo del calibre concreto de sus armas. Para fabricar estas esferas hacían uso de las denominadas “shot towers” (gracias a Francis y a César me entero de que se denominan "torres de perdigones", en español), edificios en forma de torre que podían presentar alturas comprendidas entre los 40 metros y los 80 metros, cuya patente había sido registrada por un tal William Watts en 1782.

Watts se dio cuenta de que si se dejaba caer un fino chorro de plomo fundido desde una cierta altura (desde lo alto de una torre, por ejemplo) el fluido acabaría formando gotas esféricas que se enfriarían a lo largo de su trayectoria de caída. Los perdigones terminaban cayendo y siendo recogidos en un enorme recipiente con agua que servía como refrigerante. Obviamente, el tamaño de los proyectiles dependía de la altura de la torre desde la que se dejaba caer el plomo fundido a través de miles de agujeros practicados en el fondo de una inmensa cacerola situada en la parte alta de la torre. Por poner un ejemplo numérico, si se vertían 5 toneladas de plomo fundido y éste se filtraba por 2400 agujeros, se conseguía obtener casi 10.000 perdigones cada segundo.
Los fenómenos físicos involucrados en la formación de las bolitas de plomo solidificado no son otros que la denominada inestabilidad de Plateau-Rayleigh (análoga a la que tiene lugar y que, sin duda, habrán visto, sucede cuando un estrecho y fino chorro de agua surge de un grifo y forma gotitas antes de precipitarse en el sumidero); además, está la tensión superficial, que hace que las gotas adquieran forma de esferas (no perfectas, a causa de la gravedad), las leyes de Newton de la dinámica que describen el movimiento de los perdigones durante su vuelo desde la cima de la torre hasta el recipiente con agua situado en el suelo y, finalmente, la termodinámica que explica el enfriamiento del plomo.

La cantidad de calor que debe perder el plomo fundido para solidificarse tiene que ser igual al calor latente de fusión del mismo, esto es, unos 24,7 kJ por cada kilogramo. Al mismo tiempo, nuestros avispados antepasados diseñaron las torres de tal manera que se evitaba la excesiva formación de vapor cuando entraban en contacto los perdigones con el baño de agua refrigerante, para lo cual el plomo debía perder una cantidad de calor tal que, después de solidificarse, su temperatura se redujese desde los 327 ºC (el punto de fusión del plomo) hasta un valor por debajo del punto de ebullición del agua, 100 ºC. Esto resultaba trivial, siempre que se conociese el calor específico del plomo, unos 128 J kg-1K-1.

Los tres procesos mediante los cuales una sustancia concreta intercambia calor con el medio que la rodea son la convección, la conducción y la radiación. Una serie de cálculos estimativos con los que no les aburriré (pero que pueden ustedes encontrar detallados en la referencia citada al final) demuestran que, en el caso concreto que nos ocupa, el primero de los tres procesos es unas 10 veces más importante que el segundo y, al menos, unas 20 veces superior al tercero. Por lo tanto, no se comete un error demasiado importante si se ignoran los dos últimos y se admite que la convección es el mecanismo dominante de intercambio de energía térmica entre los perdigones de plomo y el medio circundante (en este caso, el aire).


Esta energía en forma de calor que cede el plomo durante su trayectoria de caída resulta ser una función de varios parámetros, a saber: del área superficial de los perdigones (el área de una esfera), de la diferencia de temperatura entre el plomo y el aire, de la conductividad térmica así como la viscosidad cinemática del aire y de la velocidad de los propios proyectiles. La relación matemática exacta se puede ver también en la referencia que figura al final del artículo.

Ahora bien, si nuestros estudiantes no dominan aún el cálculo diferencial y/o integral, se pueden admitir, sin pérdida de demasiada precisión, dos cosas: en primer lugar, que la velocidad de caída de los perdigones de plomo es constante a lo largo de toda la trayectoria e igual a la mitad del valor de la velocidad terminal (esto es, la velocidad máxima que alcanza un objeto que se desplaza en el seno de un fluido, ya sea éste líquido o gaseoso) y en segundo lugar, que la temperatura de éstos también es constante e igual al valor medio de su temperatura inicial (327 ºC) y final (101 ºC, un grado por encima de la temperatura de ebullición del agua). La velocidad terminal de las esferas de plomo resulta ser de 23-25 m/s, para los valores conocidos de la densidad del aire y la del plomo, así como para unos radios de las esferas comprendidos entre 1,2 y 1,4 mm.

El caso es que cuando todas las magnitudes anteriores se introducen en la expresión matemática correspondiente y se manipula algebraicamente, se llega a una relación muy sencilla entre el radio máximo de las esferas y la altura, H, de la torre:

R = 1,2 10-4 H5/8

Así, una torre de 40 metros de altura sería, en principio, perfectamente capaz de dar lugar a los célebres perdigones de calibre 6 (con un radio de 1,2 mm) que históricamente fueron utilizados. Si se desea obtener bolas de 1,9 mm (calibre 2) se requiere una torre con el doble de altura, unos 80 metros.

Para concluir, resulta interesante señalar cómo se puede proceder a la hora de mejorar las prestaciones de las “shot towers”. En efecto, cuanto más permanezcan en el aire las esferas, tanto mayor será el tiempo del que disponen para enfriarse y, en consecuencia, mayor tamaño pueden alcanzar. Esto se consigue mediante el empleo de ventiladores que expulsen aire verticalmente hacia arriba, incrementando la fuerza de arrastre sobre los perdigones y haciendo que éstos se precipiten más tarde en el tanque de agua. Al mismo tiempo, se reduce la temperatura del aire en el interior de la torre, lo que favorece el enfriamiento por convección del plomo.





Referencia original:

Trevor C. Lipscombe and Carl E. Mungan The Physics of Shot Towers, The Physics Teacher 50 (2012) 218-220.



¿Qué puede hacer la física forense por la enseñanza y la divulgación?


Esta mañana estaba yo sentada en mi despacho de la universidad, buscando y hojeando material que me pudiera servir en mis clases para el próximo curso, cuando me topé con un documento inesperado que llevaba tiempo almacenado en el disco duro de mi ordenador. Su título, La física forense en el aula, lo decía todo: breve, conciso y motivante. Justamente lo que andaba buscando. ¿Qué habría allí?

Ni corta ni perezosa, lo imprimí y comencé a echarles un vistazo a las primeras páginas. Su autor, Ernesto N. Martínez, había elaborado un documento detallado sobre cómo afrontar el estudio de casos reales de accidentes de tráfico desde un punto de vista científico, en concreto, desde la perspectiva de un físico.

A medida que iba pasando las páginas, y reconozco que no fueron muchas, tan sólo las catorce primeras, me iba dando cuenta de que el señor Martínez y yo éramos almas gemelas, al menos en lo que concierne a la forma de ver y entender ciertos aspectos de la comunicación pública y la enseñanza de una disciplina científica como es la física. Así pues, decidí escribir el artículo que comienza en el siguiente párrafo, en el que comparto punto por punto y letra por letra las opiniones de su autor original. Tan sólo me he limitado a resumir lo que más me ha llamado la atención y a adornar levemente con mis propias palabras, experiencia y opiniones, algunos de los párrafos que pueden ustedes encontrar en el texto original del autor que les enlazo más arriba.

Entre otras cosas, el señor Martínez señalaba en su documento que es muy habitual encontrarse en los juzgados con jueces, abogados y jurados que poco o nada saben o entienden de física a la hora de decidir sobre la inocencia o culpabilidad de los acusados, incluso cuando esta ciencia les podría ayudar enormemente en su toma de decisiones. Obviamente, una de las razones que contribuyen a esto no es otra que la que tiene que ver con la tristemente célebre hipótesis de “las dos culturas” (ciencias y letras) de C. P. Snow. Es decir, que los abogados no acuden habitualmente a solicitar la ayuda de los físicos u otros expertos porque hace mucho que han perdido contacto con las materias científicas como son la física, la química o la biología, nada menos que desde la enseñanza secundaria obligatoria. Para ellos, un físico no hace ninguna falta porque la casuística criminal a la que se enfrentan a diario no involucra ni armas termonucleares ni superconductores de alta temperatura o partículas como el bosón de Higgs, a menos que éste sea capaz de generar agujeros negros asesinos en el LHC. Tal es la imagen que tienen de los físicos y que es mantenida, asimismo, por un alto porcentaje de la población.


Se puede caer en el error de acusar a los “profesionales de las leyes” de no emplear el método y las técnicas científicas en sus casos, pero quizá cambien de opinión si antes reflexionan sobre la siguiente cuestión: ¿cuántos de ustedes (yo también me incluyo), incluso los científicos profesionales, hacen uso de su ciencia en su vida diaria? ¿Tienen alguna excusa para ello?

Pero lo que me resultó más interesante fue el capítulo siguiente: la justificación del empleo de la física forense en el aula. En efecto, en aquellas cinco páginas se encontraba condensada toda mi experiencia de años con mis estudiantes universitarios. El profesor Martínez y yo pensábamos igual hasta un punto realmente sorprendente.

Según él (y ahora sé que según yo, también) la física forense poseía un enorme interés pedagógico y podía constituir un ejemplo perfectamente válido a la hora de transmitir la cultura y el pensamiento científico a las personas no versadas y, sobre todo, a los estudiantes de todos los niveles, desde el medio hasta el superior.

Los cuatro puntos claves que marcan la estrecha relación entre la física forense y la investigación científica (y que, dicho sea de paso, resultan igualmente válidos para cualquier otra rama de la ciencia) se pueden enunciar así:

Las soluciones de los problemas que se plantean en un caso judicial no aparecen en los libros, ni tampoco las posee el profesor. Si nos dirigimos al final del libro de texto en busca de la respuesta correcta, no la hallaremos, simplemente porque “la solución correcta” no existe. Existen mejores y peores respuestas y siempre hay que tener los ojos y la mente despiertos para distinguir entre ellas. Es indispensable saber que la física no es un compendio de recetas rígidas que dicta el profesor o el experto, ni un conjunto de reglas de un juego al que únicamente juega éste. Todos los estudiantes pueden y deben jugar, aportar sus ideas, su lógica, su inteligencia, su entusiasmo, pero nunca acudiendo a la falacia de autoridad. Los argumentos no son buenos o malos dependiendo de quien los esgrima. A lo largo de la historia, varios ejemplos de esta falacia han causado no poco estancamiento en el avance de la ciencia, incluso de siglos (Aristóteles es un claro ejemplo). Las preguntas que realmente pueden resultar interesantes de responder por los estudiantes son aquellas que ellos mismos formulen, no las que les propongan los libros. Así pues, el profesor debe fomentar en sus alumnos no tan sólo la búsqueda de soluciones a los problemas planteados, sino la elaboración por parte de éstos de nuevas y originales preguntas que despierten el interés, tanto personal como colectivo.


1.- Hay una necesidad ineludible de elaborar modelos, ya que para obtener las respuestas buscadas a las cuestiones planteadas, a menudo se hace inevitable llevar a cabo largas y complejas cadenas de razonamientos concatenados. El modelo es la imagen gráfica que usamos para describir de una forma manejable todo el conjunto. El modelo plantea nuevas preguntas y permite realizar predicciones que, en caso de cumplirse y corroborarse en la práctica, sirven de refuerzo del propio modelo; por contra, en caso de no cumplirse, hacen que el modelo sea abandonado en adopción de uno mejor.

2.- Desafortunadamente, en los colegios, institutos y facultades, se enseña ciencia sin hablar de modelos y solamente se muestran sus resultados. A este respecto, sería tremendamente interesante impartir la docencia de la física, la química, la biología, la geología, etc. desde una perspectiva histórica, señalando los problemas a los que se tuvieron que enfrentar los científicos de cada época y cómo fueron capaces de resolverlos a medida que adoptaban y desechaban modelos hasta hacer encajar todas las piezas del rompecabezas inicial. Sin el contexto que proporcionan los modelos, los problemas que se resuelven en el aula y/o durante el examen no pasan de ser meros ejercicios rutinarios, sin ningún sentido, más que el de proporcionar una manera absurda (y muchas veces injusta) de otorgar una calificación al estudiante y, al mismo tiempo, anestesiar a la sociedad que nos paga.

3.- Una vez concluidos los procesos de responder a las preguntas planteadas, así como la elaboración de modelos, el siguiente paso natural debería consistir en enumerar, organizar y contar las conclusiones a las que nos han conducido. En el caso de la física forense, hay que ser capaz de hacer entender al juez, los abogados y, en su caso, al jurado, de lo que estamos hablando. Y todo ello sin olvidar que nos dirigimos a personas que, como ya sabemos, no mantienen contacto con la ciencia desde que eran unos adolescentes. Así pues, debemos acudir a nuestras mejores capacidades pedagógicas y divulgadoras para convencer a todos ellos de que lo que afirmamos resulta lógico, razonable y fundamentado hasta el punto en que puedan hacer suyos nuestros argumentos. Será señal de que los entienden y comparten, de que hemos triunfado en nuestro deber y compromiso.

Habitualmente, nuestros colegas, investigadores brillantes y abnegados ellos, que ven la divulgación y la transmisión del conocimiento científico a la sociedad como una labor absolutamente ingrata, desagradable, innecesaria e inútil, suelen mofarse de los que hemos optado por esta vía y desdeñar nuestras opiniones, normalmente con un gesto de condescendencia, apartando la mirada y soltando alguna que otra gracieta más o menos ingeniosa, según su más o menos inspirado sentido del humor. Y ahí, normalmente, termina la conversación sobre divulgación, para reanudarse sobre la importancia de la investigación “pura y dura”, que es la auténticamente buena, importante y a la que se deben en cuerpo y alma.

El caso es que la mejor forma de que, tanto los científicos (les guste más o menos, o incluso nada en absoluto) como los estudiantes, elaboren sus conclusiones consiste en algo tan sencillo como saber escribirlas. No me refiero a que sepan “transcribir” lo que han leído en el libro de texto, sino más bien a que cuenten, relaten con sus propias palabras aquello que realmente han experimentado, conocido y aprendido, lo que a partir de ese momento pasará a formar parte de su bagaje intelectual, de su conocimiento, de su sabiduría. A escribir se aprende escribiendo y a medida que se escribe más cuenta se da uno que aún le falta mucho por aprender a escribir. Nadie está enseñando a nuestros jóvenes, nuestros hijos, a escribir bien, de forma correcta, lo que quizá constituya la habilidad más básica de una persona educada y culta. Todo lo contrario, no hay más que echar un vistazo a los medios de masas que nos bombardean continuamente hoy en día para darse cuenta de que tanto políticos como periodistas y hasta profesores estamos haciendo todo lo contrario a lo lógicamente recomendable, es decir, les estamos enseñando a hablar mucho y pensar poco, sin decir absolutamente nada, a creerse a pies juntillas cuanto les decimos, a defender sus argumentos, casi siempre vacíos de contenido a voces y a buscar la vida fácil, sin esfuerzo personal, centrada exclusivamente en la consecución de fama y dinero.

4.- Es precisamente el fomento de estas perniciosas formas de vivir el que nos lleva al último de los cuatro puntos claves que les señalaba más arriba. En efecto, la física forense posee una característica muy peculiar que la hace diferente a otras disciplinas científicas, a saber: las conclusiones válidas a las que pretende llegar tienen repercusiones mucho más importantes que van más allá de la mera calificación de un examen y no hay que olvidar que de esas conclusiones puede depender la libertad o incluso la vida de una persona. Es la aceptación de este riesgo lo que muestra el compromiso real y personal con lo que se hace. Considero mi responsabilidad como docente inculcar a todos y cada uno de mis estudiantes esta actitud responsable. Al fin y al cabo, siempre he mantenido que los profesores no estamos únicamente en clase para impartir el temario de nuestra asignatura. Y, desgraciadamente, esto no lo entienden ni todos los estudiantes ni todos los padres.



Presenciando el final del universo desde una nave estatocolectora de Bussard


En el futuro, Suecia se ha convertido en la principal potencia política y económica del planeta. Los viajes interestelares se han hecho realidad, aunque la velocidad de la luz en el vacío no se ha superado, tal y como afirman las leyes de la relatividad de Einstein.

Una misión formada por 50 personas (25 hombres y 25 mujeres) es enviada a bordo de la nave estelar Leonora Christine para colonizar un nuevo planeta, situado a 32 años luz de la Tierra. La nave es de tipo ramjet de Bussard, sobre el que volveré más adelante.

La Leonora Christine acelera continuamente y se va acercando cada vez más a la velocidad de la luz, aunque sin alcanzarla. Tal y como predicen las transformaciones de Lorentz, el tiempo a bordo de la nave transcurre de forma mucho más lenta que en el exterior. Así, para cuando la misión alcanzara su destino, para los miembros de la tripulación únicamente habrían transcurrido 5 años, en lugar de los 32 que habrán pasado en la Tierra.

Repentinamente, algo inesperado sucede y el sistema de propulsión de la nave estelar sufre un problema serio, impidiendo el frenado de la misma. El contratiempo resulta inevitable, sin solución. No podrán detenerse al llegar al nuevo planeta, ya que la Leonora permanecerá acelerando para siempre.


Estos párrafos describen muy someramente el argumento de una novela titulada Tau cero, escrita por Poul Anderson, uno de los más célebres y conocidos autores de ciencia ficción. Precisamente, el título de la obra proviene de un factor numérico denominado “tau” que aparece en las transformaciones de Lorentz de la relatividad especial, pues a medida que la velocidad de un cuerpo se acerca a la de la luz en el vacío, dicho parámetro tiende a cero.

La terrible consecuencia de la avería que sufre la Leonora Christine no es otra que la paulatinamente mayor dilatación del tiempo en el interior de la nave con respecto al resto del universo. Así, lo que son horas o minutos para la tripulación pueden llegar a ser miles o incluso millones de años para el resto del universo. Lógicamente, Anderson arrastra al lector al único final coherente con las premisas de partida: los protagonistas presenciarán en el transcurso de sus vidas a bordo de la nave nada menos que el final del universo, un Big Crunch, seguido de un nuevo y posterior Big Bang. El final feliz está garantizado. La idea ya la había explotado el mismo Poul Anderson en su relato de 1961 “Viaje a la eternidad”, donde los protagonistas, atrapados en una máquina del tiempo que no puede retroceder al pasado, siguen viaje hacia el futuro profundo para asistir al Big Crunch, el cual, una vez pasado, trae consigo otro Big Bang que les permite, finalmente, retornar al mismo instante de su partida.


Hasta aquí, más o menos, la ficción. A partir de ahora, la realidad de la ciencia subyacente o las posibilidades reales de las ideas puestas en juego por Poul Anderson en su novela. Les decía a ustedes un poco más arriba que volvería sobre la cuestión de los ramjets de Bussard. Pues bien, ha llegado el momento.

Robert W. Bussard (1928, 2007) fue la primera persona en publicar un artículo técnico (lo que los científicos profesionales denominamos “paper”) acerca de la posibilidad real de diseñar y construir un “ramjet”, es decir, una nave estelar que no superase la velocidad de la luz pero que, al mismo tiempo pudiese llegar a su destino en el transcurso de una vida humana. En 1960, como les decía, ideó un motor de fusión nuclear que sería alimentado por protones capturados directamente del medio interestelar por el que viajase la nave. Mediante el empleo de una especie de colector en forma de embudo y constituido por una serie de campos electromagnéticos dispuesto en la proa de la nave, los protones atrapados serían conducidos al interior del reactor de fusión, donde se produciría el proceso propiamente dicho. Los productos liberados serían expulsados a grandes velocidades por las toberas dispuestas en la popa, proporcionando con ello el empuje necesario (a semejanza de lo que ocurre con los gases en un cohete convencional de combustible químico).

La ventaja que presenta el ingenio propuesto por Bussard resulta, en principio, evidente: la nave no necesita llevar a bordo el combustible, con la consiguiente economía, tanto pecuniaria como de peso (ambos factores, decisivos), al ser éste tomado del propio medio interestelar.


En su artículo original, el doctor Bussard halló que un ramjet que fuese 100 % eficiente y no presentase pérdidas de ningún tipo (ni de masa ni debido a la radiación térmica emitida) sería capaz, en principio, de alcanzar una velocidad cercana a la de la luz en tan sólo un año y manteniendo una aceleración equivalente a la que experimentamos en la superficie de nuestro planeta (unos 9,8 m/s2) para total comodidad de la tripulación. El prototipo de Bussard pesaba 1000 toneladas métricas, su embudo colector debía poseer una área efectiva de 10.000 km2, y se desplazaría por el espacio interestelar cuya densidad de protones no descendiese por debajo de mil millones por metro cúbico.

Desafortunadamente, las suposiciones de Bussard resultaron, posteriormente, demasiado optimistas. Los protones (es decir, partículas con carga eléctrica) que requería su diseño no suelen encontrarse en esta forma en el espacio interestelar. Más bien, lo habitual suele ser hallar átomos de hidrógeno neutros (un protón en el núcleo y un electrón en la corteza, dicho de forma extremadamente simple) por lo que se hace imprescindible ionizarlos (despojarlos de su electrón), si es que se quiere que el embudo electromagnético sea efectivo (una alternativa válida podría consistir en hacer incidir sobre los átomos de hidrógeno un haz de luz láser ultravioleta situado en la proa de la nave). Además, tan sólo 3 años después del “paper” de Bussard, el mismo Carl Sagan señaló que la densidad media de hidrógeno interestelar podría no superar la milésima parte del que se encontraría en una nebulosa con densa formación de estrellas. Así pues, un valor mucho más realista para la cantidad de hidrógeno disponible rondaría los 100.000 átomos por metro cúbico.


Otra dificultad tenía que ver con la misma reacción de fusión. De hecho, las estrellas generan su tremenda energía gracias al empleo de este método. La fusión de cuatro protones para dar lugar a un núcleo de helio, tal y como sugería Bussard, es relativamente difícil de conseguir, siendo habitual en las estrellas como el Sol o menores (a esta reacción se la conoce como cadena protón-protón). Ni siquiera en los reactores modernos de fusión se plantea la fusión directa de protones como medio de generar la deseada fusión nuclear comercial, sino que se suele acudir a la reacción entre los dos isótopos pesados del hidrógeno (el deuterio y el tritio). En cambio, las estrellas con mayor masa que nuestro sol suelen hacer uso del denominado ciclo CNO (de carbono, nitrógeno, oxígeno), en el que inicialmente un núcleo del isótopo 12 del carbono se fusiona con un protón para dar lugar, finalmente, a un núcleo de helio, actuando el carbono como catalizador de la reacción, es decir, una especie de elemento acelerador y facilitador de la reacción y que se recupera durante una de las fases intermedias, pudiendo volver a fusionarse con un nuevo protón que esté presente en el reactor o en la estrella. Sea cual sea el método empleado, lo cierto es que la máxima energía que se obtiene nunca supera el 1 % de la de los elementos de partida. En este sentido, se ha llegado a sugerir el uso de reacciones materia-antimateria, las cuales son 100 % eficientes, siempre que se disponga de cada una de ellas en igual cantidad. Lamentablemente, la densidad de antimateria presente en el espacio interestelar es considerablemente menor que la de materia ordinaria, hecho que presenta tanto ventajas como inconvenientes: entre las primeras, que el ramjet no sufriría serios daños debidos a la interacción de la propia estructura con los positrones; entre los segundos, que en caso de iguales proporciones materia/antimateria únicamente se generarían como productos fotones de radiación gamma muy energéticos, los cuales, por carecer de carga eléctrica, resultan imposibles de dirigir mediante el empleo de campos eléctricos y/o magnéticos, saliendo despedidos en todas direcciones y, por tanto, no generando impulso alguno a la nave.


Incluso aunque la nave estatocolectora (que así suele denominarse) emplease la reacción de fusión entre el deuterio y el tritio, habría que tener en cuenta que estos dos isótopos del hidrógeno no son demasiado abundantes, especialmente el primero (uno por cada 6500-6700 de hidrógeno normal). Es más, la fusión del deuterio presenta otro inconveniente muy serio, y es que genera neutrones durante el proceso. Al igual que la radiación gamma que les comentaba hace un rato, los neutrones también carecen de carga eléctrica y salen despedidos con grandes energías que les hacen prácticamente imposible de detener o redirigir. Los neutrones podrían, así, llegar a penetrar el fuselaje de la nave y ser absorbidos por los tejidos humanos, induciendo mutaciones cancerígenas en las células. Habría que plantearse la disyuntiva entre dejar morir achicharrada a la tripulación o blindar la nave con el consiguiente incremento, quizá irrealizable, de peso.


A pesar de todas las dificultades puestas claramente de manifiesto en los párrafos anteriores, lo cierto es que la propulsión de una nave estelar estatocolectora aún sigue mereciendo estudios analíticos o simplemente académicos en años recientes. Así, Claude Semay y Bernard Silvestre-Brac analizaron en 2005 y 2008, respectivamente, las soluciones exactas de la ecuación del movimiento de un ramjet de Bussard, tanto para el caso en que éste fuese ideal como para el caso en que se tuviesen en cuenta las pérdidas de masa y por radiación térmica de la nave.

En el primer caso, las ecuaciones demuestran que el enorme ingenio espacial necesita, obviamente, de un impulso inicial antes de comenzar a ser operativo, ya que el colector no empieza a recoger materia interestelar hasta que no se encuentra en movimiento. Según las estimaciones de Semay y Silvestre-Brac sería suficiente con tan sólo una velocidad inicial de unos 10 km/s, lo que podría lograrse con cohetes químicos convencionales o mediante el empleo de una vela solar. De esta forma, el estatoreactor aceleraría, al principio, de forma lineal con la velocidad hasta llegar, más o menos, a alcanzar los 60.000 km/s. A partir de este momento, la aceleración comenzaría a disminuir.

En el segundo de los casos, cuando el ramjet deja de ser ideal y parte de la energía extraída del medio interestelar se pierde en forma de radiación térmica, la velocidad de la nave se ve reducida de forma considerable. Más aún, resulta natural asumir que una fracción del gas interestelar recolectado por el embudo electromagnético se puede perder durante el funcionamiento del motor. En esta situación, mucho más realista, la velocidad máxima se reduce enormemente, dejando de acercarse arbitrariamente a la velocidad de la luz en el vacío, como sucedía en el caso ideal. Esto significa que la dilatación del tiempo a bordo de la nave que tiene lugar a velocidades relativistas ya no puede hacerse suficientemente grande como para permitir el viaje interestelar en un lapso soportable por una vida humana. Incluso cuando los valores de las pérdidas energéticas o de masa llegan a hacerse significativamente grandes, el movimiento del estatocolector deja de ser relativista, es decir, su velocidad cae por debajo del 10 %-15 % de la velocidad de la luz en el vacío.

Tampoco son pocas las modificaciones que se han propuesto desde el ya mítico artículo de Bussard, con el fin de mejorar el diseño o hacerlo más eficiente, aun reconociendo que probablemente nunca se puedan llevar a cabo. Les comentaré brevemente tan sólo tres alternativas:

  • El R.A.I.R. (Ram Augmented Interstellar Rocket)


En este diseño, propuesto inicialmente por A. Bond en 1974, los protones interestelares capturados por el colector no se utilizan como material para la fusión nuclear, sino que son acelerados en un acelerador diseñado a propósito y se utilizan para inducir reacciones de fusión con átomos de carbono y otros que se llevan a bordo, sacando así provecho del ciclo CNO que les explicaba más arriba. El resultado son dos “chorros” o “jets” de partículas (uno de protones y otro de los productos resultantes de la fusión nuclear) que generan propulsión al estatoreactor. Es preciso no olvidar que, aunque se supone que los protones interestelares capturados por el embudo no se fusionan, esto no tiene por qué ser así, ya que pueden reaccionar tanto con núcleos de litio como de boro que estuvieran presentes a bordo. Estas reacciones tienen su interés, ya que carecen de neutrones y, en consecuencia, no presentan los efectos dañinos que les expuse con anterioridad.


Un problema que presentan estas naves de tipo R.A.I.R., incluso cuando no se encuentran en régimen relativista, es decir, a velocidades por debajo del 15 % de la velocidad de la luz en el vacío, consiste en las elevadas temperaturas que se pueden llegar a alcanzar, haciendo indispensable la incorporación de un enorme subsistema radiador o disipador del calor, que podría presentar una superficie con una área de hasta 100.000 metros cuadrados para una temperatura máxima de operación de unos 2000 ºC. Asimismo, las dimensiones del estatocolector rondarían los 4000 km de diámetro, todo un desafío desde el punto de vista de la ingeniería.

  • El ramjet láser (laser ramjet)


Propuesto en 1977 por D. P. Whitmire y A. J. Jackson IV, el ramjet láser consta de una estación láser alimentada por energía solar y situada próxima al Sol. El haz así producido se transmite a un receptor/convertidor a bordo de la nave, encargado de transformar la energía luminosa en eléctrica que posteriormente alimentará un acelerador lineal de partículas. Los iones capturados por el colector son acelerados en él y emitidos a altas velocidades, generando la consiguiente propulsión.


El factor crítico del diseño estriba en mantener perfectamente alineado el haz a lo largo de tan enormes distancias entre el láser y la nave espacial y a lo largo de intervalos de tiempo tan grandes. Gregory L. Matloff ha estimado que uno de estos ramjets cuyo peso ascendiese a 750 toneladas, equipado con un estatocolector de 2000 km de diámetro y un láser de 50.000 millones de vatios que se encontrase con un medio interestelar de densidad igual a 0,05 protones por centímetro cúbico lograría acelerar desde una velocidad de 900 km/s hasta otra de 2400 km/s en nada menos que 80 años. Se requerirían, así, casi 500 años para alcanzar el sistema de alfa-Centauri.


  • El ramjet autopista (ramjet runway)


Propuesto igualmente, y al mismo tiempo, por los mismos autores del diseño precedente, en esta versión se pretende alcanzar un compromiso con el fin de compensar la no-fusión de los iones interestelares colectados por el embudo mediante la “preparación de una especie de autopista” que se dispondría delante de la proa de la nave y que consistiría en esparcir micro-perdigones o micro-cápsulas cargados eléctricamente, tarea que sería llevada a cabo décadas antes de la misión por otras naves más convencionales y lentas).


Estas micro-cápsulas de combustible deben estar convenientemente colimadas, esto es, no pueden estar dispersas y distribuidas a lo largo y ancho de distancias demasiado grandes, sino lo suficientemente pequeñas como para que los más modestos estatocolectores sean capaces de capturarlas eficazmente y dirigirlas hasta el interior del reactor de fusión.

Hace poco más de una década, en 1999, G. D. Nordley llegó a proponer que dichas cápsulas de combustible fusionable estuviesen basadas en nanotecnología inteligente, es decir, que por sí mismas pudiesen llevar a cabo y mantener la necesaria colimación.

El ramjet autopista es tal que, a medida que aumenta la velocidad de la nave interestelar, mayor se hace su rendimiento en comparación con las otras versiones de ramjet analizadas.

En conclusión, que seguro que lo están deseando, se puede afirmar que a pesar de que el concepto de nave estatocolectora o ramjet de Bussard resulte potencial o idealmente demasiado valioso e interesante como para ser descartado a priori, incluso con todas sus dificultades e inconvenientes, probablemente insalvables, con todo, aún puede servir como un excelente ejercicio de dinámica relativista para estudiantes de cursos avanzados o, cuando menos, como mera especulación, que tampoco viene mal en estos tiempos de pesimismo y crisis económica que vivimos.

Por concluir con un buen sabor de boca, que también se lo merecen todos ustedes, máxime después de haber soportado semejante compendio de cosas inútiles, me gustaría proponerles una cuestión en relación con la novela que me ocupaba al principio del artículo. Les cuento: ¿cómo es posible que una nave espacial que viaja por el universo y que asiste, a consecuencia de su enorme velocidad, al fin del mismo, no es destruida en el propio proceso de Big Crunch? ¿Desde qué privilegiado puesto de observación se puede contemplar el fin del universo? ¿Acaso desde otro universo?



Bibliografía complementaria:

Claude Semay and Bernard Silvestre-Brac The equation of motion of an interstellar Bussard ramjet, Eur. J. Phys. 26 (2005) 75-83.

Claude Semay and Bernard Silvestre-Brac Equation of motion of an interstellar Bussard ramjet with radiation and mass losses, Eur. J. Phys. 29 (2008) 1153-1163.

Miquel Barceló Paradojas: ciencia en la ciencia-ficción, Equipo Sirius, 2000.

Peter Nicholls La ciencia en la ciencia-ficción, Folio, 1991.

Gregory L. Matloff Deep Space Probes: To the Outer Solar System and Beyond, Springer, 2005.




Este artículo participa en la edición XXXIX del Carnaval de la Física, alojado en el blog El zombi de Schrödinger


El analfabeto científico y la divulgación


No sé muy bien cómo empezar a escribir un blog y reconozco que me siento un tanto atemorizada ante la idea de sentarme delante del ordenador y comenzar a superar el mítico síndrome de la página en blanco al que se suelen enfrentar los escritores. Pero de alguna forma hay que hacerlo y allá voy.

Ya hace unos cuantos días que tomé la decisión de dedicar parte de mi tiempo como investigadora en física y profesora en la universidad a sacar tanto la ciencia como la docencia que allí hago y mostrarlas al resto del mundo, de la sociedad que normalmente no está al tanto de nuestro trabajo, de esa labor que llevamos a cabo diariamente los científicos, los investigadores y los profesores. Esta labor es, en ocasiones, ingrata, tediosa, monótona, pero se supera a base de otros momentos enormemente gratificantes, plenos de satisfacción personal y de servicio a la sociedad.

Sin embargo, resulta francamente chocante, por no decir contradictorio, que toda esta inmensa cantidad de trabajo que se lleva a cabo en los institutos de investigación, en los laboratorios, en los despachos de las facultades universitarias, no vea la luz y, en consecuencia, no llegue a los profanos, la gente de a pie, todas aquellas personas que con sus impuestos contribuyen a que este magnífico engranaje funcione de la mejor manera posible, aunque no sea todo lo perfecto que muchos profesionales desearíamos.

Me estoy refiriendo, cómo no, a los resultados de la investigación científica, en todas sus ramas: física, matemáticas, química, biología, geología, medicina, etc. Y no únicamente a los resultados que se publican en las revistas especializadas, las cuales, por supuesto, no llegan a ese ciudadano que trabaja en la tienda de comestibles o en la carnicería, o al dependiente del hipermercado, la secretaria del bufete de abogados o el conductor del autobús urbano. No, me refiero a lo que normalmente se conoce como divulgación, es decir, la transmisión del conocimiento científico especializado al público no especializado o al especializado en otra rama o ramas del saber, pero de manera que sea comprensible por éste.

Vivimos en una época muy peculiar. A cualquier parte que dirijamos nuestra mirada podremos ver infinidad de objetos, de dispositivos cuyo funcionamiento está relacionado indudablemente con el conocimiento científico avanzado y el desarrollo tecnológico. La gente se pasea por la calle mientras charla animadamente con un amigo al otro lado del mundo gracias a los “smartphones”, consulta un mapa en tres dimensiones que le indica exactamente hacia donde debe dirigirse para encontrar el lugar que está buscando, espera en la parada del autobús o tren y puede saber con exactitud cuánto tiempo falta para que llegue. Al llegar a sus casas, la cosa se pone aún más interesante: encienden la televisión y las imágenes son de una calidad que parecería magia a cualquier espectador de la década de 1960, el ordenador personal puede hacer operaciones a velocidades inimaginables hace tan sólo unos cuantos años, el horno microondas nos prepara el desayuno o nos recalienta la cena en cuestión de segundos, las placas de inducción no te queman las manos si las apoyas en ellas y, sin embargo, pueden hacer hervir el agua en un recipiente metálico antes de que te hayas tomado el zumo de naranja del desayuno; si quieres ir al gimnasio puedes disponer de prendas que siempre están secas y eliminan el sudor de forma enormemente eficiente, calzado ligero y flexible que se adapta a todo tipo de pies; alimentos prácticamente de diseño que nos hacen vivir más y mejor, etc., etc. Y todos estos ejemplos, tan sólo por citar situaciones cotidianas, que todos podemos ver a diario. Si nos vamos a la ciencia de vanguardia, puntera, tenemos instrumentos como el LHC (el gran colisionador de hadrones, en el CERN), las sondas espaciales, los robots que hemos depositado sobre la superficie de otros planetas del sistema solar, los trasplantes de órganos, los avances en enfermedades como el cáncer, el conocimiento del cerebro, y tantas y tantas otras cosas que se podrían enumerar hasta hacer la lista casi infinita. Casi todo lo que nos rodea es ciencia y tecnología.


Desafortunadamente, todo este conocimiento y avance resultan invisibles para la inmensa mayoría de las personas. La sociedad, nuestra sociedad, es una sociedad de analfabetos científicos, de incultos; porque la ciencia es cultura, no nos engañemos. Y quien no conoce la ciencia es tan inculto como quien no conoce la literatura o la historia. Hagan una prueba con alguien que encuentren por la calle, al azar. Párenle, solicítenle un minuto de su atención y pregúntenle lo siguiente: ¿Quién escribió “El Quijote”? O pregúntenle quién descubrió América, o cuál es la capital de Francia. Probablemente esa persona, si no sale corriendo o aparta la mirada con desdén, le responderá correctamente a las tres cuestiones anteriores. Ahora bien, si abusan un poco más de su buena voluntad y paciencia, pregúntenle cuáles son las tres partículas básicas de un átomo, sin irnos a complicaciones innecesarias sobre quarks ni nada por el estilo, con los protones, neutrones y electrones que todos aprendimos en el colegio, siendo pequeños, nos conformamos. Pregúntenle por algún científico famoso que no sea Albert Einstein o Sheldon Cooper. Pregúntenle cuántos planetas hay en nuestro sistema solar, cuántos satélites tiene Mercurio, quién era Darwin o por qué es célebre Stephen Hawking. Se llevarán sorpresas y, seguramente, muy desagradables.

Como afirma Manuel Cereijido en su libro La ciencia como calamidad, el analfabeto científico tiende a pensar que los avances científicos y el desarrollo tecnológico se reducen a dinero, mucho dinero. Si los gobiernos invirtiesen el dinero suficiente, problemas como el cáncer y otras enfermedades mortales desaparecerían como por arte de magia, la contaminación del planeta no existiría y todos viviríamos en un mundo feliz y dichoso. Para el analfabeto científico la ciencia se reduce, simplemente, a ignorancia financiada. El analfabeto científico, obviamente, carece del conocimiento científico y tecnológico mínimo necesario para detectar y entender esa misma carencia, y todo ello a pesar de vivir una época y habitar un mundo en el que ya no quedan cosas importantes por hacer que no dependan de ciencia avanzada y/o tecnología. Finalmente, es este analfabetismo científico el que ha causado durante tanto tiempo que la realidad se haya interpretado apelando a deidades, milagros, magia, misticismo, ocultismo y otras memeces seudocientíficas. Muy pocas personas son capaces de adaptarse a esta realidad, analizarla y comprenderla de forma racional. No pueden prescindir de la superstición ni el oscurantismo.
Todo esto me lleva a una, para mí, inequívoca y evidente conclusión: hay mucho trabajo por hacer en el campo de la transmisión de la ciencia, el pensamiento racional y analítico, crítico, escéptico, a la sociedad. No sé muy bien y tengo dudas acerca de quién o quiénes deben hacer este trabajo, si deben ser los científicos, los periodistas especializados o, simplemente, cualquiera que esté preparado para ello, sea cual sea su “pedigrí”.

Esta mañana, curioseando por Twitter, me topé sin querer con este tema, precisamente. Después de intercambiar unos cuantos “tuits” con gente enormemente célebre en esta red social, decidí escribir sobre el tema. ¿Qué mejor ocasión para estrenar mi blog?

El caso es que en medio del fragor de la conversación a tres o cuatro bandas que surgió (tengo que decir que algunos de mis tuits fueron absolutamente ignorados, seguramente por ser yo quien soy, es decir, absolutamente nadie en este mundo de las redes sociales y los blogs de divulgación). En cambio, otros sí calaron y merecieron respuesta. Aún no sé por qué, imagino que quedaba ya demasiado feo seguir ignorándome, cuando yo intervenía una y otra vez, insistiendo en llamar la atención. Debe de ser que flotando en leche de fotones no estoy muy atractiva. En fin...

Por allí fueron apareciendo, visto y no visto, como salmones que saltan la cascada río arriba cuando se dirigen a desovar (porque en Twitter todo pasa muy rápido y los tuits tan pronto llegan se van y hay que estar preparado con la red para pescarlos o las fauces dispuestas para cogerlos) ideas muy interesantes: que si hay que eliminar las fórmulas de la divulgación porque dan miedo, que si hay que divulgar o, más bien, popularizar; que a qué nivel hay que hacerlo, dependiendo de la audiencia, y alguna cosa más.

A este respecto, creo que mi experiencia puede aportar algunas reflexiones. Por supuesto, no tengo esperanza alguna de que nadie vaya a leer esto, así que me lo tomo casi como si fuese una página de mi diario personal. Quizá me sirva algún día en alguna clase o charla en algún sitio. A ver por dónde empiezo.

En primer lugar, quiero dejar claro que he asistido a muchas conferencias de divulgación y he leído también no pocos libros, revistas, artículos y blogs de divulgación. Obviamente, me he encontrado de todo, desde lo sublime hasta lo infame (no pondré ejemplos concretos, por lo que pudiese suceder en un hipotético futuro si me hiciese célebre y famosa. Ilusa que es una, jaja). Lo primero que quiero decir es que para mí los términos popularización, divulgación o cualquier otro que se les parezca me resultan irrelevantes, más bien sinónimos. Cierto es que se les suelen atribuir matices: en este sentido, la popularización se tiende a asociar con la divulgación para gente con “nivel” cultural o bagaje académico más bajo, aunque puedo estar equivocada. En cambio, divulgación a secas parece indicar un cierto grado de rigor más alto, incluso puede ir dirigida a especialistas en otras ramas científicas, tecnológicas distintas a las de la materia divulgada. En definitiva, que llamemos como llamemos a la transmisión del conocimiento científico especializado, el que se hace en los centros de investigación, públicos o privados, o en las universidades, parece claro que el factor clave, el decisivo es saber a quién va dirigida esa transmisión de cultura especializada.



Efectivamente, no es lo mismo divulgar (sustituyan ustedes este término por popularizar o similar, si es que así se sienten más cómodos) un tema de física a un físico que a un químico, un biólogo, un matemático o un geólogo (lleven a cabo ustedes todas las combinaciones posibles de estos títulos honoríficos y tan reconocidos en nuestra sociedad). Tampoco es lo mismo hacer llegar un tema de medicina a un filósofo o a un ingeniero de caminos, a un físico o a un químico. Es más, puede resultar enormemente difícil contarle de forma comprensible a un físico electrónico un tema de física de supercuerdas o gravitación cuántica (o viceversa).  Y eso que son dos físicos los que interactúan entre sí. Así pues, ¿de qué estamos hablando? ¿Cómo hay que hacer para divulgar, popularizar o lo que sea? ¿Quitamos las fórmulas y las ecuaciones matemáticas y ya está? ¿Despojamos al lenguaje, hablado o escrito, de la jerga característica de cada especialidad científica? No es tan fácil.


Para mí resulta obvio que la divulgación presenta niveles. Si me estoy dirigiendo a un físico (y perdón por mi fijación, pero es que yo soy física y tiendo a desviarme hacia mi especialidad) podré escribir ecuaciones y utilizar un lenguaje técnico porque él me comprenderá, aunque le esté hablando de un tema en el que él no sea especialista. Evidentemente, habrá cosas que me tendré que callar o maquillar, reduciendo el nivel de complejidad o el rigor, pero al final tendremos la posibilidad de entendernos haciendo uso de una jerga común, comprensible para ambos y que podría ser absolutamente abstrusa para un químico, por ejemplo. Esto también es divulgación.

Ahora bien, si nuestro interlocutor es, pongamos por caso, alguien sin estudios superiores o, digamos, procedente de una rama del saber muy alejada, en principio, de la física, el asunto adquiere tintes muy distintos y se requiere una buena carga pedagógica y didáctica si se quiere alcanzar el objetivo con éxito. Ahora la jerga técnica habrá que aparcarla, las ecuaciones pueden generar hasta repulsión o pánico, por no decir cosas peores, y la transmisión del conocimiento suele resultar traumática para el divulgador (en este caso, probablemente, se entienda mejor el concepto popularizador). ¿Cómo enfrentarse a esta sensación de trauma, de no ser entendido, de provocar rechazo o aversión a la ciencia?


Dicho de otra manera, ¿por qué hay divulgadores buenos, divulgadores mediocres y divulgadores nefastos? ¿El buen divulgador nace o se hace? ¿Son todos necesarios? Veamos, trataré de arrojar un poquito de luz sobre estas cuestiones. Soy plenamente consciente de que lo que voy a decir ahora no son más que opiniones absolutamente personales, por descontado discutibles e incluso rechazables, por absurdas. Pero las diré de todas formas.

Les decía unos párrafos más arriba que he asistido a muchas conferencias y he tenido la inmensa fortuna y privilegio de conocer grandes y pequeños divulgadores. Las conclusiones a las que he llegado después de observar atentamente sus comportamientos y formas de expresarse o proceder, tanto en el escenario, como en sus obras escritas (libros, artículos en revistas, blogs), se pueden resumir en una frase: un buen divulgador posee una cierta habilidad para captar ciertas “señales” de su audiencia, intuye de alguna manera lo que interesa o no, lo que puede resultar enormemente motivador para el público o, por contra, arruinar la conferencia, y sabe utilizar en su beneficio y en el de todos los que asisten esa habilidad. El divulgador se puede hacer, pero el bueno de verdad, el que es excepcional reconociendo esas “señales”, ese solamente nace. Después, cual diamante en bruto, puede pulirse, aunque no es lo mismo pulir carbono puro cristalizado que grafito. No sé si me entienden.

Personalmente, creo que un divulgador tiene que saber, en primer lugar, captar la atención de la audiencia. Para esto existen trucos y técnicas, que no expondré ni aquí ni ahora. El sentido del humor puede ser de gran ayuda en este cometido, aunque no imprescindible, ya que algunas personas no soportan el sentido del humor o las bromas cuando se habla de ciencia, una cosa que para ellos es extremadamente seria y debe contarse con seriedad de funeral. 

La motivación también es esencial, pues si el que escucha o lee no ve el interés de lo que se le está intentando transmitir, la relación divulgador-público se romperá más pronto que tarde. En este sentido, también pueden resultar muy útiles determinadas técnicas: si estás en una conferencia, resulta tremendamente desmotivador que el ponente se dedique a leer las transparencias o que éstas consten prácticamente de insufribles párrafos repletos de texto. No hay nada más desmotivador que el divulgador te “fuerce” a leer inconscientemente lo que luego él dice exactamente de palabra. Las buenas conferencias y los buenos conferenciantes se sirven del poder de la imagen, del sonido, nunca del texto escrito. El público debe prestar su atención exclusivamente a lo que salga de la boca del divulgador y éste únicamente utilizará las diapositivas para deslumbrar, captar la atención, ilustrar lo que dice y motivar. Lo que sale de la boca del divulgador debe provenir de su cerebro, no de lo que ha escrito en la diapositiva. Para leer, mejor quedarse en casa con un buen libro.

Luego viene la forma  de actuar, el movimiento del cuerpo en el escenario, el ritmo, los cambios de ritmo y la pausa. Un buen divulgador sabe utilizar el lenguaje corporal, la expresión, su cuerpo debe reflejar lo que está contando, su entusiasmo por el tema que desarrolla. ¿A quién le gusta un divulgador, sentado a una mesa, hablando prácticamente solo a través de la pantalla de televisión, mientras utiliza un tono de voz cansino, monótono y acompañado por un movimiento de manos semejante a un guiñol?



Por descontado, lo más importante de la divulgación es el contenido de lo que se pretende divulgar. El contenido ha de tener calidad y un rigor adecuado para la comprensión de la audiencia. A pesar de todo, sí que pienso que no es necesario ni imprescindible que quien lee o escucha comprenda todo lo que lee o escucha. En ocasiones, es suficiente con que se sienta deslumbrado y se encienda la chispa de su interés, de su afán por saber más, por ir más allá de donde el divulgador le ha dejado. Aquí entran las llamadas “analogías”, quizá la herramienta básica a la hora de divulgar, de acercar un concepto al lego. Siempre hay que intentar establecer semejanzas, comparar el fenómeno que se está describiendo o explicando, con algo conocido por parte del público, algo cuya experiencia sensorial o intelectual ya posea previamente.

Finalmente, el acto de divulgar debe concluir tal y como empezó, es decir, captando de nuevo la atención, con una sorpresa última. Ha de ser tan impactante que el público cierre el libro, la revista, el blog o abandone la sala de conferencias, con la única idea de que quien no asistió no hizo otra cosa que cometer un error imperdonable, que la ciencia merece la pena conocerse y entenderse porque, sólo de esta forma, el mundo podrá ser, en efecto, más justo. Y mejor.