No eres un caos, es la entropía

Es posible que le guste acompañar esta lectura con un café, té —o cualquier otra bebida caliente tan propia de una mañana de domingo—. El formato digital facilita la logística del leer-beber, incluso de quienes, afortunados y valientes, se atreven a compaginar la lectura con un buen desayuno de chocolate con churros. Sean cuales sean sus gustos, es bastante probable que no pueda disfrutar su placer líquido a la primera porque esté demasiado caliente, poniendo en riesgo su integridad física. De Física, con mayúsculas —no de su integridad, ni de la del café hirviendo— va este texto. De Física y calor, para ser exactos. Y si afinamos aún más: de lo que hace que ese calor se transfiera del café a su lengua, eliminando temporalmente cualquier sensibilidad a la que estuviese acostumbrado. Hoy desempolvamos los apuntes de termodinámica para hablar de otra palabra rara: la entropía.

¿Qué es la entropía? La definición nos dice que, en la naturaleza, la entropía es la medida del desorden de un sistema cerrado. Según la segunda ley de la termodinámica, en un sistema aislado, la entropía tiende a aumentar con el tiempo. En otras palabras, el desorden es el destino inevitable de todo sistema que no recibe energía del exterior para evitarlo. Esto que rige el mundo físico encuentra paralelismos sorprendentes en el universo de lo cotidiano.

Sin ir más lejos, bastaría un pequeño descuido —una llamada imprevista, un movimiento brusco, un codo mal colocado— para que la armonía de esta lectura se rompa: el café se derrama, la taza acaba en el suelo y, de repente, el caos invade lo que antes era un tranquilo desayuno. Este incidente doméstico es una manifestación cotidiana de la temida entropía.

Pero más allá del mundo de las anécdotas inútiles, ¿puede tener esto alguna implicación en nuestra vida diaria?

Sistemas

Al igual que en la Física, nuestros proyectos, relaciones y casi cualquier faceta de la vida forman parte de sistemas sujetos a la entropía. Si los consideráramos aislados del exterior, sin atención ni mantenimiento constantes, tenderían inevitablemente al desorden. Esto sería, obviamente, ignorar la realidad, porque no son sistemas aislados. Todo tiende a estar relacionado. Pero, a efectos de simplificación, podemos imaginar que funcionan como tales, a costa de sacrificar algo de rigor científico —por algo esto se publica en un blog y no en la revista Science—.

Antes de abandonar del todo la Física y su rigor,  vale la pena repescar otro concepto fundamental de la termodinámica: el trabajo útil. Se refiere a la parte de la energía de un sistema que puede transformarse en trabajo mecánico o en cualquier otra forma de energía aprovechable. Y aquí hago una pausa para asentar los conceptos:

  • Érase una vez un sistema aislado.
  • El sistema tenía energía.
  • La parte de esa energía que podía aprovecharse se llama “trabajo útil”.
  • Con cada acción se consume energía, el trabajo útil decrece y la entropía aumenta.
  • Érase el mismo sistema pero más desordenado.

En términos prácticos, es como si cada acción que realizamos generara un pequeño coste invisible en forma de desorden y pérdida de energía aprovechable, un precio inevitable que pagamos por el simple hecho de existir y actuar en el mundo.

¿Y hasta cuándo se desordena? Papel y boli, que aquí está la pregunta de examen. Pista: la coletilla de “aprovechable” no la he puesto a propósito para restar fluidez de la lectura.

La entropía en un sistema aislado no deja de aumentar hasta que se alcanza el equilibrio termodinámico, es decir, el estado en el que la energía se distribuye de manera uniforme por todo el sistema y ya no es posible realizar trabajo útil. En otras palabras, es el momento en que todo se estabiliza… o se estanca.

Puede usted imaginarse una mesa de billar: antes de empezar el juego, todas las bolas están organizadas en un triángulo, concentradas en un solo punto. Sin energía, en un equilibrio imperturbable. Pero de repente el sistema recibe un aporte energético del exterior. Al romper, esta energía se transmite desde el taco a la bola blanca y, de esta, al resto de bolas. Estas se dispersan por toda la mesa en un aparente caos, rebotando entre sí y contra las bandas.

Durante los primeros instantes, la energía del sistema está concentrada, y se puede utilizar para un fin: meter tantas bolas como sea posible durante la tirada. Sin embargo, a medida que las bolas rebotan y pierden velocidad, la energía se reparte cada vez más uniformemente entre todas ellas. Hasta que, finalmente, las bolas se detienen. En ese estado final, en el que todas han perdido su energía cinética y se han detenido en distintas posiciones, el sistema ha alcanzado su máximo nivel de entropía: no hay más movimiento, no hay más transferencias de energía útiles, no se puede realizar ningún trabajo adicional.

Este ejemplo refleja lo que ocurre a nivel termodinámico. Cuando la energía está concentrada y ordenada, puede usarse para realizar trabajo: mover un pistón, encender una bombilla, alimentar una célula. Pero conforme se disipa —como en una taza de café que se enfría o en un motor que deja de funcionar— el sistema se acerca a su equilibrio, y con él, a su incapacidad para generar cambios útiles.

Este ejemplo, además, refleja un sistema cerrado sólo cuando no recibe energía. En cada tirada tenemos la oportunidad de modificar el equilibrio anterior. 

En sistemas abiertos, como la mesa de billar, nuestras vidas y proyectos, la entropía también crece, pero podemos intervenir para aportar energía y retrasar ese desenlace.

Sin embargo, no todos los sistemas requieren la misma intervención para mantener el equilibrio. Identificar el tipo de sistema y su dinámica propia es crucial para decidir si vale la pena invertir energía en frenarlo o si es mejor dejarlo evolucionar por su cuenta. Por ejemplo, pensemos en un bosque: a simple vista, puede parecer un cúmulo de desorden y caos, con ramas caídas, hojas secas y un sinfín de organismos en constante interacción. Pero este aparente desorden es, en realidad, un equilibrio natural que se autorregula. Intervenir de manera excesiva podría romper esa armonía y causar más daño que beneficio.

El equilibrio es, en muchos casos, el estado más deseable al que puede aspirar un sistema. Pero alcanzar ese equilibrio no siempre es sencillo ni evidente. Algunos sistemas, como el bosque o las dinámicas grupales a gran escala, encuentran su propio balance con el tiempo y la interacción de múltiples variables, muchas de ellas fuera de nuestro control. En contraste, hay sistemas que sí necesitan un aporte constante de energía externa para no colapsar en el desorden. Un ejemplo sencillo es una habitación: si no dedicamos tiempo y esfuerzo a limpiarla, el polvo y el caos se apoderan rápidamente del espacio.

Tomar la decisión de intervenir o no en un sistema requiere entender su naturaleza y observar su comportamiento a lo largo del tiempo. A veces, lo más sabio puede ser dejar que el sistema encuentre su propio camino, confiando en su capacidad innata para alcanzar el equilibrio. Otras veces, es necesario asumir el rol de agente externo y aplicar energía para mantener el orden y preservar el trabajo útil. En cualquier caso, conocer los sistemas puede marcar la diferencia ¿Merece la pena dedicar energía propia para luchar contra el desorden de una habitación sucia durante las vacaciones? ¿O es usted de los que se hospeda felizmente en un hotel con servicio de limpieza? El desorden al que tienden las piscinas con sus algas, bichitos y suciedad puede suponer un castigo para muchos propietarios, pero también una oportunidad comercial a quien ofrezca el servicio de limpieza.

Conocer la diferencia entre estos sistemas y saber cuándo intervenir es, en esencia, una forma de sabiduría aplicada. Comprender la entropía no solo nos ayuda a entender el mundo físico, sino que también nos da herramientas para navegar la complejidad de nuestras vidas. A fin de cuentas, quizá la lección más valiosa de la termodinámica sea que, aunque el desorden sea inevitable, siempre podemos elegir cuándo y cómo enfrentarlo.

Comentarios Destacados

  1. Para los que somos aficionados a la historia y la filosofía de la ciencia, a parte de a la propia ciencia, el concepto de entropía es de esos de los más interesantes.

    Constituye, una más, una muestra sobre que nuestra visiones platónicas de órdenes y equilibrios, en la práctica, suelen ser bastante delicadas y que no hay que obsesionarse con ello. Ser capaz de adoptar modelos mucho menos estrictos en esas cosas suele dar aportaciones notables al conocimiento científico y a aplicaciones prácticas.

    Ya luego las implicaciones más filosóficas suelen ser algo más delicadas. Si el propio universo a nivel físico resulta que no es eficiente en nuestra concepción de la eficiencia, ¿como podemos esperar que lo sea la mano invisible del mercado? Y cuidado con a que no sea eficiente no me refiero a que no pueda ser más eficiente que otras posibles opciones.

    Por otro lado, para darle una vuelta más de tuerca al propio concepto de entropía, desde el punto de vista de la mecánica cuántica y la física estadística, en realidad no es tanto que no sea posible un incremento de la entropía sino que su probabilidad es tremendamente baja y que el propio concepto de entropía está muy relacionado con el comportamiento probabilístico a nivel microscópico.

    Como todas las teorías, es evidente que eso no es una solución definitiva, más bien lo contrario, pero, una vez más, muestra como la lógica humana depende mucho de como se enfoque un problema y , por lo tanto, constituye una forma de validación muy sujeta a error.
    Lo cual en términos de inversión tiene implicaciones en cuanto a sus limitaciones. A veces donde vemos 2 opciones y una con mucha más probabilidad que la otra por lógica, en realidad nos solemos estar olvidando que suelen haber bastantes más opciones y con una distribución de probabilidad distinta de la que pensábamos inicialmente.

Participa en el debate en El foro de Más Dividendos D+

Participantes

Avatar for agenjordi Avatar for Dudweiser