24 November, 5:13pm

Aun recuerdo mi primer encuentro con la entropia: estaba en mi último año de primaria y en el libro de ciencias naturales se hablaba del problema del movimiento perpetuo. Después de meditarlo se me hizo una pregunta bastante justificada ¿para qué necesitamos combustibles? ¿porqué necesitamos energía? Si se pudiera obtener el movimiento perpetuo, nada de eso sería necesario. Pronto me enteré de la electricidad y supe que moviendo un magneto por una bobina se inducía corriente eléctrica, y que pasando una corriente por una bobina dentro de un magneto, ésta se movía; por tanto, sí conectamos un motor eléctrico a un generador eléctrico ¡ya estaba hecho! el movimiento perpetuo. En secundaria, cuando llevé de nuevo elementos de la materia de electricidad, le pregunté a mi maestro por qué no se había hecho algo así y se limitó a contestar "en la preparatoria verás por qué, pero no se puede".

Al contrario de lo que muchos pensarán no estaba errado en mis suposiciones, resulta que toda teoría de la física clásica es simétrica con respecto al tiempo: actúa igual independientemente del avance del tiempo. Un motor eléctrico puede generar movimiento a partir de energía eléctrica, y a partir de este movimiento se puede generar la misma cantidad de energía eléctrica que requirió.

Mucho después supe por qué no se podía. Ya no recuerdo cuándo fue cuando lo comprendí. Tal vez sólo se recuerde la ilusión más no la desilusión. El problema radicaba en la entropia, el único elemento que destruye la aspiraciones simétricas de la teoría física.

Nuestro motor genera movimiento, pero la cantidad de energía que podemos recuperar a partir de ese movimiento será muchísimo menor a la que necesitamos para generar el movimiento, por que gran cantidad de energía se disipó en forma de calor que no podemos recuperar y reutilizar. Y eso es la evidencia de la entropia.

¿Qué es la entropia? La definición de la entropia ha sido un proceso tortuoso a lo largo de los años, ya que, si bien la idea puede parecer clara en un principio, cuando intentamos formalizarla en términos abstractos, la situación se complica terriblemente. Pudiéramos decir la entropia es el nivel de desorden en un sistema, pero ¿qué es el desorden? ¿cómo lo medimos? ¿el desorden no es término subjetivo en sí? Más formalmente podríamos decir que la entropia es la cantidad de información necesaria para especificar exactamente el estado del sistema. Mientras más "desordenado" está, más entropia tiene, más información requerimos para saber su estado. Y viceversa, mientras más "ordenado" está, menos entropia tiene y menos información es necesaria para describirlo.