Texto universitario

_____________________________

 

Módulo 0. Entropía, información e incertidumbre  

 


0.1. Introducción la incertidumbre


La entropía se introdujo originalmente para explicar la intensidad del calor, la presión y la densidad, concepto que se desarrollo gradualmente con el tiempo. Sobre la base del concepto de entropía, se desarrolló la Segunda Ley de la Termodinámica, que establece que es probable que la entropía de un sistema aislado aumente hasta que alcance su estado de equilibrio. Más recientemente, la implicación de la entropía se ha extendido más allá del campo de la termodinámica aplicándose en el abordaje de múltiples áreas de naturaleza probabilística. El concepto de entropía es aplicable y útil para caracterizar el comportamiento de los procesos estocásticos ya que representa la incertidumbre, la ambigüedad y el desorden de los procesos sin restringirse a las formas de las distribuciones de probabilidad teóricas. Para medir y cuantificar la entropía, se debe determinar la probabilidad existente de cada evento en el proceso estocástico. Se han estudiado y presentado diferentes medidas de entropía, incluida la entropía de Shannon, la entropía de Renyi, la entropía de Tsallis, la entropía de muestra, la entropía de permutación, la entropía aproximada y la entropía de transferencia. Intentamos examinar las formulaciones generales de la cuantificación de la incertidumbre, basada en la entropía, así como sus diversas implicaciones. Los resultados de los estudios existentes muestran que las medidas de entropía son predictores poderosos para procesos estocásticos con incertidumbres. 


La segunda ley de la termodinámica es fundamental para comprender la energía y la materia en la relación que las vincula, tenga presente que la materia es energía densamente estructurada. La estructura de la materia es un orden de organización de la energía. Y esta ley prevé una tendencia del universo a decaer en sus estructuras conforme viajamos por el tiempo hacia el futuro. Dado que esta ley incluye el concepto de entropía, información y energía, es necesario discutir lo que inició Sadi Carnot en 1824 en su estudio sobre las olas de calor[1]. Los objetos materiales sólidos, líquidos o gaseosos se forman de cantidades enormes de moléculas entre las que se dan interacciones de movimiento; computar el cálculo de trayectorias de todas ellas no es posible. Pero esta nube de entropía (desorden) a menudo exhibe regularidades estadísticas que tienen manifestaciones a nivel macro y esto es lo que permite calcular los eventos de un intenso vibrar de las moléculas. 


Nuestra biología intenta oponerse a esta manifestación de la segunda ley, por un lado tiende a evolucionar dentro de un espacio tiempo que la presiona al decaimiento de sus estructuras de organización de la energía en su materia. Más adelante regresaremos a la entropía en los seres vivos, por ahora consideraremos a la vida como una tendencia opuesta a la entropía, una que tiende a crear orden, autoorganización y evolución. 


En el estudio de la entropía de las moléculas lo que importa es el volumen, su temperatura y su presión. Maxwell y Boltzman estudiaron estas cualidades que dependen de las configuraciones cambiantes de grandes conjuntos de moléculas; lograron predicciones estadísticas asombrosas, desde luego en términos de probabilidades exactas[2]. El volumen es resultado de las estructuras de organización de las moléculas, las configuraciones de moléculas más pequeñas y densas tienen una entropía baja, caso contrario, configuraciones más grandes de moléculas y distribuidas uniformemente tienen entropía mayor.


La entropía en estas moléculas esta influenciada por la temperatura, que es la velocidad media de un conjunto de moléculas. Si algo se enfría, la velocidad media de las moléculas es baja y si se calienta es alta. A mayor temperatura, mayor entropía. Podemos considerar que las olas de temperatura no son más que un traslado de un lugar a otro de entropía[3].  


La presión es el impacto aditivo de cada molécula que ejerce un empuje, cuanto mayor sean las moléculas, más presión ejercen. La presión es dada por el número de moléculas para una temperatura y volumen dado. Si disminuyen las moléculas, se reduce la temperatura y se hace al volumen menor, la entropía es menor. Caso contrario, se incrementa la temperatura o un volumen mayor, será la entropía mayor. Al bajar la entropía considerablemente, se compromete calcular los macroestados a partir de los agentes moleculares. La influencia de fuerzas organizadoras son responsables del orden que observamos. Y en medio de esta discusión, Boltzmann distingue que diferenciar el pasado y el futuro es una cualidad del grado de estructuración o decaimiento del orden.


La segunda ley de la termodinámica está vinculada con el cambio en el tiempo a  formas de estructuras ordinarias o crecimiento de entropía. Mientras la primera ley se asocia con la conservación de la energía. La energía se transforma, pero se conserva, con las energías cinéticas, potencial (electromagnética o gravitacional) o térmica (movimiento aleatorio interno de la materia) cuando se realiza su contabilidad, su balance de estado siempre cuadra en ser constante. La segunda ley nos dice que el orden tiende a descender al desorden. Si un sistema físico está en su estado de mayor orden, es posible que decaiga evolucionando a uno de mayor entropía. 


Por otro lado, cuanto más fácil es manejar la energía, su calidad es más alta, su cantidad total de energía no cambia, pero su calidad se deteriora. La primera ley refiere que la cantidad de energía se conserva en el tiempo, y la segunda determina que su calidad se deteriora con el paso del tiempo. El futuro del universo, siempre será de menor calidad la energía que la que nos alimentó en el pasado. El pasado tiene menor entropía que el futuro. La segunda ley no prohíbe taxativamente reducir la entropía, esta ley expresa que la naturaleza tiene una mayor tendencia de probabilidad al desorden y es muy baja la probabilidad de reducir la entropía. La naturaleza permite que la entropía disminuya, aunque sea la probabilidad más baja. El futuro es extremadamente distinto al pasado por la alta probabilidad de incremento de la entropía. Las estructuras de organización de la materia son de una entropía muy inferior a la máxima. 


La vida y el universo ahora mismo están sorprendentemente debajo de su entropía máxima. Hay en ellos estructuras dentro de estructuras con un orden sorprendente de complejidad. Si el futuro fuese el esperado por la segunda ley de la termodinámica, solo encontraríamos un universo sin vida, en su estructura más ordinaria y dispersa en el espacio (quizás solo electrones, quarks y fotones) de máxima entropía. Una pregunta fascinante es cómo después del Big Bang (un instante de orden máximo) hemos llegado a este estado de entropía menor al máximo, es como si en el mismo instante de esta gran explosión apareciera un Big Bang matemático (el orden necesario que organiza la energía en estructuras que evolucionan hacia la materia altamente organizada). Justo antes del Big Bang se encontraba el orden máximo. Orden refiere a la existencia racional observable de estructuras numéricas, funcionales, geométricas, de probabilidad y sorprendentemente lógica en ellas. Baste con considerar que nuestra vida requiere orden en la organización de las moléculas y que nuestro ecosistema esté lleno de cosas ordenadas (de baja entropía).


El objetivo de la termodinámica es derivar relaciones matemáticas que conectan las diferentes propiedades experimentales de los sistemas macroscópicos en equilibrio, sistemas que contienen un gran número de moléculas, del orden de Imageno más. Por muy útiles que sean estas interconexiones en la termodinámica no nos dan ninguna información sobre la interpretación o explicación a nivel molecular de las propiedades experimentales observadas. Tal explicación se enmarca más bien dentro de la provincia de la mecánica estadística o termodinámica estadística, conceptos sinónimos. El objetivo es proporcionar la teoría molecular o la interpretación de las propiedades de equilibrio de los sistemas macroscópicos. Cada vez que se plantea la pregunta ¿por qué? En termodinámica, por ejemplo, ¿por qué una constante de equilibrio dada, se observa en la ley Henry, ecuaciones de estado…? si observamos se nos presenta un problema en la mecánica estadística. 


Aunque la termodinámica en sí misma no proporciona la imagen molecular de la naturaleza, esto no siempre es una desventaja. Por lo tanto, hay muchos sistemas complicados para los que una teoría molecular aún no es posible; pero independientemente de las complicaciones a nivel molecular, la termodinámica todavía se puede aplicar a estos sistemas estocásticos con confianza y exactitud. 


Entropía es un término importante por muchas razones, su función principal en la termodinámica es cuantificar la irreversibilidad de un proceso termodinámico, sobre objetos microscópicos compuestos de muchas partes del mismo tamaño que forman un sistema complejo que tiende al equilibrio de sus variables termodinámicas como presión, volumen, temperatura, número de masa atómica, energía interna y por supuesto entropía. Algunas de estas variables están relacionadas a través de ecuaciones de estado.


Un sistema termodinámico experimenta un proceso cuando las variables que lo describen cambian desde un conjunto de valores a otro distinto, es decir, cambian de estado termodinámico. Cuando se exhibe una energía igual o isoentrópico, es decir, constante, como ocurre en un sistema completamente aislado, se dice que es adiabático porque no intercambia energía. Las leyes de la termodinámica limitan las maneras en que un sistema puede proceder de un estado a otro. La primera ley termodinámica es la ley de conservación de la energía, aplicada a la energía interna de un sistema termodinámico. La energía interna no incluye la energía de la posición o movimiento del sistema como un todo. Según la primera ley, hay solo dos maneras de cambiar la energía interna de un sistema dado. La primera por calefacción o sistema de enfriamiento, y dos, trabajando en el sistema o arreglos para que el sistema trabaje en su entorno. Matemáticamente esta primera manera le corresponde la ecuación:


Imagen Ec. 1.1


Donde Imagen es el incremento de energía interna E de un sistema termodinámico, dado por transiciones de un estado inicial Imagen a otro final Imagen. La cantidad Q es la energía absorbida por el sistema cuando se calienta, y W es el trabajo realizado en el sistema durante la transición. Estas son cantidades asignadas así que cuando Q < 0, el sistema se enfría en vez de calentarse y cuando W > 0, se trabaja sobre el sistema. Cuando estos cambios son infinitesimales la expresión se hace:


Imagen Ec. 1.2

Aquí hay diferentes notaciones, Imagen versus Imagen, para destacar que mientras que E es una variable que describe el estado de un sistema, Q y W no lo son, dado que indican la cantidad de energía infinitesimal transferida hacia o desde un sistema. Así, ¿un sistema termodinámico contiene energía?, de hecho no, contiene calor o trabajo, como sugiere la Figura 1.1. 


Imagen

Fig. 1.1 La energía interna E de un sistema termodinámico puede cambiarse de dos maneras: 1) por calefacción y refrigeración, y 2) por trabajo. 


Todas las interacciones entre partículas fundamentales son reversibles. La interacción más simple es una colisión entre dos partículas fundamentales. Una partícula se aproxima a otra; interactúan mediante fuerzas gravitacionales, electromagnéticas o nucleares; entonces ellas se alejan unas de otras. Podríamos pensar la colisión como dos canicas dentro de un frasco de canicas de igual característica, donde una está inicialmente en reposo y la otra está en (p. ej. movimiento), decimos que las interacciones entre partículas fundamentales son en el tiempo reversibles.


No puede decirse lo mismo de los procesos de un sistema termodinámico compuesto, como es de muchas partes diferentes, son normalmente irreversibles. Sin embargo, hay un sentido especial en el que un proceso termodinámico significativo se puede invertir. Si se hace un pequeño cambio infinitesimal en el sistema o en su ambiente y luego se invierte la dirección del cambio del proceso, uno pensaría que el proceso es termodinámicamente reversible. Sadi Carnot (1796-1832) creó el concepto de reversibilidad termodinámico para expresar y demostrar lo que ahora se llama Teorema de Carnot: el motor térmico más eficiente es aquel que opera reversiblemente[4]. 


Un proceso termodinámico reversible debe ser cuasiestático, es decir, infinitesimal lento y sin fricción o disipación (fricción interna). Consideremos, por ejemplo, el pistón que comprime el fluido ilustrado en la Figura 1.2a. El pistón cuasiestático y fricción casi despreciable, comprime el fluido cuando la fuerza del pistón se ejerce sobre el fluido, Imagen, es una cantidad indefinidamente pequeña más grande que la fuerza PA a la que el fluido de presión P que se ejerce sobre la cabeza del pistón de área A. Cuando en cambio, la fuerza ejercida por el émbolo sobre el líquido es infinitamente menos que PA, es decir, Imagen, el fluido se expande cuasiestático. Así, estos son cambios termodinámicamente reversibles porque su dirección puede invertirse para un cambio infinitesimal en el sistema o en su ambiente. De manera similar, el calentamiento o enfriamiento de un sistema por parte de otro sistema, es reversible cuando se mantiene una diferencia de temperatura infinitesimal entre los dos como se muestra en la Figura 1.2b. Claramente, la reversibilidad termodinámica es un ideal que puede ser abordado, pero nunca en la realidad plenamente. Todos los procesos termodinámicos reales son irreversibles.


Imagen

Fig. 1.2 (a) Un pistón sin fricción reversible comprime un fluido. (b) Dos sistemas con una temperatura infinitesimal de diferencia de calor al enfriarse en contacto mutuo entre sí se vuelven reversibles. 


En síntesis, todos los procesos fundamentales o idealizados son reversibles porque uno puede imaginar invertir su dirección del cambio sin violar las leyes de la física. Por otro lado, todos los procesos termodinámicos no idealizados son irreversibles. Los procesos termodinámicos, en la práctica, proceden siempre en una dirección. 


¿Por qué no todos los procesos son reversibles? Se sugiere que las leyes que gobiernan las interacciones de partículas fundamentales no forman una imagen completa de la naturaleza y necesitan ser complementadas con la física adicional equivalente a la segunda ley de la termodinámica. 


Hay un número de versiones lógicamente equivalentes de la segunda ley. Rudolph Clausius (1822-1888) fue el primero en 1850, en identificar una versión de la segunda ley de la termodinámica[5]. Para este propósito Clausius elevó las observaciones sobre calefacción y refrigeración para el estado de una ley general: un objeto frío nunca calienta un objeto más caliente. Por ahora basta con entender por temperatura como un valor pico promedio en alguna escala de medición y que una fuente de energía será un reservorio de calor.


Un reservorio de calor mantiene la misma temperatura independientemente de cómo interactúan un refrigerante o una calefacción. Así un reservorio de calor tiene la capacidad infinita de calor como si estuviera indefinidamente creándolo. En el lenguaje del reservorio de calor, Clausius enunció la segunda ley.


En 1851, William Thomson, más tarde conocido como Lord Kelvin formuló una versión distinta de la segunda ley, se refiere a la operación de un motor térmico, es decir, un dispositivo que utiliza una diferencia de temperatura para producir trabajo[6]. Según la segunda ley de Kelvin: un motor de calor cuyo único resultado es causar un reservorio de calor, solo pierde energía Q a través de refrigeración y es imposible que realice la misma cantidad de trabajoImagen. 


Teniendo en cuenta la primera ley, la versión de Kelvin de la segunda ley es lógicamente equivalente a la de Clausius. Pero la de Kelvin parece la más indicada desde el punto de vista del lenguaje tecnológico. 


La segunda ley de la termodinámica puede ser también expresada en términos del lenguaje de procesos irreversibles. Hay que recordar que establecimos que un proceso real es irreversible, es decir, no se puede revertir completamente. Por lo tanto, otra forma de decir esto es que un determinado proceso es prohibido, es decir que el proceso es el resultado de la inversión de un proceso termodinámico irreversible.


Imagine un sistema termodinámico que puede existir en diversos Estados termodinámicos. Representamos cada uno de estos Estados por un punto en un espacio multidimensional de estados termodinámicos. Las variables que definen el espacio de estado, por supuesto, dependerán de la naturaleza del sistema. Por ejemplo, dos variables son las que determinan el estado de un fluido simple, el estado de un fluido cuyos puntos están definidos por la ubicación de los valores en dos ejes, uno etiquetado como energía E y otro como volumen V. Ahora, elegimos dos puntos cualquiera que representen dos Estados diferentes en nuestro espacio de estado termodinámico y un camino a través del espacio de estado que conecte a estos dos puntos. Cada punto en este camino necesariamente representa un estado termodinámico y la ruta de acceso completa, representa necesariamente un proceso cuasiestático que conecta los dos Estados extremos.  


Imagen

Fig. 1.3 Espacio termodinámico de estados, dos estados, denotados como Imagen y Imagen, y un camino conecta a los dos estados. 


Por supuesto que un cambio no cuasiestático, por ejemplo una turbulencia o explosiones de reacción rápida, pueden también transformar un sistema de estado termodinámico en otro. Pero procesos no cuasiestáticos no están compuestos de una secuencia continua de estados termodinámicos y no pueden ser representados por un camino en el espacio de estado termodinámico. Por lo tanto, un camino en el espacio de estado termodinámico representa necesariamente un proceso cuasiestático. Y los procesos cuasiestáticos vienen en dos tipos: procesos reversibles que se producen sin fricción o disipación, y los procesos reversibles que su proceder es con fricción y disipación. Recordar que un proceso totalmente reversible es también uno para el que un sistema y su ambiente puede con ajustes infinitesimales retornar, evolucionar a lo largo de un camino en el espacio de estado en cualquier dirección; y un proceso irreversible es aquel en el que un sistema y su ambiente requieren ajustes finitos para proceder a lo largo de un camino en cualquier dirección. Cada segmento de un trozo en el espacio de estado representa un proceso cuasiestático que, a su vez, representa ser reversible o un proceso irreversible. 


Si necesitamos una medida cuantitativa de la irreversibilidad del proceso cuasiestático, Clausius construye una variable de estado para un sistema aislado que monótonamente cambia a lo largo de un camino que representa un proceso irreversible y que sigue siendo el mismo a lo largo de un camino que representaría un proceso reversible. Por lo tanto, dos estados de un sistema aislado, conectados por un camino reversible tienen el mismo valor de esta variable de estado, y dos estados de un sistema aislado conectados por un camino irreversible tienen diferentes valores de la variable de estado. Y es Clausius quien acuña la palabra entropía para referirse a esta variable de estado como un significado paralelo a la palabra energía, esta palabra entropía fue denotada con el símbolo S. La palabra entropía significa literalmente “a su vez” o “entregar” desde su raíz griega Turn. Pero Clausius la interpretó como metáfora de transformación de contenido. 


La entropía de un solo Estado, es como la energía absoluta de un solo Estado. Si bien las leyes I y II de la termodinámica no refieren a energía en lo absoluto, si asignan significado a las diferencias de energía y entropía. La tercera ley de la termodinámica, en efecto no permite asignar un significado al concepto de entropía absoluta. Pero antes de adentrarnos en la tercera ley, es necesario estudiar cómo la diferencia entre dos estados de un sistema aislado cuantifica la irreversibilidad de un proceso de conexión de esos dos estados. 


La clave para cuantificar la irreversibilidad de la evolución de un sistema aislado, exige que el incremento de entropía Imagen de un sistema compuesto aditivo se distribuya sobre sus partes. Simbólicamente se expresa así:


Imagen Ec. 1.3

Donde Imagen es la entropía final del sistema j partes,Imagen es la entropía inicial del sistema j partes, Imagen y Imagenes la entropía incremental del sistema j partes. De esta manera, el incremento de un sistema compuesto Imagen es la suma de los incrementos de entropía de sus partes. 

Imagen


Ahora apliquemos estas ideas a un proceso en particular. Establezcamos un reservorio de calor que se calienta con la temperatura T al absorber energía Q. Si, por otra parte, el depósito de calor se enfría, entonces Q<0. Por lo tanto, si el depósito de calor incrementa su entropía puede ser una función solamente de dos cantidades: la temperatura T del reservorio y el calor Q donde el signo de Q indica la energía que es absorbida a través de calefacción o rechazada a través de refrigeración. El calor sustantivo es aquí la energía absorbida o rechazada por calefacción o refrigeración. La ecuación de relaciones de estado. 


Imagen Ec. 1.4


Tenga en cuenta que no nos hemos impuesto ninguna restricción especial en el proceso del sistema de este calentamiento o enfriamiento. En particular la calefacción o refrigeración se describe en la ecuación anterior la cual puede ser reversible o irreversible. 


La propiedad de adición restringe severamente la forma de la función. Por ejemplo, si dividimos un reservorio de calor de temperatura T que absorbe calor Q en dos partes idénticas, cada una conserva la temperatura T y cada una absorbe la mitad del calor Q/2. Puesto que el incremento de entropía del sistema compuesto es la suma de los incrementos de entropía de sus partes


Imagen

O equivale

Imagen

Si en lugar de incrementos de entropía de calor en dos piezas idénticas, lo dividimos en n:


Imagen  Ec. 1.5


Allí solo hay una solución no trivial: 


Imagen  Ec. 1.6


Donde g es una función de la temperatura T aún indeterminada. Podemos derivar Ec. 1.6 tomando la derivada parcial de Ec. 1.5 con respecto de n, y resolviendo la ecuación en derivadas parciales resultantes. Por consiguiente la entropía del depósito de calor con cambios de temperatura T es:


Imagen Ec. 1.7


Cuando el reservorio absorbe o rechaza energía Q, respectivamente, de refrigeración o calefacción de otro objeto. 


El problema de la generación de entropía de un sistema de dos reservorios. A continuación aplicamos estas ideas a un sistema compuesto por dos reservorios que experimentan el siguiente proceso irreversible: un depósito más caliente directamente transfiere energía Q a un reservorio más frío como lo ilustra la Figura 1.4. Puesto que el depósito absorbe la energía Q y el depósito más caliente rechaza energía Q, sus incrementos de entropía son, respectivamente:


Imagen

y

Imagen para Q>0


De acuerdo con estas expresiones y la propiedad aditiva, el incremento de entropía de este sistema compuesto de dos reservorios:

 Imagen  Ec. 1.8


Si los depósitos de calor de dos reservorios que forman un sistema aislado compuesto tienen la misma temperatura Imagen, entonces  Imagen. Y si sus temperaturas Imagen y Imagen  son diferentes, entonces el calor fluye irreversiblemente desde el depósito más caliente al más frío y  es diferente de ceroImagen . De esta manera el incremento de entropía Imagen cuantifica la irreversibilidad de un proceso termodinámico de un sistema aislado. En resumen, cuando el proceso es reversible Imagen y cuando es irreversible Imagen. 

Imagen

Fig. 1.4 Depósitos y transferencia de energía. 


Clausius adoptó la convención de que la entropía de un sistema aislado aumenta cuando el sistema evoluciona irreversiblemente en la dirección permitida por la segunda ley de la termodinámica. Así, según lo convenido por Clausius, Imagen en Imagen. Este convenio significa que Imagen y por lo tanto Imagen debe ser una función no negativa, decreciente de la temperatura T. 


Proceso reversible entre calefacción y refrigeración. Fácilmente podemos superar la restricción de Imagen de calor limitado por Q a una indefinida cantidad pequeña Imagen. La transferencia de una cantidad de calor Imagen, debe ser reversible, puesto que el sentido de la transferencia puede invertirse por un pequeño cambio en el sistema o su ambiente. En este caso Imagen reduce la expresión:


Imagen       Ec. 1.9


La ecuación anterior se aplica a cualquier sistema termodinámico con temperatura T que absorbe Imagen o rechaza una pequeña cantidad indefinida de energía Imagen mediante calefacción o refrigeración. Después de todo cualquier sistema finito actúa como un reservorio de calor en relación a una cantidad indefinidamente pequeña de calefacción o refrigeración. Una vez más observe la distinción en Ec. 1.9 entre diferencial de un ds variable de estado y el Imagen como incremento indefinidamente pequeño. 


La eficiencia de Carnot y el teorema de Carnot. Una consecuencia de la versión entrópica de la segunda ley, la entropía de un sistema aislado no puede disminuir. El teorema de Carnot: el motor térmico más eficiente es aquel que opera reversiblemente. Para ver esta observación, el motor de calor más simple de Carnot es uno que extrae energía Imagen por enfriamiento de un depósito más caliente, produce trabajo W, y rechaza el desperdicio Imagen calentando a un reservorio frío como se ilustra en Figura 1.5. Se puede, hacer parte de un sistema aislado de energía, digamos, usando el trabajo W para elevar un peso. La entropía del sistema aislado es: 


Imagen Ec. 1.10

 

donde Imagen y Imagen y W son relacionadas, según la primera ley, por:


Imagen  Ec. 1.11


Imagen

Fig. 1.5 El motor de calor más simple posible es el que produce trabajo operando entre un solo reservorio frío y otro caliente.


La eficiencia de este motor es, por definición, como beneficio del motor en el trabajo W que produce, dividido por el calor que consume Imagen, es decir: 

Imagen  Ec. 1.12

Donde, dada la Ec. 1.11 y 1.12 vemos que Imagen. Empleando Ec. 1.11 y 1.12 para eliminar Imagen y Imagen de la entropía incremental de Ec.10, produce: 


  Imagen  Ec. 1.13


Por lo tanto, cuanto mayor sea la eficiencia Imagen, más pequeño es el incremento de entropía Imagen. Puesto que no puede disminuir la entropía de un sistema aislado, que es Imagen, la mayor eficiencia posible Imagen tiene lugar cuando Imagen, es decir, cuando el motor opera reversiblemente. Esta eficiencia máxima del motor de calor entre dos reservorios de calor se presenta como:


 Imagen Ec. 1.14


La expresión anterior es conocida como la eficiencia de Carnot y la versión del motor de calor más simple posible, es dada cuando el intercambio de calor entre los dos reservorios es reversible en el llamado motor de Carnot.


La temperatura absoluta o termodinámica. Ni la entropía incremental Imagen,  ni la eficiencia de Carnot Imagen se cuantifican plenamente porque para ellas una función no negativa decreciente Imagen aún no está completamente especificada. William Thomson advirtió la falta de especificidad en 1848, veinticuatro años después de que Carnot probó el Teorema en 1824, y dos años antes que Rudolph Clausius había armonizado la primera y segunda ley de la termodinámica en 1850. 


Temperatura. Pero primero ¿qué es la temperatura? Un termómetro mide la temperatura, pero ¿qué es un termómetro? Un termómetro asocia el tamaño de una variable termométrica conveniente, con el volumen, resistencia, color o alguna otra variable termodinámica de un sistema, con un número único denominado según una escala de temperatura, por ejemplo, grados Fahrenheit o Celsius. Consideremos, por ejemplo, el termómetro de vidrio de mercurio ilustrado en la Figura 1.6. La longitud de la columna de mercurio en el tubo de vidrio de calibre pequeño es la variable termodinámica y la forma dispuesta de los números que están en el lado del tubo de vidrio definen la escala de la temperatura. 


Imagen


Fig. 1.6 Termómetro de mercurio con escala de temperatura arbitraria.


William Thomson trató de utilizar el motor de Carnot, es decir, un motor térmico reversible operando entre dos depósitos de calor, como un termómetro y su eficiencia Imagen como variable termométrica. Por supuesto, el motor de Carnot es una idealización que puede  ser abordada pero él nunca se dio cuenta. Después de todo, un motor térmico reversible funcionaría infinitesimalmente y sin fricción o disipación, de tal manera que el más mínimo cambio en el sistema o su ambiente fuera a revertir su funcionamiento. No importa que no se pueda construir un perfecto motor térmico reversible y sus reservorios de calor idealizados. Simplemente la mejor aproximación de construcción posible exigirá extrapolar los resultados. 


La idea es simple, aunque su ejecución es difícil. En primer lugar, asignar una temperatura Imagen a algunas prácticas y estándares universales de estado accesibles, un estándar. Tal estado de agregación es el punto triple del agua, es decir, el estado en que las tres fases del agua están en equilibrio. En segundo lugar, medir la eficiencia de un motor térmico reversible Imagen operando entre  dos depósitos de calor, uno en equilibrio con el estado estándar y otro en equilibrio  con el sistema cuya temperatura Imagen debe ser determinada. Tercero, si Imagen


Imagen Ec. 1.15a


y si  Imagen


  Imagen Ec. 1.15b


Las temperaturas Imagen asignadas de esta manera se llaman temperaturas absolutas o termodinámicas, mientras que temperaturas T determinadas por otras clases de termómetros se llaman temperaturas empíricas.  


Este algoritmo permite asignar la temperatura absoluta o termodinámica a cualquier sistema, en particular a los reservorios fríos y calientes entre ellos los que se operan como un motor térmico reversible (reservorio y depósito son empleados como términos iguales). En cuanto a las temperaturas termodinámicas asignadas según Ec. 1.15, la eficiencia de Carnot de un motor térmico reversible operado entre dos depósitos de calor dados por:


Imagen Ec. 1.16


donde Imagen y Imagen son absolutas o temperaturas termodinámicas.



Escalas absolutas de temperatura. La característica esencial de la temperatura absoluta  o termodinámica es que la relación entre cualquier par de temperaturas, es decir Imagen, Imageno Imagenes independiente de la escala que se utiliza para denominar las temperaturas individuales. Por ejemplo, en el SI o Sistema Internacional asigna a una temperatura estándar absoluta Imagen = 273.16K para el punto triple del agua. De esta manera hay, 100 grados Kelvin entre el punto normal de congelación del agua, 273.15 K , y el punto normal de ebullición del agua, 373.15 K. La unidad del IS de temperatura absoluta, es el grado Kelvin y su símbolo K, por supuesto, nombrado en honor a Lord Kelvin (William Thomson). Algunas ocasiones los ingenieros utilizan la escala de grados Rankine Imagen, que se simboliza Ra dada en el punto triple del agua. De esta manera el tamaño de grado Rankine es idéntico al tamaño de un grado Fahrenheit. 


En el sistema Internacional todas las otras clases de temperaturas se definen como funciones lineales de las temperaturas Kelvin. La traducción de un tipo de temperatura a otra es sencilla. Por ejemplo, para convertir 23 grados centígrados a Kelvin simplemente añadimos 273 a los 23 grados, es decir 296 K. Y convertir 68 grados Fahrenheit a Celsius, nosotros substraemos 32 a 68 y multiplicamos el resultado por 5/9 esto da como resultado 20 grados Celsius.


0.2 Construcción de la función de entropía


Observar la termodinámica de un sistema físico, es la vista de una caja negra. Al medir la entrada y la salida de una caja negra, sus características superficiales medidas con manómetros, termómetros… son determinadas. Las leyes de la termodinámica rigen las relaciones entre estas mediciones. La primera ley enuncia que la energía de la caja negra aislada nunca puede cambiar, mientras que la segunda ley establece que la entropía de una caja negra aislada nunca puede disminuir. De cuerdo con estas leyes y estas medidas la caja negra tiene una función de entropía S (E,V,…,) cuya dependencia reside en un pequeño conjunto de viables que encapsula todo lo que se puede conocer del sistema de la caja negra.


Pero no estamos satisfechos con las cajas negras, especialmente cuando funcionan muy bien. Queremos mirar dentro de una caja negra y ver qué hace que funcione. Sin embargo, cuando miramos por primera vez en la caja negra de un sistema termodinámico vemos aún más sistemas termodinámicos. Una casa es un sistema termodinámico, una habitación y cada cajón de la alacena también lo es. Pero los sistemas termodinámicos reales no pueden subdividirse indefinidamente. En algún momento los conceptos y métodos de la termodinámica dejan de aplicarse. Eventualmente, las subdivisiones de un sistema termodinámico dejan de ser pequeños subsistemas y en su lugar se convierten en grupos de átomos y moléculas. El físico austriaco Ludwig Boltzmann (1844-1906) pensó en términos de átomos y moléculas en un momento en que su realidad todavía podía ser cuestionada. La distinción entre átomos y moléculas no siempre fue importante para Boltzmann, pero insistió en su realidad. En particular, Boltzmann relacionó la entropía de un sistema termodinámico con las posibles disposiciones de sus átomos y reinterpretó la segunda ley de la termodinámica en términos de los números de sus posibles arreglos atómicos. Al hacerlo Boltzmann ayudó a crear el enfoque estadístico de la termodinámica, pero, estos logros le costaron mucho esfuerzo y en su época se resistieron fuertemente a sus ideas. 


Mientras que el concepto de átomo florecía como una partícula indivisible en el siglo V a.c. con los pensadores griegos Leucippus y Democritus, la primera evidencia empírica de su existencia llegó mucho más tarde, alrededor de 1800, como resultado de la interpretación de Joseph Proust (1854-1926) y la de John Dalton (1766-1844). Pero ni la interpretación de Proust y Dalton, así como las especulaciones de Boltzmann obligaron a creer en los átomos. 


Ernst Mach (1838-1916), un influyente colega contemporáneo de habla alemana y colega de Boltzmann, rechazó rotundamente la existencia de átomos. Según Mach y los que adoptaron su filosofía de la ciencia, los átomos añaden poco o nada a nuestra comprensión del mundo. El objetivo de la ciencia es correlacionar directamente las cantidades observables de la forma más precisa y económica posible. En este sentido, la termodinámica es la ciencia perfecta porque logra este objetivo sin demostrar estas entidades “invisibles al ojo humano”. Dado la precariedad de lo conocido (las evidencias o demostraciones) hasta ese momento Boltzmann encontró difícil contrarrestar las críticas de Mach. 


La posición de Boltzmann no fue apoyada por sus deficiencias como escritor. Aunque era un científico sobresaliente, los libros y documentos de Boltzmann no son concisos ni claros[7]. Más bien, sondean intuitivamente y en el proceso enmascaran suposiciones importantes. Así Boltzmann incito a la crítica a desestimar sus publicaciones. A la edad de 62 años, el 5 de septiembre de 1906, acosado por la ceguera y los periodos de depresión, Boltzmann se quitó la vida. Boltzmann no era consciente en ese momento de que su larga lucha por introducir átomos en la física había sido reivindicada. Para Albert Einstein (1879-1955) en 1905 había demostrado en un artículo sobre el movimiento Browniano que los movimientos aleatorios de partículas pequeñas pero visibles suspendidas en el agua eran una consecuencia directa de los movimientos aleatorios de átomos y moléculas invisibles aún más pequeñas.


Mientras que el camino de descubrimientos de Boltzmann lo llevó a través de su famoso teorema H, nuestro camino explota las ideas de aquellos que desde la muerte de Boltzmann han reflexionado sobre el significado de su obra. Cuando Boltzmann visualiza el interior de un sistema termodinámico vio no solo átomos y moléculas, sino también sus posibles arreglos. Pero ¿qué es un arreglo o como decimos ahora un microestado? Considere un sistema simple que contiene solo tres partículas. Podrían ser átomos de tres elementos diferentes o podrían ser partículas idénticas que de alguna manera son distinguibles. El sistema se divide en dos partes de volumen igual, los lados izquierdo y derecho, entre los cuales las partículas pueden moverse libremente. Aunque simple, este sistema es lo suficientemente complejo como para ilustrar la distinción entre un sistema, sus macroestados y sus microestados. 


Un microestado se identifica mediante una descripción detallada del nivel de partículas del sistema. Debido a que cada una de las tres partículas de este sistema puede realizar Imagen diferentes microestados. 


Un macroestado consta de un conjunto de microestados que se pueden describir con un conjunto relativamente pequeño de variables. En contextos más realistas un macroestado es un estado termodinámico o de equilibrio y las variables en términos de las que se describe son las variables termodinámicas E, V, M,…, Considere el macroestado del sistema de las tres partículas, y dos lados en los que el volumen del macroestado se distribuye dos partículas del lado derecho y la partícula restante está en el lado izquierdo. Este número de microestados también puede calcularse eligiendo dos partículas con el propósito de colocarlas en la mitad correcta, entre las tres disponibles. Podemos elegir la primera partícula de tres maneras y la segunda de dos maneras entre las partículas restantes para un total de 6 o 3!=3x2x1 maneras. Dado que el orden en el que las dos partículas se colocan en el lado derecho es irrelevante para el propósito de contar microestados, dividimos 6 por el número de formas de ordenar dos partículas, es decir, por 2 o 2!=2x1. De esta manera encontramos el número de microestados en el que dos de tres partículas ocupan la cámara a la derecha para ser 3 o 3!/(2!1!).


Este sencillo ejemplo se puede generalizar de varias maneras. Si el sistema contiene N partículas en lugar de 3, y todavía tiene dos lados diferentes que pueden ser ocupados por cada partícula, el coeficiente binomial Imagen, es decir, “N elegir n”, identifica el número de formas que es posible distribuir N elementos distintos entre los dos lados, uno con n partículas y el otro con N-n partículas. 


Al describir estos microestados y macroestados hemos distinguido cada partícula de todas las demás. Las partículas clásicas siempre se pueden distinguir entre sí. Esto no se debe a que las partículas clásicas necesariamente tienen características distintivas, sino más bien porque sus diferentes trayectorias a través del espacio y el tiempo siguen siendo distintas. 


Hubiera sido natural que Maxwell, Boltzmann y otros físicos del siglo XIX, asumieran que el mundo invisible y submicroscópico de átomos y moléculas es simplemente inexistente reduciéndose a la una versión visible y macroscópico. De hecho, Boltzmann argumentó que las partículas, átomos y moléculas definitivamente siempre se distinguen unas de otras. Adoptamos esta suposición de partículas idénticas, cuando llenamos un contenedor con gas helio, podemos, al menos de acuerdo con los principios de la física clásica, seguir sus trayectorias con precisión indefinida. 


Según el postulado fundamental de la mecánica estadística, los microestados de un sistema termodinámico asilado son igualmente probables. Dado que el sistema simple de tres partículas y dos lados tienen 8 microestados consistentes con su descripción y cada uno, según el postulado fundamental, es igualmente probable, la probabilidad de que este sistema se disponga de cualquiera de estos 8 microestados sea 1/8. Además, debido a que el macroestado con exactamente dos partículas en su estado derecho se realiza en 3 de 8 microestados igualmente probables, la probabilidad de este macroestado es 3/8.


La probabilidad igual supuesta de los microestados de un sistema aislado es el material del que componemos la probabilidad de un macroestado. Según el postulado fundamental, la probabilidad de un macroestado es proporcional al número de microestados contenidos en un macroestado. Boltzmann llamó al número de microestados que componen un macroestado su permutabilidad. Nosotros usamos la palabra multiplicidad y la denotamos con el símbolo Imagen. 


El postulado fundamental no se aplica a todos los sistemas aislados, sino solo a aquellos cuyos microestados se definen de tal manera que su misma probabilidad es plausible. Adoptamos este postulado fundamental como una forma de cuantificar nuestro conocimiento parcial del estado de dicho sistema, para evitar sesgar las asignaciones probabilidad cuando no tenemos ninguna razón para preferir un micro estado sobre otro. Aun así, el postulado fundamental no se deriva de principios aún más fundamentales y no puede ser probado directamente. En cambio, se adopta el postulado de microestados equiparables como una hipótesis plausible de la que se obtienen consecuencias que pueden ser probadas. 


Llamamos a un sistema al que el postulado fundamental aplica, un sistema termodinámico. En general, los sistemas termodinámicos son sistemas de equilibrio o estado estacionario en el sentido de que se pueden describir en términos de variables termodinámicas que no cambian con el tiempo mientras el entorno del sistema no cambie en el tiempo. Los sistemas termodinámicos siempre se pueden describir con algunas variables y sus macroestados siempre se pueden caracterizar por su multiplicidad. El postulado fundamental implica que un sistema termodinámico asilado se mueve probabilísticamente y sin sesgo entre todos sus posibles microestados. Pero si es así, un sistema también puede moverse entre conjuntos de microestados que corresponden a macroestados inusuales, por ejemplo, el aire corriendo a una esquina de una habitación o a una taza de té caliente convirtiéndose en una aún más caliente en una tarde fría. Nunca observamos evoluciones macroestados tan contra-intuitivas, no porque sean imposibles, sino más bien porque son extremadamente improbables. Las multiplicidades de estos macroestados contra-intuitivos no observados son abrumadoramente pequeños en comparación con las multiplicidades de los macroestados que se observan invariablemente. 


Puede ser sorprendente que no se nos dé una versión estadística de la entropía ya hecha, sino que se construya a partir de propiedades deseables y las leyes de la termodinámica. Para comenzar su construcción consideremos los procesos irreversibles en la entropía como en la siguiente figura:


Imagen


Figura 1.7 Procesos irreversibles de la entropía


En la primera secuencia, las partículas de un gas se limitan a la mitad de un espacio dividido por un barrera, se elimina la barrera y las partículas de gas llenan el espacio disponible. En el segundo, dos cuerpos idénticos con diferentes temperaturas, TH y TC<TH, están separadas por una barrera adiabática, la barrera se elimina y los dos cuerpos se acercan al equilibrio térmico. 


En cada una de estas transiciones irreversibles la entropía de un macroestado de un sistema aislado aumenta de un valor inicial Si a un valor final Sf>Si de acuerdo con la segunda ley de la termodinámica. Al mismo tiempo, el número de microestados accesibles para el sistema aislado aumenta de un valor inicial Imagen a un valor final Imagen. Esta correlación entre la evolución de la entropía S de un sistema aislado y la evolución de su multiplicidad Imagen sugiere que la entropía estadística de un macroestado es una función monotónica Imagen cada vez mayor de la multiplicidad macroestado. Suponiendo que tal función existe es el primer paso en la construcción de una definición de entropía estadística. 


Boltzmann, en su histórico artículo de 1877, sugirió que la función está adecuadamente expresada por la proporcionalidad Imagen. Más tarde, Max Planck (1858-1947) a partir de una hipótesis razonable, deriva que la relación Imagen, k es una constante universal. Aquí seguimos y al mismo tiempo generalizamos la construcción de Planck. Si bien nuestra derivación es larga, emergemos con un resultado solo un poco más complejo que el de Planck, la entropía de un sistema aislado en un macroestado es Imagen, k es una constante universal y c es una constante que asegura que la entropía es una variable de estado aditiva. 


La aditividad es la segunda propiedad que incorporamos a nuestra definición de entropía estadística. En consecuencia, la entropía S  de un sistema compuesto por dos partes:



Imagen

Figura 1.8 Ejemplos de entropía en un sistema compuesto por dos partes


En el que cada parte en sí misma un sistema aislado, denotado como A y B, es aditivo en el sentido de que la entropía del sistema compuesto es la suma de la entropía de sus partes. Así:


Imagen


Donde Imagen es la entropía compuesta del sistema. La adopción de la aditividad asegura que la entropía estadística así construida será consistente con el requisito sobre la aditividad de los incrementos de la entropía termodinámica. La notación Imagen permite asumir, en general, pueden ser muy diferente entre sí como en, por ejemplo, un sistema compuesto por una botella de gas helio en una esquina de un laboratorio y un cristal de sal en otra. 


Dado que la entropía estadística es una función de multiplicidad del macroestado Imagen, la aditividad implica que:


Imagen

Donde Imagenes la multiplicidad de un macroestado de un subsistema A, respectivamente Imagen es la multiplicidad de un macroestado de un subsistema B, y Imagen es la multiplicidad de un macroestado del sistema compuesto A+B. Cuando dos subsistemas son simplemente copias más pequeñas del sistema compuesto, las funciones Imagen y Imagen y las multiplicidades Imagen y Imagen deben estar igualmente estructuradas y la aditividad se reduce a la extensividad. 


Independencia 


En tercer lugar, suponemos que los subsistemas asilados A y B, dan cuenta independientemente de sus macroestados. Por lo tanto, la multiplicidad del sistema compuesto es dada por:


Imagen


Y la condición Imagen se transforma en: 


Imagen


En realidad, el aislamiento mismo de los dos subsistemas implica la independencia de sus macroestados. Este resultado Imagen incorpora las tres condiciones siguientes: la independencia de la entropía en la multiplicidad de macroestado, la aditividad y la independencia de subsistemas aislados. 


Exploración de derivadas 


Ahora tomamos derivadas de la expresión Imagen con respecto a las multiplicidades macroestado Imagen y Imagen, una táctica que reduce una condición más fuerte (aditividad de entropías) a una más débil (aditividad de incrementos de entropías). Si queremos restaurar todo el contenido de la aditividad, debemos volver a imponer el resultado de nuestras derivadas. Las dos derivadas parciales son:


Imagen

y

Imagen


Donde un primer símbolo ‘ indica una derivada con respecto al argumento indicado. Por ejemplo, Imagen. Igualamos las expresiones anteriores:


Imagen


Puesto que las variables Imagen y Imagenrealizan sus valores de forma independiente, esta ecuación implica que:


Imagen

y

Imagen

Donde, formalmente, k es una constante de separación. La integración de estados da forma a las expresiones:


Imagen


Donde Imagen y Imagen son constantes de integración.


El significado de constante 


Nos detenemos para considerar la naturaleza de las tres constantes k, Imagen y Imagen, generadas por la resolución de las ecuaciones diferenciales acopladas: 


Imagen

y

Imagen


La palabra constante siempre debe incitarnos a preguntar: ¿Constante con respecto de qué? En este caso, a las variables en cuanto a las cuales las derivadas que se definen, es decir, constantes con respecto a las multiplicidades macroestados Imagen y Imagen. 


La constante k está restringida adicionalmente. Puesto que k está asociada con los subsistemas A y B (en realidad, a cualquier número de subsistemas), k es independiente de los parámetros que identifican cualquier macroestado particular de cualquier sistema o subsistema en particular. En síntesis, k es una constante universal. Max Planck fue el primero en enfatizar la universalidad de k. En su honor H. A. Lorentz (1853-1928), por un tiempo, calificó la constante k de Planck. Sin embargo, frase constante de Planck es meritoria de otros dominios, y nos referimos a k como constante de Boltzmann. Encontramos que Imagen, donde R es engañosamente llamada “constante de los gas” y Imagen es el número de Avogadro. En el Sistema internacional SI, el valor de la constante de Boltzmann es dada por: 

Imagen


Por lo que, las unidades de k constante de Boltzmann son la energía sobre la temperatura termodinámica, es decir, k tiene las unidades de entropía. 


La entropía estadística de un sistema asilado. Si combinamos nuestra ecuación:


Imagen


Aplica a un sistema compuesto por subsistemas A y B. Aditividad e independencia, o equivalencia, luego requieren que las tres constantes Imagen, Imagen y Imagen, estén relacionadas por:

Imagen


Por lo tanto, cuando aplicamos el resultado general:


Imagen


A un sistema compuesto y a cada una de sus dos partes asiladas, siempre debemos estar  dispuestos a adoptar Imagen con el fin de restaurar el contenido completo de la aditividad a nuestra definición de entropía estadística.


Podemos expresar el resultado general Imagenen una forma reveladora escribiendo dos diferentes macroestados del mismo sistema, un estado inicial denotado por i y uno final denotado por f, y restando las dos ecuaciones entre sí. De esta manera encontraremos que:


Imagen

Combinando:


Imagen


Este resultado especialmente útil para describir el incremento de entropía de un sistema aislado sometido a un cambio irreversible. 


En particular Imagen nos permite reiterar la segunda ley de la termodinámica en el lenguaje de multiplicidad. Debido a que un sistema aislado puede relajarse pero nunca puede imponer una restricción interna, la multiplicidad del macroestado final de un sistema aislado es al menos tan grande como la multiplicidad de su macroestado inicial. Algunos textos caracterizan la transición irreversible de un sistema internamente restringido a uno menos restringido como uno de un macroestado relativamente ordenado a uno que está menos ordenado. En realidad Boltzmann nunca usó las palabras orden y desorden en su artículo de 1877. Y, cuando aplicadas a las entropías relativas de una sistema, el orden y el desorden de los opuestos a veces confunden.


Alternativamente, podemos reemplazar el macroestado inicial Imagen con un macroestado de referencia especial Imagen y la multiplicidad final Imagen con una multiplicidad macroestado arbitraria Imagen:


Imagen


Al combinar cuidadosamente las ecuaciones anteriores, descubrimos exactamente que ideas están contenidas en estas expresiones para la entropía estadística y qué ideas no lo son. En particular: la entropía estadística de un sistema asilado es una función de la multiplicidad macroestado, es una función aditiva del estado y refleja la independencia de las partes aisladas.


Recuerde, sin embargo, una verdad termodinámica básica: todo lo conocido sobre el comportamiento termodinámico de un sistema, incluye cómo su entropía depende de sus extensas variables. Esto es así incluso cuando no se observan los supuestos especiales utilizados para determinar cómo la entropía estadística depende de la multiplicidad macroestado. 


Por ejemplo, en las aplicaciones de un sistema de fluidos cerrados, de N-partículas, con variables extensivas: E-energía, V-volumen y número de N partículas. Sin embargo, dado que se conserva el número de partículas N en un sistema cerrado, sus macroestados son una función solo de E y V. En este caso, Imagen, y el resultado general se puede expresar como:


Imagen


Por lo tanto, una vez que determinamos la función de multiplicidad Imagen y, al requerir aditividad, la “constante” c(N), conocemos la función de entropía. Y una vez que conocemos la función de entropía Imagen, a través de su derivadas, se conoce  el sistema de ecuaciones de estado. Además, estas ecuaciones de estado se aplican en todas las situaciones, no solo cuando el sistema está cerrado y aislado. Describen, por ejemplo, cómo cambia el sistema cuando se calienta o se enfría, al realizar trabajo. En resumen, la presunción de un sistema asilado nos permite determinar la función de entropía y una vez que conocemos esta función ya no necesitamos mantener esta presunción. 


0.3 Cálculo de entropías 


Un proceso estocástico se puede definir simplemente como una colección de variables aleatorias indexadas por tiempo. Los casos de tiempo continuo y discreto se pueden separar para definir procesos estocásticos con mayor precisión. Un proceso estocástico de tiempo discreto Imagen es una colección contable de variables aleatorias indexadas por números enteros no negativos, mientras que un proceso estocástico de tiempo continuo Imagen es una colección incontable de variables aleatorias indexadas por números reales no negativos[8].


Las aplicaciones del mundo real de la mayoría de los temas científicos, incluidos los procesos estocásticos, están plagadas de numerosas incertidumbres. Por tanto, muchos creen que los procesos estocásticos, que consisten en incertidumbres complicadas, no son predecibles[9]. Las aplicaciones de los conceptos de física y termodinámica para explicar fenómenos científicos se han estudiado con éxito en las últimas dos décadas. El concepto de entropía, que se deriva de la termodinámica, ha avanzado en nuestra comprensión del mundo[10]. La entropía es uno de los conceptos de la física que puede ser útil para rechazar la hipótesis nula de imprevisibilidad de los procesos estocásticos[11]. En este sentido, se han presentado varias métricas que incluyen la entropía de Shannon, la entropía de Renyi, la entropía de Tsallis, la entropía aproximada, la entropía de muestra, la entropía de transferencia y la entropía de permutación. El concepto de entropía es aplicable y útil para caracterizar el comportamiento de los procesos estocásticos, ya que representa la incertidumbre, la ambigüedad y el desorden del proceso sin causar ninguna restricción en la distribución de probabilidad teórica. Para cuantificar la entropía, se necesita una distribución de probabilidad asociada.


Los modelos heterocedásticos condicionales como los modelos de heterocedasticidad condicional autorregresiva generalizada (GARCH) se han estudiado tradicionalmente para medir las variabilidades en los procesos estocásticos debido a las incertidumbres inherentes. En este contexto, en primer lugar, presentamos el modelo tradicional, así como sus supuestos y limitaciones. A continuación, revisamos la literatura sobre la relación entre las medidas de entropía y la incertidumbre inherente a los procesos estocásticos. Esta área de estudio se caracteriza por numerosos estudios que reflejan diferentes medidas de entropía, incertidumbres, metodologías y aplicaciones. Discutimos trabajos académicos sobre el tema y sacamos conclusiones generales de estudios anteriores. Intentamos proporcionar un enfoque convincente del tema, identificar los hallazgos clave de la literatura y presentar las observaciones finales, así como las direcciones de investigación futuras. 


0.3.1 Modelos heterocedásticos condicionales


Antes de que se introdujera la idea de utilizar medidas de entropía para el modelado y la cuantificación de la incertidumbre, tradicionalmente se estudiaban los clustering de volatilidad y memoria larga[12] para el modelado predictivo y la cuantificación de la incertidumbre basados ??en modelos heterocedásticos condicionales. Los modelos heterocedásticos condicionales son modelos estadísticos, que generalmente se utilizan para modelar series de tiempo. Estos modelos explican la varianza del término de error actual, conocido como innovación, en función de los términos de error de los períodos anteriores[13]. Ejemplos de modelos heterocedásticos condicionales son el modelo de heterocedasticidad condicional autorregresiva (ARCH), el modelo ARCH generalizado (GARCH), GARCH en -Modelo de media (GARCH-M) y modelo de GARCH exponencial (EGARCH). Los modelos heterocedásticos condicionales se utilizan principalmente para modelar el comportamiento estocástico de una serie de tiempo, que es un caso especial de proceso estocástico con datos de tiempo discretos. Los modelos heterocedásticos condicionales para las variaciones se basan en los promedios autorregresivos (AR) y móviles (MA).


La forma general del modelo de varianza GARCH, GARCH (p,q) se puede escribir de la siguiente manera:


Imagen

donde Imagen son parámetros del modelo con los siguientes supuestos:

Imagen

Cabe señalar que los valores grandes de Imagenresultan en un gran valor de varianza en el momento t, que indican que Yt es menos predecible que el caso con valores más pequeños de Imagen . En otras palabras, valores grandes de Imagenindican que Yt tiene más volatilidad.


En el modelo GARCH-M[14], la varianza condicional ht, de la variable aleatoriaImagen, dada la variable aleatoria Yt, es una función lineal de las variaciones condicionales de los períodos anteriores y el cuadrado de los errores de los períodos pasados:



Imagen

Además, los términos de error, Imagen, se distribuyen según una distribución normal de la siguiente manera:


Imagen


donde Xt es el valor de riesgo, Yt es un vector predeterminado de variables, Imagen es un conjunto de información que explica la variabilidad en el proceso estocástico Xt  y Imagenindica que la información actual es significativa con respecto a pronosticar la variable aleatoria futura Xt . Cabe señalar que si la información llega en conglomerados, la variable aleatoria Xt  también puede presentar agrupamiento.


En el modelo EGARCH[15], el logaritmo de la varianza condicional sigue un AR como se muestra a continuación:


Imagen



donde Imagen son parámetros. Se observa que Imagen no son necesariamente no negativos. Como se muestra en las ecuaciones (6) - (10), las varianzas dependen tanto del signo como del tamaño de los residuos rezagados.


En resumen, los modelos de la familia GARCH se pueden utilizar para modelar los procesos estocásticos con incertidumbres endógenas y exógenas complicadas, como las series de tiempo. Para construir el modelo GARCH apropiado que se ajuste al conjunto de datos, los parámetros GARCH deben estimarse con base en los datos históricos. Se observa que los parámetros de orden del modelo p y q se pueden especificar de acuerdo con las autocorrelaciones de los residuos estandarizados. El exponente de Hurst es otra métrica que se puede utilizar para medir la memoria a largo plazo de series de tiempo. El exponente de Hurst se puede estimar ajustando la ley de potencia al conjunto de datos en forma de serie temporal. Representa las autocorrelaciones[16] de la serie temporal y cómo las autocorrelaciones disminuyen a medida que aumenta el número de rezagos. La autocorrelación entre las observaciones desafía la imprevisibilidad de los procesos estocásticos, ya que los datos futuros se pueden pronosticar con base a los datos anteriores. Sin embargo, el parámetro de Hurst, de forma aislada, no es suficiente para concluir la presencia de memoria a largo plazo.  La direccionalidad entre los diferentes puntos de datos no se refleja en la correlación cruzada[17]. Otro enfoque para estudiar los fenómenos de acumulación de memoria larga y volatilidad es mediante el uso de medidas basadas en el concepto de entropía, incluida la entropía de Shannon, entropía Renyi , entropía de Tsallis, entropía de transferencia y entropía de muestra.


0.3.2 Medidas de entropía para la cuantificación de la incertidumbre


0.3.2.1 Entropía de Shannon


La entropía fue discutida por primera vez por Clausius en 1865 para explorar la inclinación de la intensidad del calor, la presión y la densidad a desaparecer gradualmente con el tiempo. Con base en este concepto, Clausius estableció la Segunda Ley de la Termodinámica, afirmando que es probable que la entropía de un sistema aislado aumente hasta que alcance su estado de equilibrio. Schwill[18] y Shannon[19] ampliaron el concepto de entropía y afirmaron que la entropía no se limita a la termodinámica y puede aplicarse en cualquier sujeto con naturaleza probabilística[20]. El concepto físico de entropía es en realidad un caso especial de la entropía de Shannon, ya que cuantifica probabilidades en el espacio de estado completo.


Schwill afirmó que la entropía es una medida de incertidumbre en variables aleatorias. Para una variable aleatoria X sobre un espacio de probabilidad Imagen y distribución de probabilidad Imagen, la entropía de Shannon se define de la siguiente manera:



Imagen


donde Imagen y Imagen son medidas de entropía para variables aleatorias continuas y discretas, respectivamente. Además, las ecuaciones (11) y (12) se pueden explicar de la siguiente manera:


Imagen

Como se muestra en la ecuación (13), el valor esperado de Imagen es equivalente a la entropía de Shannon. Cabe señalar que las unidades de medida originales para la entropía son bits, que son unidades de información necesarias para almacenar un símbolo en un mensaje. La entropía también se puede utilizar como una forma de medir la incertidumbre de los procesos aleatorios. El estado con Imagen puede ser justificado por: Imagen. También se observa que, como mostraron Kullback y Leibler[21], la definición de entropía de Shannon carece de una medida invariante y en el caso absolutamente continuo depende de las parametrizaciones. El concepto de entropía de Shannon se ha aplicado a diferentes dominios, incluidos los sistemas de potencia, física, finanzas, biología, fisiología, y series cronológicas cardiovasculares[22].


La predictibilidad de la serie temporal utilizando una nueva medida de dependencia[23], que funciona de manera similar a la entropía de Shannon de la siguiente manera:

Imagen

donde Imagen es la densidad conjunta y Imagen y Imagen son las densidades marginales de las variables aleatorias X y Y.


Las propiedades interesantes de esta medida de dependencia son las siguientes:


1) Es aplicable tanto en casos discretos como continuos.


2) Se encuentra dentro del rango de 0 a la unidad. Se normaliza a 0 en el caso de la independencia y el módulo de la medida es 1 en el caso de la relación exacta medible entre las variables aleatorias.


3) En el caso de una distribución normal bivariada, esta medida de dependencia tiene una relación simple con el coeficiente de correlación.


4) Mide no solo la distancia sino también la divergencia.


Además, comparan sus resultados numéricos con los de un conjunto de medidas tradicionales. Muestran que su medida de entropía es capaz de descubrir una dependencia no lineal en la serie de tiempo[24]. Hasta donde sabemos, el trabajo de Maasoumi y Racine ya citado, es uno de los primeros estudios relacionados con las medidas de entropía, la incertidumbre y la predictibilidad de las series de tiempo.


0.3.2.2 Entropías de Renyi y Tsallis


La entropía de Shannon funciona bien solo si la capacidad de almacenamiento de un canal de transmisión es finita. Renyi presenta una nueva medida de entropía conocida como entropía de Renyi de orden Imagen para variables discretas[25], que se define de la siguiente manera:

Imagen


donde Imagen y Imagen. Se observa que en el caso de límite Imagen, la entropía de Renyi y la entropía de Shannon son idénticas.


Entropía de Tsallis para cualquier número real no negativo Imagen, se puede estimar como se muestra en la siguiente fórmula:


Imagen

La entropía de Tsallis produce una distribución de ley de potencias, mientras que la entropía de Shannon produce una distribución de equilibrio exponencial. Se observa que Imagen y Imagenen las ecuaciones (15) y (16) son las distribuciones de probabilidad de una variable aleatoria dada X. Renner y Wolf introdujeron una nueva medida de entropía llamada entropía suave de Renyi para caracterizar las propiedades fundamentales de una variable aleatoria[26], como la aleatoriedad uniforme que se puede extraer de la variable aleatoria. Sea Imagen ser el conjunto de distribuciones de probabilidad que están ε-cerca de P, la entropía ε-suave de Renyi de orden ? se puede definir como:

Imagen

donde Pes la distribución de probabilidad con rango Z, Imagen es la distancia variacional, ?∈[0, ∞], y ?≥0.


0.3.2.3 Entropía muestral


La entropía muestral es útil para cuantificar el grado de fluctuación de una serie de tiempo[27]. La entropía muestral SampEn Imagen puede definirse como el logaritmo natural negativo de una estimación de la probabilidad condicional en la que las ventanas de longitud m (subserie de la serie temporal de longitud Nc) siguen siendo similares dentro de una tolerancia r también coinciden en el siguiente punto.


El proceso de medición de la entropía de la muestra se puede resumir de la siguiente manera.


Para una secuencia de datos Imagen, donde N es el número total de puntos de datos para calcular SampEn Imagen, una longitud de ejecución m y una ventana de tolerancia  r  debe especificarse para calcular SampEn Imagen.


Paso 1

Forma m-vectores, ?(1)  a ?(?? + 1) definido por:


Imagen

Paso 2

Defina la distancia Imagen entre vectores Imagen y Imagen como la máxima diferencia absoluta entre sus respectivos componentes escalares:


Imagen


La matriz de relaciones se muestra en:


Imagen

Figura 1. Matriz de relaciones utilizada para definir la distancia Imagen


Paso 3

Definir para cada ?.

Imagen


similar


Imagen


Donde ?=1 ??+1


Paso 4

La entropía de muestra para una longitud de datos finita de N se puede estimar como:


Imagen

0.3.2.4 Información mutua y entropía de transferencia


Las medidas de entropía, incluidas las medidas discutidas en la sección anterior, son útiles para explicar la variabilidad en series de tiempo univariadas[28]. El concepto de entropía se extiende a la entropía de transferencia[29] e información mutua. El concepto de entropía de transferencia es aplicable para descubrir los flujos de información entre los sistemas, análisis bivariado de series de tiempo bajo incertidumbres como series de tiempo financieras[30], y análisis multivariado de series de tiempo en diversas disciplinas como fisiología[31], neurociencia[32], ecología, bionómica y neurología[33].


La información mutua y la entropía de transferencia miden el flujo de información entre dos series de tiempo y determinan si la variabilidad en una variable aleatoria es útil para explicar la variabilidad en una segunda variable, mientras que la entropía de Shannon se utiliza para cuantificar la variabilidad en una variable aleatoria individual. La información mutua y la entropía de transferencia se pueden determinar en función de las distribuciones de probabilidad condicional entre las dos variables aleatorias.


La entropía conjunta Imageny entropía condicional Imagen  de dos variables X y Y con espacio de probabilidad ? y ? se definen como:

Imagen


Además, la relación entre las entropías condicionales y unidas es la siguiente:


Imagen

Información mutua de dos variables aleatorias X y Y,Imagen, y su forma general[34], Entropía de transferencia, determinan la dependencia entre dos series de tiempo[35]. La información mutua cuantifica la reducción de la incertidumbre con respecto a X  observando Y como se muestra en la siguiente fórmula[36]:



Imagen

La Figura 2 demuestra la relación entre (1) diferentes medidas de entropía, así como la entropía conjunta entre las dos variables aleatorias X y Y, (2) la entropía de X condicionado en Y, (3) la entropía de Y condicionado en X, y (4) información mutua entre las variables aleatorias X y Y.


Imagen

Figura 2. Las entropías Imagen y Imagen, la entropía conjunta Imagen, las entropías condicionales Imageny Imagen, y la información mutua Imagen.


La información mutua es simétrica y, por lo tanto, no se puede utilizar para determinar la dirección de un flujo de información[37].


Imagen

La información mutua se puede modificar para incluir relaciones adelanto-retraso[38] de la siguiente manera


Imagen

donde Imagen es el número de retrasos. La información mutua entre las variables aleatorias  X y Y sin rezago y la información mutua entre la variable aleatoria X y la versión rezagada de la variable aleatoria Y con Imagen se muestran en la Figura 3.



Imagen

Figura 3. La información mutua ? (??, ??) y ? (??, ?? − 1).


Medir las interacciones entre las series de tiempo es fundamental en la mayoría de las disciplinas. La correlación y la correlación cruzada se pueden utilizar para detectar la dependencia lineal entre series de tiempo. Sin embargo, estas medidas no son apropiadas para modelar la dependencia entre las series de tiempo debido a las siguientes dos razones: el tiempo no está igualmente espaciado y existe un mecanismo no lineal en la serie de tiempo. Por tanto, la entropía de transferencia, que se comporta de acuerdo con las probabilidades de transición, se puede utilizar para cuantificar la dependencia entre las series de tiempo[39]. Sea Imagen la probabilidad de observar la secuencia Imagen. La entropía de transferencia[40], que es una forma general de entropía mutua, se puede determinar como:


Imagen

donde Imagen y Imagen son los estados discretos de X y Y en el tiempo t, y los parámetros m y l son el número de observaciones pasadas incluidas en X y Y. La Figura 4 ilustra un análisis bivariado entre las dos variables aleatorias X y Y, y la entropía de transferencia Imagen(1,1).


Imagen

Figura 4. La entropía de transferencia ?? ? (1,1).


La principal diferencia entre la entropía de transferencia y la información mutua es que la entropía de transferencia tiene en cuenta las probabilidades de transición. La entropía de transferencia se puede definir como la diferencia en la obtención de información con respecto a Imagen condicionada tanto a su propia historia como a la historia de Imagen, y el caso en el que está condicionada únicamente a su propia historia. Se observa que la entropía de transferencia no es simétrica. Además, para un proceso de Markov estacionario, solo se requiere el historial más reciente, Imagen, para pronosticar Imagen.


Marschinski y Kantz[41] examinaron los conceptos físicos bien conocidos como los sistemas Spin[42], Turbulencia[43], Universalidad[44],  Criticidad autoorganizada[45],  Complejidad[46], y entropía y concluyeron que entre estos conceptos físicos la entropía puede ser útil para capturar las incertidumbres inherentes a los procesos estocásticos. Definen la entropía de transferencia de la siguiente manera


Transferencia entropía(TE)= {información acerca del futuro de los datos I(t+1) ganancia de la forma de articulación pasada observada de I y I}-{información acerca del futuro de los datos I(t+1) ganancia solo de observaciones de I}= flujo de información de J y I.  (35)


Kwon y Yang[47] argumentaron que el primer paso en el estudio de la entropía de transferencia es discretizar laImagens series de tiempo[48] mediante un granulado grueso. Dividen las variables Imagen en contrapartes discretizadas Imagen, utilizando una constante d de la siguiente manera:

 

Es crucial determinar una constante apropiada d ya que la probabilidad de los estados varió por los cambios en d.


0.3.2.5 Entropía de transferencia efectiva


El uso de la historia más larga de la serie temporal en el cálculo de la entropía de transferencia puede causar ruidos en lugar de proporcionar más información[49]. La limitación de la entropía de transferencia es que no tiene en cuenta el efecto de los ruidos[50]. Para tener en cuenta la consideración de los ruidos, la entropía de transferencia efectiva[51] se introduce como:

Imagen

donde Imagen es la entropía de transferencia barajada media, mes la longitud de la historia pasada de X, y l es la longitud de las observaciones pasadas de Y.


La explicación relativa agregada (REA) se puede utilizar como una medida secundaria para estudiar la incertidumbre basada en el concepto de entropía de la siguiente manera:

Imagen


REA cuantifica la información extra obtenida del historial de las variables aleatorias X y Y, cuando ya se ha observado X.


0.3.2.6 Tasa de entropía


La tasa de entropía mide la información promedio requerida para predecir una observación futura dadas las observaciones anteriores de la siguiente manera:



Imagen

donde Imagenrepresenta la medida de entropía condicionada al historial de la variable aleatoria X. La entropía condicional Imagen y la tasa de entropía Imagense ilustran en la Figura 5.

Imagen

Figura 5. La entropía condicional ? (?0 | ? − 1) y la tasa de entropía ?.


0.3.2.7 Entropía de permutación normalizada y número de patrones prohibidos


Zunino et al[52]. afirmaron que el modelo Random Walk se basa en el supuesto de que los cambios dinámicos en los datos no están correlacionados y, por lo tanto, las medidas de entropía pueden usarse para capturar las incertidumbres inherentes a la serie de tiempo[53]. Los autores discutieron la Segunda Ley de Termodinámica, que establece que la entropía se expande monótonamente con el tiempo. Además, examinaron los aportes de Renyi[54],  Tsallis[55], Approximate[56], y Transfer entropies, así como un enfoque local para estudiar la entropía de Shannon[57].  Zunino et al[58]. presentaron dos nuevos cuantificadores para modelos predictivos: el número de Patrones prohibidos y la entropía de permutación normalizada. Ambas métricas son independientes del modelo y, por lo tanto, tienen una aplicabilidad más amplia. El número de patrones prohibidos se correlaciona positivamente con el grado de ineficiencia, y la entropía de permutación normalizada se correlaciona negativamente con el grado de ineficiencia. Los patrones prohibidos representan los patrones que no se pueden descubrir debido a la estructura determinista subyacente de la serie temporal. Se observa que la entropía de permutación es la forma normalizada de la entropía de Shannon sobre la distribución de probabilidad Imagen

como se presenta a continuación:


Imagen

donde S representa la entropía de Shannon y Imagen. Se observa que el mayor valor de Imagen es igual a la unidad en el caso de una secuencia totalmente aleatoria y el menor valor de Imagen es igual a cero en el caso de secuencia creciente / decreciente.


0.3.2.8 Medidas de entropía basadas en la descomposición de valores singulares


Ginebreda et al. investigaron[59] la capacidad predictiva de la entropía de descomposición de valores singulares. La multifractalidad de las series de tiempo se debe a las fluctuaciones locales del índice, la memoria a largo plazo de la volatilidad[60],  distribuciones de colas pesadas, el comportamiento de manada, la información externa, las propiedades intrínsecas, los cambios incrementales no lineales en los datos, etc. Según su estudio, la tendencia de la serie de entropía está por delante del índice de componentes, lo que indica que la entropía de descomposición de valores singulares tiene poder predictivo para la variable.


Rongbao[61] estudió las medidas de entropía basadas en la descomposición de valores singulares de la matriz de correlación para los componentes de la serie de tiempo y definió la matriz de correlación de datos de la siguiente manera:

Imagen

donde Imagen es la media y Imagen y Imagen son las desviaciones estándar de Imagen y Imagen, respectivamente. Usó las pruebas de causalidad de Granger[62] para determinar si una determinada serie de tiempo es útil para predecir la dinámica futura de la segunda variable, como se muestra en la siguiente fórmula:


Imagen

donde Imagen y Imagen son las variables de interés y Imagen son las perturbaciones no correlacionadas. Los parámetros k y lson el orden de los retrasos. Las hipótesis nula y alternativa en su análisis estadístico son las siguientes:


Imagen

La suma de cuadrados residual para la serie inicial, RS Imagen, y la versión restringida sin Imagen, RS Imagen, se pueden definir de la siguiente manera:


Imagen

El estadístico apropiado, ?0, se puede determinar de la siguiente manera:

Imagen

El estadístico F0 tiene l y (N - l - 1) grados de libertad. Caraiani[63] usó el estadístico F0 e intentó abordar la siguiente pregunta: ¿los índices de entropía de Granger causan la serie de tiempo? En otras palabras, los valores pasados ??de una variable aleatoria, Imagen, son útiles para predecir una segunda variable, Imagen, más allá de la información contenida en los valores pasados ??de Imagen.


0.3.2.9 Entropía aproximada


Se presentan otras medidas de dependencia de variables aleatorias. Se han introducido diferentes métodos para cuantificar las incertidumbres de los procesos estocásticos, incluidos los métodos basados ??en el análisis de Fourier[64], análisis simbólico[65], Estadísticas de amplitud[66], y transformada Wavelet[67]. Huang[68] et al. informaron que la dinámica compleja del mundo real refleja anomalías de caracterizaciones caóticas, irregulares y no estacionarias debido a varios factores, incluidos el impulso interno y las perturbaciones externas. En particular, los métodos para analizar el proceso estocástico de las series de tiempo financieras incluyen el análisis de ondículas[69], análisis de fluctuación sin tendencia[70], y análisis de entropía de difusión (DEA[71]). Así las medidas de entropía de muestra cruzada, entropía de transferencia y correlación cruzada se utilizan para obtener la asincronía, el flujo de información y la correlación cruzada entre las series de tiempo, respectivamente. Otras herramientas estadísticas, que se han introducido para examinar los procesos estocásticos, son la función de correlación, los modelos multifractales, de vidrio giratorio y las redes complejas[72]. La entropía de Kolmogorov-Sinai para series de tiempo del mundo real no se puede estimar con precisión. Por lo tanto, el análisis de las series de tiempo finitas y ruidosas se puede realizar utilizando la entropía aproximada[73]. Además, la entropía entre muestras se basa en la entropía aproximada[74], que captura los cambios en la complejidad de un sistema. La entropía aproximada se puede utilizar para medir patrones en series de tiempo y descubrir las regularidades extrayendo los ruidos de los datos originales.


Considere una serie de números de longitud Imagen y forme bloques m de la subserie Imagen, donde mes un número no negativo menor o igual que la longitud de la serie. Luego determinamos Imagen como la fracción de bloques Imagenque tienen una distancia menor que un número real positivo dado r. La entropía aproximada se puede calcular como:


Imagen

donde Imagen se define como

Imagen

y Imagen se puede calcular como

Imagen

0.4 Ejemplo de caso de estudio


El monitoreo del estado de la batería en un sistema es importante ya que la falla de la batería puede resultar en la falla del sistema. La gestión adecuada y eficiente del estado de la batería puede prevenir peligros desastrosos y fallas prematuras[75]. Tiene como objetivo determinar la correspondencia entre la pérdida de capacidad de la batería y la entropía de la muestra (SampEn) y la entropía aproximada (ApEn) de los voltajes. Muchos enfoques para estimar la capacidad de la batería se basan en un análisis directo de la capacidad de la batería con respecto al ciclo de envejecimiento. La entropía aproximada es capaz de cuantificar la regularidad de las series temporales y, por tanto, puede utilizarse como estimadora de degradación de la capacidad de la batería.


Se usan las definiciones de entropía de muestra y entropía aproximada y se determina estas dos medidas de entropía para los cambios en los voltajes de la batería a lo largo del tiempo. Se examinaron por los investigadores cinco baterías de iones de litio de la siguiente manera: PL19, PL17, PL11, PL10 y PL09. Los voltajes de la batería a lo largo del tiempo se ilustran en la Figura 6. La Figura 7 muestra los cambios en las capacidades de la batería durante el ciclo. La entropía de la muestra (SampEn) y la entropía aproximada (ApEn) se calculan y se muestran en las Figuras 8 y 9, respectivamente.

Imagen


Figura 6. Voltajes de la batería versus ciclos.


Imagen

Figura 7. Capacidades de la batería versus ciclos.

Imagen

Figura 8. Estimación de entropía (SampEn) versus ciclos.

Imagen

Figura 9. Entropía aproximada (ApEn) versus ciclos.


0.5 En síntesis entropía 


La entropía se definió originalmente por Shannon como el número promedio de bits necesarios para almacenar o comunicar un símbolo en un mensaje. También puede cuantificar la incertidumbre involucrada en la predicción del valor de una variable aleatoria. En este manuscrito, revisamos varias medidas de entropía para examinar las incertidumbres inherentes a los procesos estocásticos. Se ha observado que se han construido diferentes modelos predictivos utilizando varias medidas de entropía. El concepto de entropía no se ha limitado a la física, la química y la termodinámica. Las medidas de entropía se han utilizado para desarrollar modelos predictivos en diversas disciplinas, incluidas la mecánica, las finanzas, la fisiología, la neurociencia, la ecología, la bionomía y la neurología. Además, se han introducido varias medidas de entropía según el proceso y las series de tiempo estudiadas. Estas métricas incluyen, pero no se limitan a, entropía de Shannon, entropía aproximada, entropía de muestra, entropía de transferencia y entropía de permutación. El concepto de entropía es útil para caracterizar los procesos estocásticos ya que representa la incertidumbre y el desorden del proceso, sin causar restricciones en la distribución de probabilidad teórica. La contribución de este apartado radica en su descripción de la información, la incertidumbre, la entropía y lo desconocido en los procesos estocásticos. Más precisamente, la información es la disminución del desorden y la ambigüedad, la incertidumbre se refiere a la improbabilidad del razonamiento lógico, la entropía es la información esperada y la ignorancia es la falta de conocimiento sobre la incertidumbre. Los hallazgos clave de esta revisión son los siguientes:


1. La entropía es útil para explicar las incertidumbres inherentes a los procesos estocásticos.


2. Las medidas de entropía tienen poder predictivo y el tipo de serie de tiempo estudiado puede tener un impacto en la capacidad predictiva de las medidas de entropía.


3. Las medidas de entropía juegan un papel importante en varias ramas de la ciencia y las disciplinas de aplicación.


4. La entropía es un indicador que representa la complejidad de las señales. Cuanto mayores son las medidas de entropía, más complejidad se acumula en las señales y más información contienen las señales.


5. Los resultados de los estudios existentes en esta área de investigación muestran que la capacidad predictiva de las medidas de entropía está relacionada con el grado de complejidad en la información disponible.


6. El trabajo futuro en su formación universitaria debería examinar el poder predictivo de la entropía, después de tener en cuenta el efecto de otras variables como la periodicidad. Variables como la periodicidad pueden hacer más explícitas algunas de las incertidumbres inherentes a los procesos estocásticos.


7. El método propuesto basado en la entropía, puede aplicarse al monitoreo y pronóstico por ejemplo del efecto en la batería de litio, encontrándose que la entropía de muestra y la entropía aproximada son útiles para cuantificar el grado de fluctuación de un proceso estocástico. Estas dos medidas de entropía pueden cuantificar la regularidad de series de tiempo y evaluar la predictibilidad de una secuencia de datos. Por lo tanto, se pueden aplicar a los datos de capacidad de la batería como indicador del estado de la batería.

 

 

Referencias


[1] Güémez, J. & Fiolhais, Carlos & Fiolhais, M.. (2002). Sadi Carnot on Carnot's theorem. American Journal of Physics - AMER J PHYS. 70. 42-47. 10.1119/1.1412642.

[2] Olla, Stefano & Golse, Francois & Villani, Cédric & Rezakhanlou, Fraydoun. (2008). Entropy methods for the Boltzman Equation.

[3] Casini, Horacio & Huerta, Marina & Magan, Javier & Pontello, Diego. (2020). Logarithmic coefficient of the entanglement entropy of a Maxwell field. Physical Review D. 101. 10.1103/PhysRevD.101.065020.

[4] Forero Díaz, S. M. (2013). Sadi Carnot, el ciclo ideal. Lat. Am. J. Phys. Educ. 7(3): 473-477.

[5] Hanlon, Robert. (2020). Clausius and the road to entropy. 10.1093/oso/9780198851547.003.0034.

[6] Hanlon, Robert. (2020). William Thomson (Lord Kelvin). 10.1093/oso/9780198851547.003.0032.

[7] Boivin, Pierre. (2021). Consistency study of Lattice-Boltzmann schemes macroscopic limit. Physics of Fluids. 33.

[8] Haghighi, Aliakbar & Wickramasinghe, Indika. (2020). Stochastic Processes. 10.1201/9781351238403-7.

[9] Fernandes, Marcelo & Neri, Breno. (2010). Nonparametric Entropy-Based Tests of Independence Between Stochastic Processes. Econometric Reviews. 29. 276-306. 10.1080/07474930903451557.

[10] Ramos, Antônio & Grande, Helder & Macau, Elbert. (2020). Investigation on the high-order approximation of the entropy bias. Physica A: Statistical Mechanics and its Applications. 549. 124301. 10.1016/j.physa.2020.124301.

[11] Klenke, Achim. (2020). Ergodic Theory. 10.1007/978-3-030-56402-5_20.

[12] Hendricks, Dieter & Gebbie, Tim & Wilcox, Diane. (2016). High-speed detection of emergent market clustering via an unsupervised parallel genetic algorithm. South African Journal of Science. 112. 57. 10.17159/sajs.2016/20140340.

[13] Kononovicius, Aleksejus & Ruseckas, Julius. (2015). Nonlinear GARCH model and 1/f noise. Physica A: Statistical Mechanics and its Applications. 427. 74-81. 10.1016/j.physa.2015.02.040.

[14] Mohammadi, Mohammad. (2017). Prediction of α -stable GARCH and ARMA-GARCH-M models: Prediction of GARCH and ARMA-GARCH-M models. Journal of Forecasting. 36. 10.1002/for.2477.

[15] Mohamed, Sadoun & Bentarzi, Mohamed. (2020). On periodic EGARCH models. Communications in Statistics - Simulation and Computation. 1-27. 10.1080/03610918.2020.1722833.

[16] Mizuno, Takayuki & Takayasu, Hideki & Takayasu, Misako. (2006). Correlation Networks Among Currencies. Physica A Statistical and Theoretical Physics. 364. 336-342. 10.1016/j.physa.2005.08.079.

[17] Dong, K. & Shang, P.. (2010). Statistical properties of detrended cross-correlation analysis. Beijing Jiaotong Daxue Xuebao/Journal of Beijing Jiaotong University. 34. 64-67.

[18] Schwill, S. Entropy analysis of financial time series. 2018, https://arxiv.org/pdf/1807.09423.pdf

[19] Shannon, CE. Communication theory of secrecy systems. Bell Syst Tech J 1949; 28: 656–715

[20] opovic, Marko. (2018). Explaining the entropy concept and entropy components. Journal of Subject Didactics. 2. 10.5281/zenodo.1239728.

[21] Kullback, Solomon & Leibler, Richard. (1951). On Information and Sufficiency. Annals of Mathematical Statistics. 22. 79-86. 10.1214/aoms/1177729694.

[22] Tsao, Jacob. (2020). Entropy Optimization: Shannon Measure of Entropy and Its Properties.

[23] Maasoumi, E, Racine, J. Entropy and predictability of stock market returns. J Econometrics 2002; 107: 291–312.

[24] Lian, JJ, Li, HK, Zhang, JW. Vibration of hydraulic structure modal identification method ERA based on order reduction of singular entropy. Sci China Ser E Sci Technol 2008; 38: 1398–141

[25] Valverde-Albacete, Francisco J. & Peláez-Moreno, Carmen. (2018). The case for shifting the Renyi Entropy.

[26] Golshani, Leila & Pasha, Einollah & Yari, Gholamhossein. (2009). Some properties of Rényi entropy and Rényi entropy rate. Information Sciences. 179. 2426-2433. 10.1016/j.ins.2009.03.002.

[27] Marghitu, Dan & Perkins, Edmon. (2020). Dynamics of a Linkage Mechanism Using Sample Entropy. Applied Mechanics and Materials. 896. 67-74. 10.4028/www.scientific.net/AMM.896.67.

[28] Garipcan, Ali & Erdem, Ebubekir. (2020). A TRNG using chaotic entropy pool as a post-processing technique: analysis, design and FPGA implementation. Analog Integrated Circuits and Signal Processing. 103. 10.1007/s10470-020-01605-0.

[29] Tauste Campo, Adrià. (2020). Inferring neural information flow from spiking data. Computational and Structural Biotechnology Journal. 18. 2699-2708. 10.1016/j.csbj.2020.09.007.

[30] Barnett, Lionel & Barrett, Adam & Seth, Anil. (2009). Granger Causality and Transfer Entropy Are Equivalent for Gaussian Variables. Physical review letters. 103. 238701. 10.1103/PhysRevLett.103.238701.

[31] Montalto, A, Faes, L, Marinazzo, D. MuTE: a new Matlab toolbox for estimating the multivariate transfer entropy in physiological variability series. In: Proceedings of the 8th conference of the European Study Group on cardiovascular oscillations, Trento, 25–28 May 2014, pp.59–60. New York: IEEE.

[32] Shovon, Md Hedayetul Islam & Nandagopal, Nanda & Ramasamy, Vijayalakshmi & Du, Jia & Cocks, Bernadine. (2017). Directed Connectivity Analysis of Functional Brain Networks during Cognitive Activity Using Transfer Entropy. Neural Processing Letters. 45. 10.1007/s11063-016-9506-1.

[33] Solís-Montufar, Eric & Gálvez-Coyt, Gonzalo & Diosdado, A.. (2020). Entropy Analysis of RR-Time Series From Stress Tests. Frontiers in Physiology. 11. 10.3389/fphys.2020.00981.

[34] Raguet, Hugo & Marrel, Amandine. (2018). Target and Conditional Sensitivity Analysis with Emphasis on Dependence Measures.

[35] Behrendt, Simon & Dimpfl, Thomas & Peter, Franziska & Zimmermann, David. (2019). RTransferEntropy — Quantifying information flow between different time series using effective transfer entropy. SoftwareX. 10. 100265. 10.1016/j.softx.2019.100265.

[36] Kliber, Agata & Bedowska-Sojka, Barbara. (2021). Information content of liquidity and volatility measures. Physica A: Statistical Mechanics and its Applications. 563. 10.1016/j.physa.2020.125436.

[37] Golan, Amos. (2007). Information and entropy econometrics - volume overview and synthesis. Journal of Econometrics. 138. 379-387. 10.1016/j.jeconom.2006.05.001.

[38] Nathanson, Michael. (2013). Elements of Information Theory. American Mathematical Monthly. 120. 10.4169/amer.math.monthly.120.02.182.

[39] Papana, Angeliki & Siggiridou, Elsa & Kugiumtzis, Dimitris. (2020). Detecting direct causality in multivariate time series: A comparative study.

[40] Marschinski, R, Kantz, H. Analysing the information flow between financial time series. Eur Phys J B Condense Matter Complex Syst 2002; 30: 275–281.

[41] Marschinski, R, Kantz, H. Analysing the information flow between financial time series. Eur Phys J B Condense Matter Complex Syst 2002; 30: 275–281.

[42] Ostmeyer, Johann & Berkowitz, Evan & Luu, Thomas & Petschlies, Marcus & Pittler, Ferenc. (2019). The Ising Model with Hybrid Monte Carlo.

[43] Voit, Johannes. (2003). Turbulence and Foreign Exchange Markets. 10.1007/978-3-662-05125-2_6.

[44] Mondal, Shrabani & Greenberg, Jonah & Green, Jason. (2021). Universal dynamic scaling in chemical reactions at and away from equilibrium.

[45] Georgiadis, Dionysios & Martin, Raubal. (2020). An interdisciplinary review on weak signal detection.

[46] Mantegna, Rosario & Stanley, H.. (2000). An Introduction to Econophysics: Correlations and Complexity in Finance. 10.1063/1.1341926.

[47] Kwon, Okyu & Yang, Jae-Suk. (2007). Information Flow between Composite Stock Index and Individual Stocks. arXiv.org, Quantitative Finance Papers. 387. 10.1016/j.physa.2008.01.007.

[48] Hong, Yongmiao & Wang, Xia & Zhang, Wenjie & Wang, Shouyang. (2017). An efficient integrated nonparametric entropy estimator of serial dependence. Econometric Reviews. 36. 10.1080/07474938.2017.1307564.

[49] Bari, Vlasta & De Maria, Beatrice & Mazzucco, Claudio & Rossato, Gianluca & Tonon, Davide & Nollo, Giandomenico & Faes, Luca & Porta, Alberto. (2017). Cerebrovascular and cardiovascular variability interactions investigated through conditional joint transfer entropy in subjects prone to postural syncope. Physiological Measurement. 38. 10.1088/1361-6579/aa638c.

[50] Sattari, Sulimon & Basak, Udoy & Crutchfield, James & Komatsuzaki, Tamiki. (2020). Modes of Information Flow in Collective Cohesion.

[51] Ducha, Fernando & Atman, A. & Bosco de Magalhães, Arthur. (2020). Information flux in complex networks: Path to stylized facts. Physica A: Statistical Mechanics and its Applications. 566. 125638. 10.1016/j.physa.2020.125638.

[52] Zunino, Luciano & Zanin, Massimiliano & Tabak, Benjamin & Pérez, Darío & Rosso, Osvaldo. (2010). Complexity-entropy causality plane: A useful approach to quantify the stock market inefficiency. Physica A Statistical and Theoretical Physics. 389. 1891-1901. 10.1016/j.physa.2010.01.007.

[53] Postadjian, C.. (2021). Annales Scientifiques de l’École Normale Supérieure. Index général, quatrième série - tomes 1 à 26 (1968-1993). Annales Scientifiques de l’École Normale Supérieure. Quatrième Série. 6.

[54] Zarezadeh, Somayeh & Asadi, Majid. (2010). Results on residual Rényi entropy of order statistics and record values. Inf. Sci.. 180. 4195-4206. 10.1016/j.ins.2010.06.019.

[55] Matesanz Gómez, David & Ortega, Guillermo. (2011). A (econophysics) note on volatility in exchange rate time series. Entropy as a ranking criterion. International Journal of Modern Physics C. 19. 10.1142/S0129183108012789.

[56] Fan, Jingfang & Meng, Jun & Ludescher, Josef & Chen, Xiaosong & Ashkenazy, Yosef & Kurths, Jürgen & Havlin, Shlomo & Schellnhuber, Hans. (2020). Statistical physics approaches to the complex Earth system. Physics Reports. 896. 10.1016/j.physrep.2020.09.005.

[57] Oprean, Camelia & Tanasescu, Cristina & Bucur, Amelia. (2017). A New Proposal for Efficiency Quantification of Capital Markets in the Context of Complex Nonlinear Dynamics and Chaos. Economic Research-Ekonomska Istraživanja. 30. 1669-1692. 10.1080/1331677X.2017.1383172.

[58] Chen, Yan & Cai, Ya & Zheng, Chengli. (2020). Efficiency of Chinese Real Estate Market Based on Complexity-Entropy Binary Causal Plane Method. Complexity. 2020. 1-15. 10.1155/2020/2791352.

[59] Ginebreda, Antonio & Sabater-Liesa, Laia & Barcelo, Damia. (2019). Quantification of ecological complexity and resilience from multivariate biological metrics datasets using singular value decomposition entropy. MethodsX. 6. 10.1016/j.mex.2019.07.020.

[60] Sadorsky, Perry. (2005). Stochastic volatility forecasting and risk management. Applied Financial Economics. 15. 121-135. 10.1080/0960310042000299926.

[61] Gu, Rongbao & Shao, Yanmin. (2016). How long the singular value decomposed entropy predicts the stock market? — Evidence from the Dow Jones Industrial Average Index. Physica A: Statistical Mechanics and its Applications. 453. 10.1016/j.physa.2016.02.030.

[62] Barraquand, Frederic & Picoche, Coralie & Detto, Matteo & Hartig, Florian. (2020). Inferring species interactions using Granger causality and convergent cross mapping. Theoretical Ecology. 1-19. 10.1007/s12080-020-00482-7.

[63] Caraiani, Petre. (2018). Modeling the Comovement of Entropy between Financial Markets. Entropy. 20. 417. 10.3390/e20060417.

[64] Lima, Luiz & Xiao, Zhijie. (2021). Are There Long-Range Dependence In Financial Time Series?.

[65] Rodanski, Ben & Hassoun, Marwan. (2018). Symbolic Analysis Methods. 10.1201/9781315219103-2.

[66] Rashid, Rizwan & Nawaz, Asif & Iqbal, Javed. (2018). A survey on sentiment classification algorithms, challenges and applications. Acta Universitatis Sapientiae, Informatica. 10. 58-72. 10.2478/ausi-2018-0004.

[67] González, J.. (2020). Erol Ba?ar and the scientific revolution in nonlinear brain dynamics: A selective review. 10.1016/j.ijpsycho.2020.08.011..

[68] Dai, Meifeng & Hou, Jie & Gao, Jianyu & Su, Weiyi & Xi, Lifeng & Ye, Dandan. (2016). Mixed multifractal analysis of China and US stock index series. Chaos, Solitons & Fractals. 87. 268-275. 10.1016/j.chaos.2016.04.013.

[69] Pavlov, Alexyi & Anishchenko, Vadim. (2007). Multifractal Analysis of Signals Based on Wavelet-Transform. Izvestiya of Saratov University. New series. Series: Physics. 7. 3-25. 10.18500/1817-3020-2007-7-1-3-25.

[70] Chelidze, T. & Matcharashvili, Teimuraz & Abashidze, Vakhtang & Dovgal, Nadezhda & Mepharidze, Ekaterine & Chelidze, Lia. (2021). Time Series Analysis of Fault Strain Accumulation Around Large Dam: The Case of Enguri Dam, Greater Caucasus. 10.1007/978-94-024-2046-3_10.

[71] Zhang, Jin & Zhang, Wenqing & Yang, Huijie. (2015). In search of coding and non-coding regions of DNA sequences based on balanced estimation of diffusion entropy. Journal of Biological Physics. 42. 10.1007/s10867-015-9399-7.

[72] James, Nick. (2021). Dynamics, behaviours, and anomaly persistence in cryptocurrencies and equities surrounding COVID-19.

[73] Tiwari, Aviral & Andries, Marius & Ihnatov, Iulian. (2013). Analysis of CEEC Exchange Rates Co-Movements Using Wavelet Multiple Correlation and Cross-Correlation. SSRN Electronic Journal. 10.2139/ssrn.2276380.

[74] Li, Baogen & Han, Guo-Sheng & Jiang, Shan. (2020). Composite Multiscale Partial Cross-Sample Entropy Analysis for Quantifying Intrinsic Similarity of Two Time Series Affected by Common External Factors. Entropy. 22. 1003. 10.3390/e22091003.

[75] Pincus, Steve. (1995). Approximate entropy (ApEn) as a complexity measure. Chaos (Woodbury, N.Y.). 5. 110-117. 10.1063/1.166092.

 

Autores:

Eduardo Ochoa Hernández
Nicolás Zamudio Hernández
Berenice Yahuaca Juárez
Erasmo Cadenas Calderón
Abraham Zamudio Durán
Lizbeth Guadalupe Villalon Magallan
Pedro Gallegos Facio
Gerardo Sánchez Fernández
Rogelio Ochoa Barragán
Monica Rico Reyes