Unidades de la entropia

Entropía

Este artículo necesita citas adicionales para su verificación. Por favor, ayude a mejorar este artículo añadiendo citas de fuentes fiables. El material sin fuente puede ser cuestionado y eliminado.Buscar fuentes:  “Entropía” teoría de la información – noticias – periódicos – libros – scholar – JSTOR (febrero de 2019) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)

Dos bits de entropía: En el caso de dos lanzamientos de moneda justos, la entropía de la información en bits es el logaritmo de base 2 del número de resultados posibles; con dos monedas hay cuatro resultados posibles, y dos bits de entropía. En general, la entropía de la información es la cantidad media de información transmitida por un evento, cuando se consideran todos los resultados posibles.

En la teoría de la información, la entropía de una variable aleatoria es el nivel medio de “información”, “sorpresa” o “incertidumbre” inherente a los posibles resultados de la variable. El concepto de entropía de la información fue introducido por Claude Shannon en su artículo de 1948 “A Mathematical Theory of Communication”,[1][2] y también se denomina entropía de Shannon. Como ejemplo, consideremos una moneda sesgada con probabilidad p de salir cara y probabilidad 1 – p de salir cruz. La máxima sorpresa es para p = 1/2, cuando no hay razón para esperar un resultado sobre otro. En este caso, el lanzamiento de una moneda tiene una entropía de un bit. La sorpresa mínima es para p = 0 o p = 1, cuando se conoce el suceso y la entropía es de cero bits. Cuando la entropía es de cero bits, a veces se habla de unidad, donde no hay ninguna incertidumbre, ninguna libertad de elección, ninguna información. Otros valores de p dan diferentes entropías entre cero y uno bits.

Termodinámica química

En termodinámica clásica, la entropía es una propiedad de un sistema termodinámico que expresa la dirección o el resultado de los cambios espontáneos en el sistema. El término fue introducido por Rudolf Clausius a mediados del siglo XIX a partir de la palabra griega τρoπή (transformación) para explicar la relación de la energía interna que está disponible o no para las transformaciones en forma de calor y trabajo. La entropía predice que ciertos procesos son irreversibles o imposibles, a pesar de no violar la conservación de la energía[1] La definición de entropía es fundamental para el establecimiento de la segunda ley de la termodinámica, que establece que la entropía de los sistemas aislados no puede disminuir con el tiempo, ya que siempre tienden a llegar a un estado de equilibrio termodinámico, donde la entropía es máxima. Por tanto, la entropía también se considera una medida del desorden del sistema.

Ludwig Boltzmann explicó la entropía como una medida del número de posibles configuraciones microscópicas Ω de los átomos y moléculas individuales del sistema (microestados) que corresponden al estado macroscópico (macroestado) del sistema. Demostró que la entropía termodinámica es k ln Ω, donde el factor k se conoce desde entonces como la constante de Boltzmann.

Energía libre de gibbs

La entropía es un concepto científico y una propiedad física medible que se asocia generalmente a un estado de desorden, aleatoriedad o incertidumbre. El término y el concepto se utilizan en diversos campos, desde la termodinámica clásica, donde se reconoció por primera vez, hasta la descripción microscópica de la naturaleza en la física estadística y los principios de la teoría de la información. Ha encontrado amplias aplicaciones en la química y la física, en los sistemas biológicos y su relación con la vida, en la cosmología, la economía, la sociología, la meteorología, el cambio climático y los sistemas de información, incluida la transmisión de información en las telecomunicaciones[1].

El concepto de termodinámica fue referido por el científico e ingeniero escocés Macquorn Rankine en 1850 con los nombres de función termodinámica y potencial térmico[2]. En 1865, el físico alemán Rudolf Clausius, uno de los principales fundadores del campo de la termodinámica, la definió como el cociente entre una cantidad infinitesimal de calor y la temperatura instantánea. Inicialmente la describió como contenido de transformación, en alemán Verwandlungsinhalt, y más tarde acuñó el término entropía a partir de una palabra griega que significa transformación. Refiriéndose a la constitución y estructura microscópica, en 1862, Clausius interpretó el concepto como m

Entropía

Las unidades básicas del SI son la longitud (en metros), la masa (en kilogramos), el tiempo (en segundos) y la temperatura (en kelvin). Las tres primeras no necesitan más explicación, mientras que la última se tratará con más detalle más adelante.

Las otras unidades básicas del SI son la corriente eléctrica (en amperios), la cantidad de sustancia (en moles) y la intensidad luminosa (en candelas). Estas unidades pueden resultar familiares para los lectores con formación en electrónica, química y física, respectivamente, pero tienen poca relevancia para la ingeniería del vapor y para el contenido de El bucle de vapor y condensado.

La tabla 2.1.1 muestra las unidades derivadas que son relevantes para este tema, todas las cuales deberían ser familiares para aquellos con una formación general en ingeniería. A todas estas magnitudes se les han asignado nombres especiales en honor a famosos pioneros en el desarrollo de la ciencia y la ingeniería.

La tabla 2.1.3 muestra los prefijos del SI que se utilizan para formar múltiplos y submúltiplos decimales de las unidades del SI. Permiten evitar valores numéricos muy grandes o muy pequeños. Un prefijo se adjunta directamente al nombre de una unidad, y un símbolo de prefijo se adjunta directamente al símbolo de una unidad.