100T6119 - Entropía - Entropy
Entropy is the general trend of the universe toward death and disorder. (Entropía es la tendencia general del universo hacia la muerte y el desorden) James R. Newman
Como entropía se conoce la tendencia natural a la pérdida de orden en un sistema. La palabra, como tal, proviene del griego ἐντροπία (entropía), que literalmente significa ‘vuelta’, aunque hoy en día es empleada en varios sentidos figurados.
El término entropía fue inicialmente acuñado por el físico alemán Rudolf Clausius al observar que, en cualquier proceso irreversible, siempre se iba una pequeña cantidad de energía térmica fuera de la frontera del sistema. A partir de entonces, el término ha sido utilizado en las más variadas disciplinas de conocimiento, como la física, la química, las matemáticas, la astrofísica, la lingüística, la computación o la ecología, para hacer referencia a la medida de desorden a que tiende un sistema.
Así, por ejemplo, en Física, la entropía se refiere al grado de irreversibilidad que, en un sistema termodinámico, es alcanzado después de un proceso que implique la transformación de energía. En Química, por su lado, hace referencia a la entropía observada en la formación de un compuesto químico. En Astrofísica, alude a la entropía observada en los agujeros negros. En teorías de la información, la entropía es el grado de incertidumbre que se tiene en relación con un conjunto de datos. Mientras que, en Informática, hace referencia a la aleatoriedad recogida por un sistema operativo o una aplicación para su uso en criptografía.
www.significados.com/entropia/
La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), reorganización que dará como resultado un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y entonces se alcanzará la configuración de mayor probabilidad.
Una magnitud es una función de estado si, y sólo si, su cambio de valor entre dos estados es independiente del proceso seguido para llegar de un estado a otro. Esa caracterización de función de estado es fundamental a la hora de definir la variación de entropía.
La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre la entropía y la espontaneidad de una reacción química, que viene dada por la energía de Gibbs.
es.wikipedia.org/wiki/Entropía
The second law of thermodynamics states that the entropy of an isolated system never decreases. Such systems spontaneously evolve towards thermodynamic equilibrium, the state with maximum entropy. Non-isolated systems may lose entropy, provided their environment's entropy increases by at least that amount so that the total entropy increases. Entropy is a function of the state of the system, so the change in entropy of a system is determined by its initial and final states. In the idealization that a process is reversible, the entropy does not change, while irreversible processes always increase the total entropy.
Because it is determined by the number of random microstates, entropy is related to the amount of additional information needed to specify the exact physical state of a system, given its macroscopic specification. For this reason, it is often said that entropy is an expression of the disorder, or randomness of a system, or of the lack of information about it. The concept of entropy plays a central role in information theory.
The degradation of the matter and energy in the universe to an ultimate state of inert uniformity.
A process of degradation or running down or a trend to disorder
www.merriam-webster.com/dictionary/entropy
100T6119 - Entropía - Entropy
Entropy is the general trend of the universe toward death and disorder. (Entropía es la tendencia general del universo hacia la muerte y el desorden) James R. Newman
Como entropía se conoce la tendencia natural a la pérdida de orden en un sistema. La palabra, como tal, proviene del griego ἐντροπία (entropía), que literalmente significa ‘vuelta’, aunque hoy en día es empleada en varios sentidos figurados.
El término entropía fue inicialmente acuñado por el físico alemán Rudolf Clausius al observar que, en cualquier proceso irreversible, siempre se iba una pequeña cantidad de energía térmica fuera de la frontera del sistema. A partir de entonces, el término ha sido utilizado en las más variadas disciplinas de conocimiento, como la física, la química, las matemáticas, la astrofísica, la lingüística, la computación o la ecología, para hacer referencia a la medida de desorden a que tiende un sistema.
Así, por ejemplo, en Física, la entropía se refiere al grado de irreversibilidad que, en un sistema termodinámico, es alcanzado después de un proceso que implique la transformación de energía. En Química, por su lado, hace referencia a la entropía observada en la formación de un compuesto químico. En Astrofísica, alude a la entropía observada en los agujeros negros. En teorías de la información, la entropía es el grado de incertidumbre que se tiene en relación con un conjunto de datos. Mientras que, en Informática, hace referencia a la aleatoriedad recogida por un sistema operativo o una aplicación para su uso en criptografía.
www.significados.com/entropia/
La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), reorganización que dará como resultado un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y entonces se alcanzará la configuración de mayor probabilidad.
Una magnitud es una función de estado si, y sólo si, su cambio de valor entre dos estados es independiente del proceso seguido para llegar de un estado a otro. Esa caracterización de función de estado es fundamental a la hora de definir la variación de entropía.
La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre la entropía y la espontaneidad de una reacción química, que viene dada por la energía de Gibbs.
es.wikipedia.org/wiki/Entropía
The second law of thermodynamics states that the entropy of an isolated system never decreases. Such systems spontaneously evolve towards thermodynamic equilibrium, the state with maximum entropy. Non-isolated systems may lose entropy, provided their environment's entropy increases by at least that amount so that the total entropy increases. Entropy is a function of the state of the system, so the change in entropy of a system is determined by its initial and final states. In the idealization that a process is reversible, the entropy does not change, while irreversible processes always increase the total entropy.
Because it is determined by the number of random microstates, entropy is related to the amount of additional information needed to specify the exact physical state of a system, given its macroscopic specification. For this reason, it is often said that entropy is an expression of the disorder, or randomness of a system, or of the lack of information about it. The concept of entropy plays a central role in information theory.
The degradation of the matter and energy in the universe to an ultimate state of inert uniformity.
A process of degradation or running down or a trend to disorder
www.merriam-webster.com/dictionary/entropy