Entropie - Qu'est-ce que c'est, définition et concept

L'entropie, en physique, est une grandeur qui mesure la relation entre l'énergie thermique et la température, c'est-à-dire la quantité d'énergie utile qu'il y a dans un système pour effectuer un travail.

L'entropie trouve son origine dans les études de thermodynamique pour expliquer pourquoi certains phénomènes respectant la conservation de l'énergie ne se matérialisent pas dans la réalité.

Pour l'expliquer simplement, imaginons une pièce divisée en deux parties séparées par un mur. Supposons maintenant que l'une des deux cloisons de la pièce contienne du gaz comprimé. Ainsi, si le mur s'effondrait, le gaz se répandrait dans toute la pièce.

L'entropie en thermodynamique

C'est alors Rudolf Clausius qui évoqua la deuxième loi de la thermodynamique : « Il est impossible pour une machine autonome, sans l'aide d'un agent extérieur, de transférer la chaleur d'un corps à un autre plus chaud.

Autrement dit, en continuant avec l'exemple précédent, nous pouvons voir le gaz se dilater dans toute la pièce, mais nous ne pouvons pas le voir se comprimer spontanément d'un seul côté.

Après l'approche de Clausius, Ludwig Boltzmann trouva en 1877 un moyen d'exprimer mathématiquement ce concept et développa la formule suivante :

L'entropie dans sa définition moderne

L'entropie, dans une définition plus moderne, peut être comprise comme le nombre de micro-états équivalents pour le même macro-état d'un système. C'est-à-dire de combien de manières possibles les éléments peuvent-ils être placés de manière à ce que l'observateur puisse mesurer la même chose de manière macroscopique.

Vue d'une autre manière, l'entropie mesure la probabilité de trouver un état en raison de la multiplicité des combinaisons qui donnent le même résultat.

En d'autres termes, un état avec une entropie élevée est un état avec une forte probabilité d'occurrence. Par exemple, pour deux dés lancés au hasard, la somme de 7 est un état d'entropie plus élevé que la somme de 12.

Mais comment ce système de probabilité est-il lié à la loi de la thermodynamique que nous avons citée au début ? En résumé, ce qui est observé est l'état de plus grande entropie.

Pour reprendre l'exemple du gaz, la probabilité que ses particules se collent à un côté de la pièce est si infiniment petite que l'observateur ne le verra jamais.

Entropie et économie

Le concept d'entropie peut être utilisé comme synonyme de désordre vers lequel tend un système économique lorsque les régulations nécessaires ne sont pas établies. Autrement dit, sans intervention de l'État, le système économique, selon certains auteurs, tendrait vers le chaos, conduisant à des crises comme celle que nous avons observée lors de la Grande Récession.

C'est à cause de cette tendance à l'entropie, disent certains analystes, que face à des crises comme celle de 2008, une politique monétaire expansionniste était également nécessaire de la part de la Réserve fédérale. Sinon, on suppose que l'économie américaine aurait été plus touchée.

Vous contribuerez au développement du site, partager la page avec vos amis

wave wave wave wave wave