Introduction à l'entropie - Introduction to entropy

En thermodynamique , l' entropie est une grandeur numérique qui montre que de nombreux processus physiques ne peuvent aller que dans une seule direction dans le temps. Par exemple, vous pouvez verser de la crème dans du café et le mélanger, mais vous ne pouvez pas le «démélanger»; vous pouvez brûler un morceau de bois, mais vous ne pouvez pas le «démêler». Le mot «entropie» est entré dans l'usage populaire pour désigner un manque d'ordre ou de prévisibilité, ou un déclin progressif vers le désordre. Une interprétation plus physique de l'entropie thermodynamique fait référence à la propagation de l'énergie ou de la matière, ou à l'étendue et à la diversité du mouvement microscopique.

Si vous inversiez un film de mélange de café ou de bois brûlé, vous verriez des choses qui sont impossibles dans le monde réel. Une autre façon de dire que ces processus inverses sont impossibles est de dire que mélanger le café et brûler du bois est "irréversible". L'irréversibilité est décrite par une loi importante de la nature connue sous le nom de deuxième loi de la thermodynamique , qui dit que dans un système isolé (un système non connecté à un autre système) qui subit des changements, l'entropie augmente avec le temps.

L'entropie n'augmente pas indéfiniment. Un corps de matière et de rayonnement atteindra finalement un état inchangé, sans flux détectables, et on dit alors qu'il est dans un état d' équilibre thermodynamique . L'entropie thermodynamique a une valeur certaine pour un tel corps et est à sa valeur maximale. Lorsque des corps de matière ou de rayonnement, initialement dans leurs propres états d'équilibre thermodynamique interne, sont rassemblés pour interagir intimement et atteindre un nouvel équilibre conjoint, alors leur entropie totale augmente. Par exemple, un verre d'eau tiède contenant un glaçon aura une entropie plus faible que ce même système quelque temps plus tard, lorsque la glace aura fondu, laissant un verre d'eau froide. De tels processus sont irréversibles: un glaçon dans un verre d'eau chaude ne se formera pas spontanément à partir d'un verre d'eau froide. Certains processus dans la nature sont presque réversibles. Par exemple, l'orbite des planètes autour du soleil peut être considérée comme pratiquement réversible: un film des planètes en orbite autour du soleil qui tourne à l'envers ne semble pas impossible.

Alors que la deuxième loi, et la thermodynamique en général, est précise dans ses prédictions sur les interactions intimes de systèmes physiques complexes, les scientifiques ne se contentent pas de savoir simplement comment un système se comporte, mais veulent également savoir POURQUOI il se comporte comme il le fait. La question de savoir pourquoi l'entropie augmente jusqu'à ce que l'équilibre soit atteint a été résolue avec beaucoup de succès en 1877 par un scientifique célèbre nommé Ludwig Boltzmann . La théorie développée par Boltzmann et d'autres, est connue sous le nom de mécanique statistique . La mécanique statistique est une théorie physique qui explique la thermodynamique en termes de comportement statistique des atomes et des molécules qui composent le système. La théorie explique non seulement la thermodynamique, mais aussi une foule d'autres phénomènes qui sortent du cadre de la thermodynamique.

Explication

Entropie thermodynamique

Le concept d' entropie thermodynamique découle de la deuxième loi de la thermodynamique . Cette loi d'augmentation d'entropie quantifie la réduction de la capacité d'un système thermodynamique composé isolé à effectuer un travail thermodynamique sur son environnement, ou indique si un processus thermodynamique peut se produire. Par exemple, chaque fois qu'il existe une voie appropriée, la chaleur s'écoule spontanément d'un corps plus chaud vers un corps plus froid.

L'entropie thermodynamique n'est mesurée que comme un changement d'entropie ( ) d'un système contenant un sous-système qui subit un transfert de chaleur vers son environnement (à l'intérieur du système d'intérêt). Il est basé sur la relation macroscopique entre le flux de chaleur dans le sous-système et la température à laquelle il se produit additionné sur la limite de ce sous-système.

Suivant le formalisme de Clausius , le calcul de base peut être formulé mathématiquement comme suit :

où est l'augmentation ou la diminution de l'entropie, la chaleur ajoutée ou soustraite au système et la température. Le signe «égal» et le symbole impliquent que le transfert de chaleur doit être si petit et lent qu'il change à peine la température .

Si la température peut varier, l'équation doit être intégrée sur le chemin de température. Ce calcul du changement d'entropie ne permet pas la détermination de la valeur absolue, seulement des différences. Dans ce contexte, la deuxième loi de la thermodynamique peut être affirmée que pour la chaleur transférée sur tout processus valide pour tout système, qu'il soit isolé ou non,

Selon la première loi de la thermodynamique , qui traite de la conservation de l'énergie , la perte de chaleur se traduira par une diminution de l' énergie interne du système thermodynamique . L'entropie thermodynamique fournit une mesure comparative de la quantité de diminution de l'énergie interne et de l'augmentation correspondante de l'énergie interne de l'environnement à une température donnée. Dans de nombreux cas, une visualisation de la deuxième loi est que l'énergie de tous types passe de la localisation à la dispersion ou à l'étalement, si cela ne l'empêche pas de le faire. Le cas échéant, l'augmentation d'entropie est la mesure quantitative de ce type de processus spontané: la quantité d'énergie effectivement perdue ou devenue indisponible, en se dispersant ou en s'étalant, telle qu'évaluée à une température spécifique. Pour cette évaluation, lorsque la température est plus élevée, la quantité d'énergie dispersée est évaluée comme «coûtant» proportionnellement moins. En effet, un corps plus chaud est généralement plus capable d'effectuer un travail thermodynamique, d'autres facteurs, tels que l'énergie interne, étant égaux. C'est pourquoi une machine à vapeur a une chambre de combustion chaude.

La deuxième loi de la thermodynamique ne traite que des changements d'entropie ( ). L'entropie absolue (S) d'un système peut être déterminée en utilisant la troisième loi de la thermodynamique , qui spécifie que l'entropie de toutes les substances parfaitement cristallines est nulle au zéro absolu de la température. L'entropie à une autre température est alors égale à l'augmentation de l'entropie lors du chauffage réversible du système du zéro absolu à la température d'intérêt.

Mécanique statistique et entropie de l'information

L'entropie thermodynamique est étroitement liée au concept d' entropie d'information ( H ). L'entropie d'information est une mesure de la «diffusion» d'une densité de probabilité ou d'une fonction de masse de probabilité. La thermodynamique ne fait aucune hypothèse sur la nature atomistique de la matière, mais lorsque la matière est vue de cette manière, comme un ensemble de particules se déplaçant constamment et échangeant de l'énergie entre elles, et qui peut être décrite de manière probabiliste, la théorie de l'information peut être appliquée avec succès. pour expliquer les résultats de la thermodynamique. La théorie qui en résulte est connue sous le nom de mécanique statistique .

Un concept important en mécanique statistique est l'idée de micro-état et de macro-état d'un système. Si nous avons un conteneur de gaz, par exemple, et que nous connaissons la position et la vitesse de chaque molécule dans ce système, alors nous connaissons le micro-état de ce système. Si nous ne connaissons que la description thermodynamique de ce système, la pression, le volume, la température et / ou l'entropie, alors nous connaissons le macrostate de ce système. Ce que Boltzmann a réalisé, c'est qu'il existe de nombreux micro-états différents qui peuvent produire le même macrostate, et, parce que les particules entrent en collision les unes avec les autres et changent de vitesse et de position, le micro-état du gaz est toujours en train de changer. Mais si le gaz est en équilibre, il ne semble pas y avoir de changement dans son comportement macroscopique: aucun changement de pression, de température, etc. La mécanique statistique relie l'entropie thermodynamique d'un macrostat au nombre de micro-états qui pourraient donner ce macrostat. En mécanique statistique, l'entropie du système est donnée par la célèbre équation de Ludwig Boltzmann:

S est l'entropie thermodynamique, W est le nombre de micro-états qui peuvent donner le macrostate, et est la constante de Boltzmann . Le logarithme naturel du nombre de micro-états ( ) est connu comme l' entropie d'information du système. Cela peut être illustré par un exemple simple:

Si vous retournez deux pièces, vous pouvez avoir quatre résultats différents. Si H est des têtes et T est des queues, nous pouvons avoir ( H , H ), ( H , T ), ( T , H ) et ( T , T ). Nous pouvons appeler chacun de ceux-ci un «micro-état» pour lequel nous connaissons exactement les résultats du processus. Mais que faire si nous avons moins d'informations? Supposons que nous connaissions uniquement le nombre total de têtes ?. Cela peut être 0, 1 ou 2. Nous pouvons appeler ces "macrostats". Seul le micro-état ( T , T ) donnera le macrostate zéro, ( H , T ) et ( T , H ) donneront le macrostate 1, et seul ( H , H ) donnera le macrostate 2. On peut donc dire que l'entropie d'information des macrostats 0 et 2 sont ln (1) qui est nul, mais l'entropie d'information du macrostat 1 est ln (2) qui est d'environ 0,69. De tous les micro-États, le macrostate 1 en représente la moitié.

Il s'avère que si vous retournez un grand nombre de pièces de monnaie, les macrostats à ou près de la moitié de la tête et de la moitié de la queue représentent presque tous les micro-états. En d'autres termes, pour un million de pièces, vous pouvez être à peu près sûr qu'environ la moitié sera face et la moitié de la queue. Les macrostats autour d'un rapport de 50 à 50 têtes / queues seront le macrostate «d'équilibre». Un vrai système physique en équilibre a un grand nombre de micro-états possibles et presque tous sont le macro-état d'équilibre, et c'est le macrostate que vous verrez presque certainement si vous attendez assez longtemps. Dans l'exemple de la pièce, si vous commencez avec un macrostat très improbable (comme toutes les têtes, par exemple avec une entropie nulle) et que vous commencez à lancer une pièce à la fois, l'entropie du macrostat commencera à augmenter, tout comme l'entropie thermodynamique, et après un certain temps, les pièces de monnaie seront probablement égales ou proches de ce macrostate 50–50, qui a la plus grande entropie d'information - l'entropie d'équilibre.

Le macrostat d'un système est ce que nous savons du système, par exemple la température , la pression et le volume d'un gaz dans une boîte. Pour chaque ensemble de valeurs de température, de pression et de volume, il existe de nombreux arrangements de molécules qui aboutissent à ces valeurs. Le nombre d'arrangements de molécules qui pourraient donner les mêmes valeurs de température, de pression et de volume est le nombre de micro-états.

Le concept d'entropie de l'information a été développé pour décrire l'un de plusieurs phénomènes, selon le domaine et le contexte dans lequel il est utilisé. Lorsqu'elle est appliquée au problème d'un grand nombre de particules en interaction, avec d'autres contraintes, comme la conservation de l'énergie, et l'hypothèse que tous les micro-états sont également probables, la théorie résultante de la mécanique statistique réussit extrêmement bien à expliquer les lois. de la thermodynamique .

La fonte de la glace fournit un exemple d' augmentation de l'entropie

Exemple d'entropie croissante

La fonte de la glace fournit un exemple dans lequel l'entropie augmente dans un petit système, un système thermodynamique composé de l'environnement (la pièce chaude) et de l'entité de récipient en verre, de glace et d'eau qui a pu atteindre l'équilibre thermodynamique à la température de fusion de la glace. . Dans ce système, une partie de la chaleur ( δQ ) de l'environnement plus chaud à 298 K (25 ° C; 77 ° F) est transférée au système plus froid de glace et d'eau à sa température constante ( T ) de 273 K (0 ° C; 32 ° F), la température de fusion de la glace. L'entropie du système, qui est δ Q / T , augmente de δ Q / 273 K . La chaleur δ Q pour ce processus est l'énergie nécessaire pour faire passer l'eau de l'état solide à l'état liquide, et est appelée enthalpie de fusion , c'est-à-dire Δ H pour la fusion de glace.

Il est important de réaliser que l'entropie de la pièce environnante diminue moins que l'entropie de la glace et l'eau augmente: la température ambiante de 298 K est supérieure à 273 K et donc le rapport, (changement d'entropie), de δ Q / 298 K car l'environnement est plus petit que le rapport (changement d'entropie), de δ Q / 273 K pour le système de glace et d'eau. Ceci est toujours vrai dans les événements spontanés dans un système thermodynamique et cela montre l'importance prédictive de l'entropie: l'entropie nette finale après un tel événement est toujours plus grande que ne l'était l'entropie initiale.

Au fur et à mesure que la température de l'eau fraîche atteint celle de la pièce et que la pièce se refroidit encore imperceptiblement, la somme des δ Q / T sur la plage continue, «à de nombreux incréments», de l'eau initialement froide à finalement chaude peut être trouvée par calcul. L'ensemble de «l'univers» miniature, c'est-à-dire ce système thermodynamique, a augmenté en entropie. L'énergie est devenue spontanément plus dispersée et plus répandue dans cet «univers» que lorsque le verre de glace et d'eau a été introduit et est devenu un «système» en son sein.

Origines et usages

À l'origine, l'entropie a été nommée pour décrire la «chaleur perdue», ou plus précisément la perte d'énergie, des moteurs thermiques et autres dispositifs mécaniques qui ne pourraient jamais fonctionner avec une efficacité de 100% pour convertir l'énergie en travail. Plus tard, le terme a acquis plusieurs descriptions supplémentaires, au fur et à mesure que l'on en comprenait davantage sur le comportement des molécules au niveau microscopique. À la fin du 19e siècle, le mot «trouble» a été utilisé par Ludwig Boltzmann pour développer des vues statistiques de l'entropie en utilisant la théorie des probabilités pour décrire l'augmentation du mouvement moléculaire au niveau microscopique. C'était avant que le comportement quantique ne soit mieux compris par Werner Heisenberg et ceux qui ont suivi. Les descriptions de l'entropie thermodynamique (thermique) au niveau microscopique se trouvent dans la thermodynamique statistique et la mécanique statistique .

Pendant la majeure partie du 20e siècle, les manuels ont eu tendance à décrire l'entropie comme un «désordre», suivant la conceptualisation précoce de Boltzmann de l'énergie «motionnelle» (c'est-à-dire cinétique) des molécules. Plus récemment, il y a eu une tendance dans les manuels de chimie et de physique à décrire l' entropie comme une dispersion d'énergie . L'entropie peut également impliquer la dispersion de particules, elles-mêmes énergétiques. Ainsi, il y a des cas où les particules et l'énergie se dispersent à des vitesses différentes lorsque des substances sont mélangées ensemble.

Les mathématiques développées en thermodynamique statistique se sont avérées applicables dans d'autres disciplines. En particulier, les sciences de l'information ont développé le concept d' entropie de l' information , qui n'a pas la constante de Boltzmann inhérente à l'entropie thermodynamique.

Calcul classique de l'entropie

Lorsque le mot `` entropie '' a été défini et utilisé pour la première fois en 1865, l'existence même des atomes était encore controversée, même si l'on avait longtemps supposé que la température était due au mouvement de constituants microscopiques et que la "chaleur" était le transfert de ce mouvement. d'un endroit à un autre. Le changement d'entropie , a été décrit en termes macroscopiques pouvant être directement mesurés, tels que le volume, la température ou la pression. Cependant, aujourd'hui l'équation classique de l'entropie, peut être expliquée, partie par partie, en termes modernes décrivant comment les molécules sont responsables de ce qui se passe:

  • est le changement d'entropie d'un système (une substance physique d'intérêt) après qu'une certaine énergie motrice («chaleur») lui a été transférée par des molécules en mouvement rapide. Ainsi, .
  • Ensuite, le quotient de l'énergie motrice («chaleur») q qui est transférée «réversiblement» (tr) au système à partir de l'environnement (ou d'un autre système en contact avec le premier système) divisé par T, la température absolue à auquel le transfert a lieu.
    • «Réversible» ou «réversible» (rev) signifie simplement que T, la température du système, doit rester (presque) exactement la même pendant que toute énergie est transférée vers ou depuis celui-ci. C'est facile dans le cas de changements de phase, où le système doit absolument rester sous forme solide ou liquide jusqu'à ce que suffisamment d'énergie lui soit donnée pour rompre les liaisons entre les molécules avant de pouvoir se transformer en liquide ou en gaz. Par exemple, lors de la fonte de la glace à 273,15 K, quelle que soit la température ambiante - de 273,20 K à 500 K ou même plus, la température de la glace restera à 273,15 K jusqu'à ce que les dernières molécules de la glace soient changées en de l'eau liquide, c'est-à-dire jusqu'à ce que toutes les liaisons hydrogène entre les molécules d'eau de la glace soient rompues et que de nouvelles liaisons hydrogène fixées moins exactement entre les molécules d'eau liquide soient formées. Cette quantité d'énergie nécessaire à la fonte de la glace par mole s'est avérée être de 6008 joules à 273 K. Par conséquent, le changement d'entropie par mole est de 22 J / K.
    • Lorsque la température n'est pas au point de fusion ou d'ébullition d'une substance, aucune rupture de liaison intermoléculaire n'est possible, et ainsi toute énergie moléculaire motionnelle («chaleur») de l'environnement transférée à un système augmente sa température, ce qui fait que ses molécules se déplacent plus rapidement et plus vite. Comme la température augmente constamment, il n'y a plus de valeur particulière de «T» à laquelle l'énergie est transférée. Cependant, un transfert d'énergie «réversible» peut être mesuré à une très faible augmentation de température, et un total cumulatif peut être trouvé en ajoutant chacun des nombreux petits intervalles ou incréments de température. Par exemple, pour trouver le changement d'entropie de 300 K à 310 K, mesurez la quantité d'énergie transférée à des dizaines ou des centaines d'incréments de température, disons de 300,00 K à 300,01 K, puis de 300,01 à 300,02 et ainsi de suite, en divisant le q par chaque T, et enfin les ajouter tous.
    • Le calcul peut être utilisé pour faciliter ce calcul si l'effet de l'apport d'énergie au système dépend linéairement du changement de température, comme dans le cas d'un simple chauffage d'un système à des températures modérées à relativement élevées. Ainsi, l'énergie transférée «par changement incrémentiel de température» (la capacité calorifique, ), multipliée par l' intégrale de de à , est directement donnée par .

Explications alternatives de l'entropie

Entropie thermodynamique

  • Une mesure de l'énergie indisponible pour le travail : il s'agit d'une phrase souvent répétée qui, bien qu'elle soit vraie, nécessite une clarification considérable pour être comprise. Ce n'est pas vrai sauf pour les processus cycliques réversibles et est en ce sens trompeur. Par «travail», on entend déplacer un objet, par exemple, soulever un poids, ou amener un volant d'inertie à la vitesse, ou porter une charge sur une colline. Afin de convertir la chaleur en travail, en utilisant une machine à vapeur au charbon, par exemple, il faut avoir deux systèmes à des températures différentes, et la quantité de travail que vous pouvez extraire dépend de l'ampleur de la différence de température et de la taille des systèmes. sont. Si l'un des systèmes est à température ambiante et que l'autre système est beaucoup plus grand et à une température quasi nulle, alors presque TOUTE l'énergie du système à température ambiante peut être convertie en travail. S'ils sont tous les deux à la même température ambiante, AUCUNE de l'énergie du système de température ambiante ne peut être convertie en travail. L'entropie est alors une mesure de la quantité d'énergie qui ne peut pas être convertie en travail, dans ces conditions. Plus précisément, pour un système isolé comprenant deux systèmes fermés à des températures différentes, en train d'atteindre l'équilibre, la quantité d'entropie perdue par le système chaud, multipliée par la température du système chaud, est la quantité d'énergie qui ne peut pas être convertie en travail .
  • Un indicateur d'irréversibilité : l'interprétation de l'`` irréversibilité '' est étroitement liée à l'interprétation de «l'indisponibilité d'énergie». Les processus thermodynamiques spontanés sont irréversibles, en ce sens qu'ils ne se défont pas spontanément. Les processus thermodynamiques imposés artificiellement par des agents dans l'environnement d'un corps ont également des effets irréversibles sur le corps. Par exemple, lorsque James Prescott Joule a utilisé un appareil qui a fourni une quantité mesurée de travail mécanique de l'environnement à travers une palette qui remuait un plan d'eau, l'énergie transférée était reçue par l'eau sous forme de chaleur. Il y avait une faible expansion de l'eau faisant un travail thermodynamique sur les environs. Le plan d'eau n'a montré aucun signe de retour de l'énergie en remuant la palette en sens inverse. Le transfert de travail se présentait sous forme de chaleur et n'était pas récupérable sans un réservoir convenablement froid dans les environs. L'entropie rend compte précisément de cette irréversibilité.
  • Dispersion : Edward A. Guggenheim a proposé une interprétation de langage ordinaire de l'entropie qui peut être rendue comme «la dispersion des modes de mouvement microscopique dans leur gamme accessible». Plus tard, avec une critique de l'idée d'entropie comme «désordre», l'interprétation de dispersion a été préconisée par Frank L. Lambert et est utilisée dans certains manuels d'étudiants.
L'interprétation fait correctement référence à la dispersion dans des espaces microétats abstraits, mais elle peut être vaguement visualisée dans quelques exemples simples de propagation spatiale de la matière ou de l'énergie. Si une cloison est supprimée entre deux gaz différents, les molécules de chaque gaz se dispersent spontanément le plus largement possible dans leurs volumes respectivement nouvellement accessibles; cela peut être considéré comme un mélange. Si une cloison, qui bloque le transfert de chaleur entre deux corps de températures différentes, est supprimée afin que la chaleur puisse passer entre les corps, l'énergie se disperse ou se propage spontanément sous forme de chaleur du plus chaud au plus froid.
Au-delà de ces visualisations lâches, dans un processus thermodynamique général, considéré au microscope, la dispersion spontanée se produit dans un espace de phase microscopique abstrait . Selon les lois de Newton et d'autres lois du mouvement, l'espace des phases fournit un schéma systématique pour la description de la diversité du mouvement microscopique qui se produit dans les corps de matière et de rayonnement. La deuxième loi de la thermodynamique peut être considérée comme expliquant quantitativement les interactions intimes, la dispersion ou le mélange de tels mouvements microscopiques. En d'autres termes, l'entropie peut être considérée comme la mesure de l'étendue de la diversité des mouvements des constituants microscopiques des corps de matière et du rayonnement dans leurs propres états d'équilibre thermodynamique interne.


Entropie de l'information et mécanique statistique

  • En tant que mesure du désordre : Traditionnellement, les manuels du XXe siècle ont introduit l' entropie comme ordre et désordre afin qu'elle fournisse «une mesure du désordre ou du caractère aléatoire d'un système». Il a été avancé que les ambiguïtés et les interprétations arbitraires des termes utilisés (tels que «désordre» et «chaos») contribuent à une confusion généralisée et peuvent entraver la compréhension de l'entropie pour la plupart des élèves. D'un autre côté, dans une interprétation commode quoique arbitraire, le «désordre» peut être défini avec précision comme l' entropie de Shannon de la distribution de probabilité des micro-états étant donné un macrostat particulier, auquel cas la connexion du «désordre» à l'entropie thermodynamique est simple, mais arbitraire et pas immédiatement évident pour quiconque ne connaît pas la théorie de l'information.
  • Information manquante : L'idée que l'entropie de l'information est une mesure de ce que l'on ne sait pas sur un système est très utile. Malheureusement, cependant, il donne un aperçu moins intuitif du concept physique de l'entropie thermodynamique que d'autres approches pour comprendre l'entropie.
Si, au lieu d'utiliser le logarithme naturel pour définir l'entropie de l'information, nous utilisons à la place le logarithme de base 2, alors l'entropie de l'information est égale au nombre moyen de questions oui-non (soigneusement choisies) que nous aurions à poser pour être complet des informations sur le système avec lequel nous traitons. Dans l'exemple introductif de deux pièces retournées, l'entropie d'information pour le macrostat qui contient une tête et une queue, nous n'aurions besoin que d'une question pour déterminer son état exact, (par exemple, est-ce que la première est en tête? ") Et au lieu d'exprimer le entropie comme ln (2), nous pourrions dire, de manière équivalente, que c'est Log 2 (2) qui équivaut au nombre de questions que nous aurions besoin de se poser: Un. Lors de la mesure de l'entropie en utilisant le logarithme népérien (ln), l'unité d'entropie d'information est appelé un "nat", mais quand il est mesuré en utilisant le logarithme de base 2, l'unité d'entropie d'information est appelée un "bit". Il s'agit simplement d'une différence d'unités, un peu comme la différence entre les pouces et les centimètres.
Les concepts de «désordre» et de «diffusion» peuvent être analysés avec ce concept d'entropie d'information à l'esprit. Par exemple, si nous sortons un nouveau jeu de cartes de la boîte, il est rangé dans «l'ordre parfait» (pique, cœur, carreau, trèfle, chaque couleur commençant par l'as et se terminant par le roi), on peut dire que on a alors un deck "ordonné" avec une entropie d'information de zéro. Si nous mélangeons soigneusement le jeu, l'entropie d'information sera d'environ 225,6 bits: nous devrons poser environ 225,6 questions, en moyenne, pour déterminer l'ordre exact du jeu mélangé. On peut aussi dire que le paquet mélangé est devenu complètement «désordonné» ou que les cartes commandées ont été «étalées» dans tout le paquet. Mais l'entropie de l'information ne dit pas que le jeu doit être commandé d'une manière particulière. Si nous prenons notre jeu mélangé et notons les noms des cartes, dans l'ordre, alors l'entropie d'information devient nulle. Si nous mélangions à nouveau le jeu, l'entropie de l'information serait à nouveau d'environ 225,6 bits, même si par miracle elle était remaniée dans le même ordre qu'à sa sortie de la boîte, car même si c'était le cas, nous ne le saurions pas. Le concept de «désordre» est donc utile si, par ordre, nous entendons une connaissance maximale et par désordre, nous entendons un manque maximal de connaissances. Le concept de «diffusion» est utile car il donne une idée de ce qui arrive aux cartes quand elles sont mélangées. La probabilité qu'une carte se trouve à un endroit particulier dans un jeu ordonné est de 0 ou 1, dans un jeu mélangé, elle est de 1/52. La probabilité s'est "étalée" sur l'ensemble du pont. De manière analogue, dans un système physique, l'entropie est généralement associée à un «étalement» de masse ou d'énergie.
La connexion entre l' entropie thermodynamique et de l' entropie de l' information est donnée par l'équation de Boltzmann, qui dit que S = k B ln W . Si nous prenons le logarithme en base 2 de W , cela donnera le nombre moyen de questions que nous devons nous poser sur le micro-état du système physique afin de déterminer son macro-état.

Voir également

Les références

Lectures complémentaires