Difference between revisions of "Atelier "Entropie""

From LPTMS Wiki
Jump to: navigation, search
m (Galerie)
m (Galerie)
Line 21: Line 21:
 
== Galerie ==
 
== Galerie ==
 
<div class='wrapper'>
 
<div class='wrapper'>
<gallery mode="packed" widths=500px  perrow=10>
+
<gallery mode="packed" widths=450px heights=300px perrow=10>
 
Image:Entropie2014.jpg
 
Image:Entropie2014.jpg
 
</gallery>
 
</gallery>

Revision as of 17:17, 26 November 2018

vidéo en cliquant sur l'image

La notion d'entropie caractérise le degré de désorganisation du système. Elle est étroitement liée a la notion d'irréversibilité des processus thermodynamiques. Par exemple, les deux objets à des températures différentes, mis en contact, vont atteindre l’équilibre thermique à la même température. La goutte d'encre, placée dans un verre d'eau, va immédiatement commencer à se mélanger à cause de l'agitation thermique. Ces processus décrivent la transformation entre un état ordonné vers un état désordonné. Dans le premier cas on a plus d'information sur le système, dans le deuxième - moins. C'est exactement cette manque d'information qui définie l'entropie.

Irréversibilité

Melting icecubes.gif Melting icecubes reversed.gif

Selon la deuxième loi de la thermodynamique, l'entropie d'un système fermé isolée ne peut que croître. Les processus réciproques, qui consiste à diminuer l'entropie du système, ne sont possibles qu’à condition d'appliquer le travail extérieur, ce qui revient à considérer des systèmes non-isolés. La conséquence de cela est qu'on peut voir la différence nette entre le processus qui va dans le sens direct et le sens réciproque. Ces exemples sont illustrés sur les images animées ci-dessus.

Virus autoassembleurs

Galerie


Accueil

Probabilités

Quantique

Entropie

Chaos

Mouvement Brownien

Foules