Overblog Tous les blogs Top blogs Entreprenariat Tous les blogs Entreprenariat
Editer l'article Suivre ce blog Administration + Créer mon blog
MENU

En droit pénal français, le délit de harcèlement est défini comme une conduite abusive systématique qui porte atteinte à la dignité.

19 Jan

Les premières supernovas ont inondé l’Univers primitif d’eau

Publié par bazenet / MSN  - Catégories :  #dynamique

supernova

L’eau est essentielle à la vie telle que nous la connaissons. Chaque être vivant, de la bactérie à l’humain, dépend de cette molécule simple composée d’oxygène et d’hydrogène. Sur Terre, elle façonne les écosystèmes et soutient la biosphère. Toutefois, au-delà de notre planète, l’eau raconte une histoire beaucoup plus vaste. Une étude récente révèle en effet que les premières étoiles de l’Univers pourraient avoir joué un rôle clé dans la formation des premières molécules d’eau bien plus tôt qu’on ne le pensait.

 

Les origines de l’eau

L’eau n’est pas seulement commune sur Terre. Elle possède des propriétés uniques qui la rendent indispensable à la vie. En effet, sa capacité à dissoudre une grande variété de substances en fait un solvant universel idéal pour les processus biologiques.

Sa structure simple (H₂O) repose sur deux des éléments les plus abondants de l’Univers : l’hydrogène et l’oxygène. L’hydrogène, le plus léger et le plus abondant des éléments, s’est formé peu après le Big Bang, il y a environ 13,8 milliards d’années. L’oxygène est en revanche le produit des étoiles de Population III, les toutes premières formées dans l’Univers primitif. Lorsqu’elles arrivaient en fin de vie, ces étoiles explosaient en supernova et dispersaient des éléments comme l’oxygène dans l’espace interstellaire. Mais quand et comment ces deux éléments produits dans des contextes si différents se sont-ils combinés pour former de l’eau dans l’Univers primitif où les conditions semblaient encore hostiles ?

amas étoiles eau
Un amas dense d’étoiles brillantes, chacune avec six grands et deux petits pics de diffraction, dus à l’optique du télescope. Crédits : ESA/Webb, NASA & CSA, M.Zamani (ESA/Webb), MG Guarcello (INAF-OAPA) et l’équipe EWOCS

Une découverte importante

Une étude récente apporte un éclairage fascinant sur ce processus. Des scientifiques ont modélisé les explosions des étoiles de Population III ainsi que celles des premières étoiles de Population II. Les résultats montrent que ces étoiles auraient enrichi leur environnement en eau bien plus qu’on ne le pensait. Formés à partir des restes stellaires, les nuages moléculaires contenaient jusqu’à trente fois plus d’eau que les nuages moléculaires actuels de notre galaxie. Ces conclusions suggèrent qu’à peine 100 à 200 millions d’années après le Big Bang, l’Univers primitif était déjà riche en eau.

Cependant, tout ne s’est pas déroulé sans encombre. Les premières époques de l’Univers étaient marquées par des processus violents, comme l’ionisation due aux rayonnements intenses, qui ont probablement détruit une grande partie des molécules d’eau présentes. L’Univers primitif aurait ainsi connu des cycles d’abondance et de disparition de l’eau avant que les générations d’étoiles suivantes n’enrichissent à nouveau l’espace interstellaire. Aujourd’hui, une partie de l’eau que nous trouvons sur Terre et ailleurs dans le Système solaire pourrait ainsi provenir de ces premières époques stellaires. Cela signifie que chaque goutte d’eau que nous utilisons pourrait contenir des atomes forgés dans les toutes premières étoiles de l’Univers.

Cette abondance précoce pose également une question fascinante : la vie aurait-elle pu émerger si tôt dans l’histoire cosmique ? Bien que cette hypothèse soit encore loin d’être prouvée, elle ouvre de nouvelles perspectives sur les conditions initiales de la vie dans l’Univers.

Entropie : cette force invisible qui sème le chaos dans l’Univers

L’entropie est un concept fondamental en thermodynamique qui mesure la tendance d’un système à évoluer vers un état plus désordonné. Plus précisément, c’est une mesure quantitative du désordre ou du chaos d’un système, mais de quoi parle-t-on précisément ?

 

Les lois de la thermodynamique

La thermodynamique est une branche de la physique qui étudie les relations entre la chaleur, le travail et d’autres formes d’énergie dans un système. En thermodynamique, le travail fait référence à la manière dont l’énergie est transférée d’un système à son environnement ou vice versa sous forme de force appliquée sur une certaine distance. Cette branche de la physique fournit surtout un cadre pour comprendre le comportement des systèmes macroscopiques, tels que les gaz, les liquides et les solides, à travers des principes fondamentaux.

Deux lois majeures gouvernent la thermodynamique. La première, souvent appelée « loi de la conservation de l’énergie », énonce que l’énergie totale d’un système isolé reste constante. Elle ne peut ni être créée ni détruite, mais elle peut changer de forme. Par exemple, l’énergie thermique peut se transformer en énergie mécanique et vice versa. Cette loi établit le principe fondamental de la conservation de l’énergie, fournissant une base pour comprendre comment l’énergie se comporte dans divers processus.

La deuxième loi de la thermodynamique introduit de son côté le concept d’entropie, une mesure du désordre ou de la dispersion de l’énergie thermique dans un système. Contrairement à la première loi, la deuxième loi implique une direction préférentielle des processus. Elle stipule que dans un système isolé, l’entropie a tendance à augmenter avec le temps. Lorsque l’entropie augmente, l’énergie thermique se disperse davantage, faisant évoluer le système vers des états plus désordonnés.

Les systèmes naturels changent avec le temps

Plusieurs exemples de la vie quotidienne permettent de mieux appréhender le principe. Imaginez par exemple un glaçon dans un verre d’eau à température ambiante. Lorsque le glaçon fond, la glace passe d’un état ordonné à un état liquide désordonné, augmentant ainsi l’entropie du système.

De même, un ballon gonflé contient de l’air sous pression. Lorsque vous relâchez l’air du ballon, la pression diminue et l’air se disperse dans l’environnement, augmentant l’entropie du système. Un autre exemple intervient lorsque vous remuez une tasse de café avec une cuillère. Les différentes couches de liquide se mélangent alors, augmentant ainsi l’entropie du système en répartissant la chaleur et les composants du café de manière plus uniforme.

À notre échelle, bien que le concept puisse sembler abstrait, il a des implications profondes pour notre compréhension de l’évolution du monde qui nous entoure. En utilisant l’entropie, les scientifiques peuvent en effet mieux comprendre comment les systèmes naturels changent avec le temps. Cela s’applique à une gamme de domaines, de la manière dont les molécules interagissent dans une tasse de café à la façon dont les organismes évoluent dans la nature.

La mort thermique

Dans l’évolution de l’Univers, la deuxième loi de la thermodynamique s’applique également. Imaginez l’Univers comme un gigantesque système en perpétuelle expansion. Pour rappel, la deuxième loi de la thermodynamique nous dit que dans un système isolé, l’entropie (ou le désordre) a tendance à augmenter avec le temps. Ainsi, au fur et à mesure, on observe ici une augmentation globale de l’espace et de la quantité de matière qui le compose. Cela signifie qu’il y a plus de possibilités pour la disposition des particules, des galaxies et des énergies dans cet espace en expansion. Comme l’espace disponible augmente, l’entropie de l’Univers augmente également, car les particules se dispersent dans un plus grand volume.

On postule que l’Univers finira par atteindre un état maximal d’entropie, appelé la « mort thermique ». À ce stade, toutes les différences de température entre les objets ainsi que tout mouvement moléculaire significatif disparaîtront pratiquement. Dans une salle remplie de particules en mouvement, il pourrait y avoir au début des zones plus chaudes et plus froides, représentant une certaine organisation. Cependant, avec le temps, ces différences de température s’estompent à mesure que les particules se dispersent uniformément dans la salle, atteignant finalement un équilibre thermique où la température est la même partout.

De manière analogue, dans le cosmos, la « mort thermique » suggère donc un état ultime où toutes les différences de température entre les différentes régions de l’espace seront nivelées et tout mouvement moléculaire significatif cessera. Cela représenterait un état d’entropie maximale où l’Univers atteint son niveau le plus élevé de désordre thermique.

Il est important de noter que la « mort thermique » n’implique pas la disparition immédiate de la matière, mais plutôt une sorte d’équilibre où l’énergie disponible est uniformément répartie, sans plus de mouvement significatif.

Machine à vapeur

Au XVIIIe siècle, l'énergie thermique est déjà transformée en énergie mécanique dans les machines à vapeur sans que l'on sache à l'époque expliquer cette relation. (©photo)

L'entropie est une mesure de l'incertitude ou du désordre dans un système, quantifiant le nombre de configurations possibles que le système peut adopter. En thermodynamique, elle est souvent associée à la quantité d'énergie inutilisable dans un système, augmentant généralement au fil du temps, conformément au second principe de la thermodynamique.

Définition

L’entropie caractérise l’aptitude de l’énergie contenue dans un système à fournir du travail, et donc également son incapacité à le faire : plus cette grandeur est élevée, plus l’énergie est dispersée, homogénéisée et donc moins utilisable (pour produire des effets mécaniques organisés). 

Elle définit l’état d’un système thermodynamique, c'est-à-dire d’un ensemble matériel délimité capable d’échanger de la chaleur et du travail avec le milieu extérieur. Plus généralement, toute transformation d’un système thermodynamique au contact d’un milieu extérieur s’effectue avec une croissance du bilan entropique global. Si une injection d’énergie organisée abaisse l’entropie propre du système, elle est compensée par une augmentation entropique supérieure du milieu extérieur.

Lorsqu’un système thermodynamique est isolé sans échange possible avec l’extérieur, il ne peut qu’évoluer spontanément vers le maximum de son entropie pour tendre vers un état d’équilibre définitif (2e principe) alors que son énergie interne reste conservée (1er principe).

L’entropie est la dernière et la plus mystérieuse des cinq grandeurs physiques, à savoir la température, la pression, le volume, l'énergie interne et l'entropie.

Découverte et notions physiques

La notion d’entropie a été introduite par Rudolf Clausius en 1865. Il avait entrepris d’intégrer dans une nouvelle discipline, la thermodynamique, l’ensemble des progrès faits en physique de la chaleur(1).

Clausius s’attaqua à la traduction mathématique de l’équivalence chaleur-travail de Joule (W=JQ). Grâce à la machine à vapeur, on savait quantifier le travail mécanique d’un gaz poussant un piston dans un cylindre à pression constante (∆ W = p ∆ V) mais cette relation n’avait pas encore été transposée à son équivalent, la chaleur.

Clausius, assimilant la température à une pression, proposa alors par analogie la relation ∆Q=T ∆S, S étant une grandeur d’état additive (extensive) nouvelle qu’il baptisa entropie (« transformation » en grec), son accroissement s’exprimant en Joules par degrés Kelvin (J/K).

A la lumière du second principe imposant à la chaleur d’aller toujours du chaud vers le froid, la variation d’entropie s’est alors révélée être la grandeur traduisant le sens de toute transformation irréversible d’un système thermodynamique par l’inéquation ∆S≥0. Mais à ce stade l’entropie macroscopique restait une abstraction, son sens physique restant une énigme.

Clausius établit que la chaleur est un phénomène mécanique dû au mouvement des particules (molécules) et la température une mesure de leur agitation. Simultanément, Maxwell, appliquant à la physique des particules les nouvelles méthodes de l’analyse statistique, parvint à retrouver la plupart des résultats macroscopiques de la thermodynamique, en particulier la loi des gaz parfaits. Mais à l’échelle microscopique, ils ne purent mettre en évidence d’irréversibilités pouvant expliquer le deuxième principe et où se cachait l’entropie.

Ce fut Boltzmann qui découvrit en 1873 que la fonction de distribution statistique des positions et des vitesses des molécules obéissait à une évolution irréversible : pour un même état macroscopique (volume V, énergie interne U), constitué déjà d’un nombre gigantesque de particules (>1023 dans une seule mole de gaz parfait), il existe un nombre Ω de distributions possibles des positions et des vitesses encore beaucoup plus « immensément grand ».

Or la probabilité des « équirépartis » dans tous les états possibles croît mathématiquement avec leur nombre au détriment des autres. À l’échelle microscopique, ces états Ω équirépartis sont si dominants en nombre et en temps d’occupation qu’ils constituent l’état d’équilibre macroscopique le plus probable vers lequel, par agitation thermique, le système a tendance à évoluer spontanément. Le ressort probabiliste du second principe qui pousse le chaud vers le froid était découvert. Boltzmann a alors lié l’entropie d’un système au nombre Ω par la relation :

S = K.log Ω  où K est la constante de Boltzmann (1,38110.10-23)

On retrouve que plus les particules d’un système sont, en positions et en vitesses, dispersées de façon homogène entre leurs Ω états possibles, plus l’entropie de ce système est grande et sa capacité à fournir du travail limitée.

En 1904, le troisième principe (Nernst) stipulait que l’entropie est nulle au zéro absolu puisqu’un ordre parfait y règne, la dotant ainsi d’une échelle de mesure absolue

 
 
Néguentropie

L’entropie caractérise l’incapacité de l’énergie contenue dans un système à fournir du travail. Qu'en est-il de la néguentropie ? (©photo)

Définition

La néguentropie, ou entropie négative, est une mesure de l'ordre et de l'organisation dans un système, opposée à l'entropie qui mesure le désordre. Elle représente l'énergie utile et structurée disponible dans un système pour effectuer du travail, souvent utilisée pour décrire la capacité d'un organisme à maintenir son ordre interne face à l'entropie croissante de l'univers.

La néguentropie donne de l’énergie contenue dans un système thermodynamique. Elle est l’opposée de l’entropie : N= -S. Dans la relation de Boltzmann, la néguentropie devient  N=-K log Ω= K log1 /Ω, c'est-à-dire la probabilité complémentaire de l’entropie S.

Elle mesure non plus le désordre de l'énergie mais son organisation et son aptitude à l’autostructuration.

Histoire

A la fin du XIXe siècle, les physiciens « mécanistes » mettent en doute la dispersion entropique inexorable affirmée par le second principe(1) et particulièrement son ressort probabiliste(2).

Une expérience de pensée dite du « Démon de Maxwell » (1876) cristallise les oppositions : une cloison étanche vient compartimenter un volume isolé de gaz en équilibre thermodynamique. Elle est percée d’un opercule actionnable par un « démon » capable de l’ouvrir ou de la fermer selon que les molécules qui viennent le frapper sont rapides ou lentes. Progressivement, un compartiment se réchauffe, l’autre refroidit. L’entropie de l’ensemble, bien qu’isolé, diminue. 

« Le deuxième principe est violé » soutiennent alors les mécanistes mais « qui fournit son énergie au démon néguentrope ? » objectent les thermodynamiciens. La polémique est rapidement éclipsée par les révolutions relativistes, quantiques et nucléaires qui marginalisèrent la mécanique classique mais intégrèrent la thermodynamique(3)

Survient la Deuxième Guerre mondiale. La bataille de l’information va tourner à l’avantage des Alliés, leurs mathématiciens parvenant à protéger leurs réseaux et à briser les codes ennemis. L’un d’eux, C. Shannon, à peine démobilisé des Bell Labs (États-Unis), synthétise mathématiquement l’expérience pratique accumulée(4). Il quantifie la valeur d’une information comme l’inverse de sa probabilité d’apparition et définit son entropie mathématique comme l’incertitude affectant sa réception par un observateur.

Puis Léon Brillouin, physicien quantique français qui a lui aussi travaillé aux Bell Labs pendant la Guerre, va transposer à la physique l’approche mathématique de Shannon(5). Il fait de l’information une grandeur physique mesurable en fusionnant les concepts d’entropie de l’information et d’entropie thermodynamique. Il baptise « néguentropie » la quantité d’information qui permet de structurer les systèmes physiques en évacuant leur entropie. Enfin, il exorcise définitivement le démon de Maxwell en montrant que l’information qui lui est nécessaire pour trier les molécules correspond à un apport d’énergie dont le bilan global est conforme au 2e principe. Brillouin a donc apporté à la physique une quatrième grandeur : l’Information, aux côtés de l’espace-temps, la masse et l’énergie. Électronicien, il a aussi vu que l’ordinateur, en temps que structurant de l’information, était le néguentrope qui allait jouer un rôle capital dans l’émergence de la société numérique du XXIe siècle.

Simultanément, E.Shrödinger, autre génie quantique, ouvre un nouveau front : la thermodynamique du vivant(6). Il suggère que les systèmes vitaux doivent être compris comme des processus autoreproducteurs se maintenant hors d’équilibre en métabolisant le flux d’énergie et de matière qui les traverse continument(7). Le métabolisme apparaît ainsi fondamentalement néguentropique. Avec la prise de conscience que partout dans l’univers des systèmes hors d’équilibre auto-organisés naissent et meurent en permanence, la production naturelle et spontanée de néguentropie (autopoïèse) apparait comme la réponse de la nature à la mort entropique

dernière modification le 

Sources / Notes

  1. La notion d’entropie (Marc Halevy, septembre 2010)
  2. Leurs sarcasmes auraient conduit Boltzmann au suicide en 1904.
  3. Pour Einstein, le 2e principe était le plus important de la physique.
  4. The mathematical theory of communication (1948)
  5. Science and information theory (1956)
  6. What’s life (1944)
  7. Alain Delaunay (Encyclopedia Universalis)
  8. Ilya Prigogine, prix Nobel (1974), thermodynamique des systèmes hors d’équilibre.
Commenter cet article

À propos

En droit pénal français, le délit de harcèlement est défini comme une conduite abusive systématique qui porte atteinte à la dignité.