BILDO IMAGE D'INFORMATION ET CONNAISSANCE, C'EST MATHÉMATIQUES(fermaton.overblog.com)

Publié le par Clovis Simard

BILDO IMAGE D'INFORMATION ET CONNAISSANCE, C'EST MATHÉMATIQUES(fermaton.overblog.com)

Introduction : Comment parler d’information en physique ?

Le concept d’information se trouve au cœur de la physique actuelle. En physique quantique, le concept d’information constitue le fondement même de l’interprétation minimale incontestée de la notion de vecteur d’état comme outil prédictif contextuel. En effet, selon cette interprétation qui a été explorée en profondeur par M. Bitbol, l’information dont dispose l’observateur sur une situation expérimentale et qui permet le calcul des prédictions est encodée dans le vecteur d’état (ou plus généralement l’opérateur densité) représentatif de sa préparation [Bitbol 1996].

2

En mécanique statistique, classique ou quantique, le concept d’information s’est introduit lorsqu’on a cherché à justifier la loi de croissance monotone de l’entropie d’un système isolé. Certains physiciens ont même été jusqu’à interpréter l’entropie thermodynamique en terme de manque d’information, comme une mesure de notre ignorance de l’état microscopique du système. Selon ce point de vue, qui a été introduit et développé par Szillard, Shannon, Brillouin [Szillard 1929] [Shannon et Weaver 1949] [Brillouin 1956] et développé de façon systématique par Jaynes et, plus récemment, par Balian [Jaynes 1957] [Balian 1982 ; 2005], le second principe de la thermodynamique ne modéliserait que le processus de perte d’information corrélatif de l’évolution d’un système vers son état d’équilibre.

3

Plus généralement, les interprétations informationnelles de la physique, voire les tentatives de reconstruction de la physique d’un point de vue informationnel, ne cessent de se développer et s’avèrent prometteuses, comme nous le montrent plusieurs travaux récents traitant de l’information quantique [Nielsen 1998] [Timpson 2004] [Grinbaum 2004].

4

Cependant, si la place du concept d’« information » en physique semble pleinement acquise, c’est la manière dont ce concept est défini et utilisé qui pose problème. En effet, le concept d’information qui a été adopté en mécanique statistique depuis les travaux de Jaynes [Jaynes 1957] renvoie à ce que connaît ou ce que peut connaître l’observateur. Il s’agit d’un concept d’information-connaissance formulé en terme d’information (ou d’« entropie ») statistique, ce dernier concept étant issu de la théorie de la communication de Shannon et Weaver [Shannon & Weaver 1949]. Le concept d’information statistique a, il est vrai, permis de développer une interprétation cohérente de la thermodynamique en fournissant une justification de la définition de l’entropie thermodynamique introduite par Boltzmann et Gibbs en mécanique statistique. Son succès semble d’ailleurs être pleinement confirmé par la fécondité du postulat d’« entropie » statistique maximale permettant de calculer les distributions d’équilibre d’un système thermodynamique. Ce principe stipule que parmi toutes les distributions statistiques compatibles avec les données expérimentales, on doit représenter le macro-état du système par celle qui correspond à la plus grande valeur de l’entropie statistique —c’est-à-dire par celle qui, tout en étant compatible avec les contraintes macroscopiques, n’introduit aucune autre information-connaissance arbitraire [Jaynes 1957] [Balian 1982; 2005].

5

Mais, à y regarder de près, les succès de la mécanique statistique ne doivent rien à cette sur-interprétation subjectiviste de la notion d’entropie thermodynamique. Par exemple, de nombreuses présentations de la mécanique statistique, comme celles de Reiff, de Hakim ou de Cou-lon et Moreau [Reiff 1965] [Hakim 1996] [Coulon & Moreau 2000], nous montrent que la définition statistique de l’entropie thermodynamique d’un système physique donnée par Boltzmann, en terme de micro-états accessibles, c’est-à-dire compatibles avec les contraintes macroscopiques, ne nécessite en rien d’être identifiée à un manque d’information-connaissance de l’état microscopique de ce système. Cette définition ne requiert a priori aucune interprétation subjectiviste des (densités de) probabilités qu’elle utilise. Ces dernières peuvent toujours, après Boltzmann, être pensées comme des rapports de nombre de configuration physiques compatibles avec les contraintes macroscopiques. Corrélativement, la recherche des distributions d’équilibre ne nécessite en rien de se référer à ce que l’on connaît (ou ce que l’on pourrait connaître) ou pas de l’état microscopique d’un système physique puisque celles-ci peuvent être calculées à partir d’un décompte des configurations microscopiques physiques accessibles (voir, par exemple, [Coulon & Moreau 2000 §2.3.2]). Par conséquent, s’il n’y a, a priori, aucune raison pour identifier l’entropie thermodynamique d’un système physique avec un manque d’information-connaissance de son état microscopique, c’est bien l’idée suggérée par Boltzmann selon laquelle elle constitue une mesure de son organisation intrinsèque (de son « désordre moléculaire ») qu’il nous faut privilégier. C est cette idée qui sera soutenue ici.

6

En outre, l’interprétation subjectiviste de la notion d’entropie thermodynamique semble déboucher sur une impasse conceptuelle : la supposée « équivalence » entre entropie thermodynamique et manque d’information-connaissance, qui mène à l’idée de convertibilité entre néguentropie et information-connaissance, permet de soutenir celle d’un coût entro-pique de l’acquisition d’information-connaissance [Szillard 1929] [Bril-louin 1956] [Costa de Beauregard 1963]. Or, cette dernière idée, qui a été proposée comme solution au célèbre paradoxe du « démon de Maxwell », est aujourd’hui fortement remise en question. Ce débat crucial sera rapporté brièvement dans la section III.1 à partir des textes rassemblés par Leff et Rex [Leff & Rex 2003] et de ses développements plus récents dus à Norton [Norton 2005], Bennett [Bennett 2003] et Shenker [Shenker 2000].

7

Enfin, d’un point de vue plus technique (section III.2), l’utilisation de la notion statistique d’information en physique quantique rencontre très vite d’importantes limites. Il s’agit déjà de sa référence problématique à une notion de mesure qui en fait une grandeur relative à certaines observables particulières. Mais surtout, par le fait que l’information statistique associée à un « état » quantique n’évalue que sa déviation par rapport à la pureté, elle est incapable de donner un sens et, a fortiori, d’évaluer l’« information » encodée dans un état pur alors qu’une telle évaluation s’avère tout à fait essentielle pour le développement des théories de l’information quantique.

8

Cet article se propose donc, dans un premier temps, de mettre en évidence les limites de l’utilisation de la notion statistique d’information en physique. Pour cela, nous commencerons par analyser la façon dont s’est introduit en physique le concept d’information-connaissance (section I), et, plus précisément, celui d’information statistique (section II), avant de mettre en évidence ses limites d’ordre conceptuelle et technique (section III). Puis, dans un deuxième temps, nous montrerons, à partir de la section IV, comment la notion de complexité algorithmique, introduite par Solomonoff, Kolmogorov et Chaitin [Solomonoff 1964] [Kolmogorov 1965] [Chaitin 1977], permet de surmonter ces limitations en proposant une définition structurelle ou organisationnelle de l’« information ». Une telle notion d’information est, en effet, dégagée de tout subjectivisme excessif puisque qu’elle n’évalue pas la connaissance ou le manque de connaissance de l’observateur concernant l’état d’un système physique mais, même si c’est à une certaine « précision » prés (comme c’est en fait le cas pour toute grandeur physique), son organisation intrinsèque. Comme nous le préciserons dans les sections V.2 et VI à partir des recherches de Zurek et Caves [Zurek 1989] [Caves 1990], elle permet de proposer une interprétation structurelle de la notion d’entropie thermodynamique. Enfin, elle peut être utilisée de façon satisfaisante pour évaluer le contenu informationnel d’un « état » quantique pur, ce que ne peut faire la notion statistique d’information —notons que l’application de la théorie de la complexité algorithmique au domaine quantique, qui requiert des précisions conceptuelles et techniques supplémentaires, sera examinée à part, dans la section VI, à partir des recherches récentes de Vitányi, Berthiaume et al., Gács, Mora et Briegel [Vitányi 2001] [Gács 2001] [Berthiaume et al. 2000] [Mora and Briegel 2004].

9

L’introduction de cette notion structurelle d’information en physique permettrait donc d’asseoir sur des bases plus saines et plus fécondes la direction de recherche actuelle qui lie de façon étroite physique et information, tant dans le domaine de la physique statistique (classique et quantique) que celui de la théorie de l’information quantique. Ces développements pourraient, selon nous, constituer les prémisses d’une véritable « thermodynamique de l’information » basée sur le concept d’information structurelle dont la mesure nous est donnée en terme de complexité algorithmique.

I. Le second principe de la thermodynamique et ses interprétations dans le cadre de la mécanique statistique

10

La relation entre physique et information semble s’être nouée lorsqu on a essayé d’interpréter le second principe de la thermodynamique dans le cadre de la mécanique statistique.

  • 1 Nous adoptons ici une formulation standard qui mène directement à l’essentiel de ce qui nous préoc (...)

11

Le second principe de la thermodynamique a une origine purement phénoménologique puisqu’il a été formulé, au XIXe siècle, à partir de l’observation du fonctionnement des machines thermiques. Ses premiers énoncés, relatifs au domaine spécifiquement thermique, sont dus à Clausius (« la chaleur ne passe pas spontanément d’un corps froid sur un corps chaud »), Thomson (« un système en contact avec une seule source de chaleur ne peut, au cours d’un cycle, que recevoir du travail et fournir de la chaleur ») ou Carnot (« si une machine fournit du travail au cours d’un cycle, elle échange nécessairement de la chaleur avec deux sources de températures différentes »). Ces énoncés sont équivalents et peuvent être dérivées d’un énoncé plus général1, de type axiomatique, qui stipule que :

  • 2 Une fonction d’état est une fonction des variables (ou paramètres) macroscopiques qui définissent (...)

12

Pour tout système thermodynamique, ouvert ou fermé, il est possible de définir une fonction d’état S, appelée « entropie »2, qui vérifie les propriétés suivantes : S est une grandeur extensive, et sa variation lors d’une transformation quelconque s’exprime sous la forme d’une somme de deux termes :

∆S = ∆Se + ∆Si,

où ∆Se est un terme algébrique dû aux échanges de chaleur et de matière avec le milieu extérieur. Pour un système fermé recevant une quantité de chaleur δQà la température T constante, ∆Se = δQ /T, alors que ∆Si résulte des modifications internes du système associées à des phénomènes irréversibles.

13

On postule alors que ∆Si > 0, en affirmant que l’irréversibilité interne est source d’entropie.

14

Par conséquent, selon le second principe de la thermodynamique, l’entropie d’un système isolé ne peut qu’augmenter puisque dans ce cas δQ = 0 alors que ∆Si > 0. L’état d’équilibre thermodynamique sera celui pour lequel S est maximale, compte tenu des contraintes imposées au système.

  • 3 Les équations de Hamilton-Jacobi lient les dérivées temporelles des coordonnées généralisées (...)

15

Malheureusement, la notion d’entropie thermodynamique ne peut trouver d’interprétation dans le cadre strict de la mécanique Hamiltonienne. En effet, Henri Poincaré a montré qu’il n’existe aucune fonction S(qj, pi, t) des coordonnées généralisées qj et pi du point représentatif de l’état d’un système dans l’espace des phases et du paramètre temps t qui puisse interpréter la notion d’entropie thermodynamique. Plus exactement, l’évolution thermodynamique d’un système physique, caractérisée par l’existence d’une telle fonction monotone croissante (avec t), est incompatible avec son évolution mécanique qui est régie par les équations de Hamilton-Jacobi3 [Poincaré 1889]. Poincaré a établi ce résultat à partir des lois Hamiltoniennes et de considérations tout à fait générales sur les développements en série entière de l’énergie E(qj, pi, t) et de l’hypothétique fonction entropie S(qj, pi, t) —et sans utiliser « l’objection de réversibilité » de Loschmidt qui traduit l’invariance temporelle des lois de la mécanique.

  • 4 Ce point a été souligné par de nombreux auteurs depuis longtemps —voir, entre autres références, [ (...)

16

On pourrait croire, comme il est souvent dit et écrit un peu rapidement, que l’irréversibilité thermodynamique peut alors être expliquée par la seule utilisation de la mécanique statistique qui procède d’une description probabiliste des systèmes physiques de grande taille établissant un lien entre les grandeurs macroscopiques mesurables et les valeurs moyennes des propriétés de ses constituants microscopiques. Cependant, comme le rappellent les développements ci-dessous, si une interprétation satisfaisante des phénomènes thermodynamiques nécessite effectivement, à cause de la taille macroscopique des systèmes physiques considérés, l’utilisation de la mécanique statistique, c’est toujours par l’introduction d’hypothèses posant au départ de la démonstration l’asymétrie qu’il faut établir et, en outre, au prix d’approximations, que l’irréversibilité trouve une justification.4

1.1. L’hypothèse du chaos moléculaire [Boltzmann 1867, 1872]

17

Historiquement, les premières tentatives pour établir un pont entre mécanique statistique et thermodynamique sont dues à Boltzmann. Pour modéliser l’évolution d’un système à N particules, Boltzmann utilise des fonctions de répartition réduites pμ (p, q, t), où p et q sont les vecteurs quantité de mouvement et position des constituants du gaz, dans l’espace μ « à une particule » où l’ensemble de N particules est représenté par un nuage de Npoints à 6 coordonnées (trois d’espace et trois de quantité de mouvement). C’est-à-dire que le nombre :

ρμ (p, q, t)d3pd3q,

est le nombre moyen de particules se trouvant, à l’instant t, dans le volume élémentaire d3 q centré autour du point q et qui possèdent la quantité de mouvement p à d3 p près.

18

C’est pour évaluer le terme de collision (collisions supposées binaires) entre les molécules d’un gaz parfait, supposé isolé et homogène, que Boltzmann a introduit l’« hypothèse du chaos moléculaire ». Cette hypothèse, que Boltzmann justifie par l’existence de perturbations extérieures (le système ne serait donc pas vraiment « isolé »), postule de façon évidente une asymétrie temporelle [Boltzmann, in Brush 1966] :

(CM) Les molécules ne sont pas corrélées avant d’entrer en collision —alors qu’elles le sont juste après.

19

Formellement, l’hypothèse (CM) implique l’indépendance des nombres de molécules susceptibles d’entrer en collision dans un certain volume à l’instant tet se traduit par la destruction rapide des relations de phase entre états. L’évolution macroscopique est alors modélisée par un processus stochastique (description en termes de probabilités), Markovien (les probabilités de transitions ne dépendent pas des états microscopiques passés) et stationnaire (par l’invariance des équations de la mécanique par translation temporelle). C’est g râce à l’établissement de cette équation cinétique approchée que Boltzmann peut montrer qu’une certaine fonctionnelle, appelée « H » (et que nous nommons HBoitzmann pour la distinguer de celle définie par Gibbs ci-après) :

Agrandir Original (png, 9,4k)

est monotone décroissante jusqu’à l’état d’équilibre thermodynamique, et donc que la grandeur :

SBoltzmann = —kBHBoltzmann,

où kB est la constante de Boltzmann, peut interpréter la notion d’entropie thermodynamique. Notons que cette dernière fonctionnelle « entropie » s’écrit, selon la célèbre formule due à Boltzmann,

SBoltzmann = — kB ln Ω,

où Ω est le nombre de configurations possibles ou d’états physiques « accessibles », dans le cas d’un gaz parfait à l’équilibre (et sous l’hypothèse d’équiprobabilité des états accessibles).

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article