Qu'est-ce que l'information ? La réponse est surprenante.
On dit souvent que nous vivons à l'ère de l'information. Mais qu'est-ce que l'information exactement ? Elle semble être une ressource plus nébuleuse que le fer, la vapeur et d'autres substances clés qui ont alimenté les transformations technologiques. En effet, l'information n'avait pas de signification précise avant les travaux du pionnier de l'informatique Claude Shannon dans les années 1940.
Shannon s'est inspiré d'un problème pratique : quel est le moyen le plus efficace de transmettre un message sur un canal de communication comme une ligne téléphonique ? Pour répondre à cette question, il est utile de la reformuler sous forme de jeu. Je choisis un nombre aléatoire entre 1 et 100, et votre objectif est de le deviner le plus rapidement possible en posant des questions par oui ou par non. " Le nombre est-il supérieur à zéro ? " est clairement une mauvaise idée : vous savez déjà que la réponse sera oui, donc il est inutile de demander. Intuitivement, " Le nombre est-il supérieur à 50 ? " est le meilleur coup d'ouverture. C'est parce que les deux réponses possibles sont tout aussi probables : dans un cas comme dans l'autre, vous apprendrez quelque chose d'inattendu.
Dans son célèbre article de 1948, " Une théorie mathématique de la communication ", Shannon a élaboré une formule traduisant cette intuition en termes mathématiques précis, et il a montré comment cette même formule peut être utilisée pour quantifier l'information contenue dans n'importe quel message. En gros, la formule définit l'information comme le nombre de questions auxquelles il faut répondre par oui ou par non pour déterminer le contenu d'un message. Les messages plus prévisibles, selon cette mesure, contiennent moins d'informations, tandis que les messages plus surprenants sont plus informatifs. La théorie de l'information de Shannon a posé les bases mathématiques des méthodes de stockage et de transmission de données aujourd'hui omniprésentes (y compris les techniques de correction d'erreurs dont j'ai parlé dans le numéro du 5 août 2024 de Fundamentals ). Elle a également des applications plus fantaisistes. Comme l'expliquait Patrick Honner dans une chronique de 2022, la théorie de l'information peut vous aider à gagner au jeu de devinettes en ligne Wordle.
Dans un essai publié en 2020 pour Quanta , l'ingénieur électricien David Tse s'est penché sur une caractéristique curieuse de la théorie de l'information. Shannon a développé sa formule emblématique pour résoudre un problème d'ingénierie concret, mais les mathématiques sous-jacentes sont si élégantes et omniprésentes qu'il semble de plus en plus qu'il ait trouvé quelque chose de plus fondamental. " C'est comme s'il avait découvert les lois de la communication de l'univers, plutôt que de les avoir inventées ", a écrit Tse. De fait, la théorie de l'information de Shannon s'est avérée avoir des liens inattendus avec de nombreux domaines de la physique et de la biologie.
Nouveautés et points importants
Le premier lien surprenant entre la théorie de l'information et la physique était déjà présent dans l'article fondateur de Shannon. Shannon avait auparavant discuté de sa théorie avec le légendaire mathématicien John von Neumann, qui avait observé que la formule de l'information de Shannon ressemblait à celle d'une quantité mystérieuse appelée entropie, qui joue un rôle central dans les lois de la thermodynamique. L'année dernière, Zack Savitsky a retracé l'histoire de l'entropie, depuis ses origines dans la physique des machines à vapeur jusqu'aux " moteurs d'information " à l'échelle nanométrique que les chercheurs développent aujourd'hui. Cet excellent ouvrage scientifique explore également les implications philosophiques de l'introduction de l'information – une quantité intrinsèquement subjective – dans les lois de la physique.
Ces questions philosophiques sont particulièrement pertinentes pour les chercheurs qui étudient la théorie quantique. Les lois de la physique quantique ont été élaborées dans les années 1920 pour expliquer le comportement des atomes et des molécules. Mais ces dernières décennies, les chercheurs ont compris qu'il était possible de déduire toutes ces mêmes lois à partir de principes qui ne semblent avoir aucun lien avec la physique ; ils reposent plutôt sur l'information. En 2017, Philip Ball a exploré les enseignements tirés par les chercheurs de ces tentatives de reconstruction de la théorie quantique.
La physique n'est pas le seul domaine influencé par les idées issues de la théorie de l'information. Peu après l'article de Shannon, l'information est devenue centrale dans la façon dont les chercheurs appréhendent la génétique. Plus récemment, certains chercheurs ont appliqué les principes de la théorie de l'information à certaines des questions les plus épineuses de la biologie. Lors d'une séance de questions-réponses avec Kevin Hartnett en 2015, le biologiste Christoph Adami a décrit comment il utilise la théorie de l'information pour explorer les origines de la vie. En avril, Ball a décrit une nouvelle tentative visant à repenser l'évolution biologique comme un cas particulier d'une " théorie de l'information fonctionnelle " plus fondamentale, à l'origine de l'émergence de la complexité dans l'univers. Cette théorie reste spéculative, mais elle illustre l'ampleur frappante de l'influence de la théorie de l'information.
Comme l'a déclaré l'astrobiologiste Michael Wong à Ball : " L'information elle-même pourrait être un paramètre vital du cosmos, au même titre que la masse, la charge et l'énergie. " Une chose semble certaine : les chercheurs qui étudient l'information peuvent certainement s'attendre à d'autres surprises dans les années à venir.
Le livre de James Gleick, " L'Information : une histoire, une théorie, un déluge ", est remarquablement ambitieux. Il aborde le développement du langage écrit, le télégraphe et l'essor d'Internet, ainsi que les origines et l'influence de la théorie de l'information de Shannon. Gleick a abordé les thèmes de l'ouvrage lors d'une conférence passionnante à l'université Harvard en 2012.
L'historien des sciences Matthew Cobb a écrit un article en 2013 dans la revue Cell relatant la généralisation du langage de l'information en biologie.