Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2
Temps de recherche: 0.0242s

motivation

Pourtant, l'intellect humain jouit aussi d'une autre force : le sentiment d'urgence, qui lui donne son dynamisme. Il est possible que notre intelligence ne s'achève pas avec notre mort ; dans une large mesure, elle en est indissociable.

Auteur: Gopnik Adam

Info:

[ moteur intégré ] [ consubstantielle ]

 

Commentaires: 0

Ajouté à la BD par miguel

source du vivant

Comment la vie (et la mort) naissent du désordre

On a longtemps pensé que la vie obéissait à ses propres règles. Mais alors que des systèmes simples montrent des signes de comportement réaliste, les scientifiques se demandent si cette apparente complexité n'est pas simplement une conséquence de la thermodynamique.

Quelle est la différence entre physique et biologie ? Prenez une balle de golf et un boulet de canon et déposez-les au sommet de la Tour de Pise. Les lois de la physique vous permettent de prédire leurs trajectoires avec autant de précision que vous pourriez le souhaiter.

Maintenant, refaites la même expérience, mais remplacez le boulet de canon par un pigeon.

Les systèmes biologiques ne défient pas les lois physiques, bien sûr, mais celles-ci ne semblent pas non plus pouvoir les prédire. En revanche, ils sont orientés vers un objectif : survivre et se reproduire. On peut dire qu’ils ont un but – ou ce que les philosophes appellent traditionnellement une téléologie – qui guide leur comportement.De la même manière, la physique nous permet désormais de prédire, à partir de l’état de l’univers un milliardième de seconde après le Big Bang, ce à quoi il ressemble aujourd’hui. Mais personne n’imagine que l’apparition des premières cellules primitives sur Terre a conduit de manière prévisible à la race humaine. Il semble qu'il n'y ait pas de loi qui dicte le cours de l’évolution.

La téléologie et la contingence historique de la biologie, a déclaré le biologiste évolutionniste Ernst Mayr, la rendent uniques qui parmi les sciences. Ces deux caractéristiques découlent peut-être du seul principe directeur général de la biologie : l’évolution. Qui dépend du hasard et des aléas, mais la sélection naturelle lui donne l’apparence d’une intention et d’un but. Les animaux ne sont pas attirés vers l’eau par une attraction magnétique, mais par leur instinct, leur intention de survivre. Les jambes servent, entre autres, à nous emmener à l'eau.

Mayr affirmait que ces caractéristiques rendent la biologie exceptionnelle – une loi en soi. Mais les développements récents en physique hors équilibre, en science des systèmes complexes et en théorie de l’information remettent en question cette vision.

Une fois que nous considérons les êtres vivants comme des agents effectuant un calcul – collectant et stockant des informations sur un environnement imprévisible – les capacités et les considérations telles que la réplication, l’adaptation, l’action, le but et la signification peuvent être comprises comme découlant non pas d’une improvisation évolutive, mais comme d'inévitables corollaires aux lois physiques. En d’autres termes, il semble y avoir une sorte de physique selon laquelle les choses font des choses et évoluent pour faire des choses. Le sens et l’intention – considérés comme les caractéristiques déterminantes des systèmes vivants –  émergeant naturellement à travers les lois de la thermodynamique et de la mécanique statistique.

En novembre dernier, des physiciens, des mathématiciens et des informaticiens se sont réunis avec des biologistes évolutionnistes et moléculaires pour discuter – et parfois débattre – de ces idées lors d'un atelier à l'Institut de Santa Fe au Nouveau-Mexique, la Mecque de la science des " systèmes complexes ". La question était  : à quel point la biologie est-elle spéciale (ou non) ?

Il n’est guère surprenant qu’il n’y ait pas eu de consensus. Mais un message qui est ressorti très clairement est que, s’il existe une sorte de physique derrière la téléologie et l’action biologiques, elle a quelque chose à voir avec le même concept qui semble s’être installé au cœur de la physique fondamentale elle-même : l’information.

Désordre et démons

La première tentative d’introduire l’information et l’intention dans les lois de la thermodynamique a eu lieu au milieu du XIXe siècle, lorsque la mécanique statistique fut inventée par le scientifique écossais James Clerk Maxwell. Maxwell a montré comment l’introduction de ces deux ingrédients semblait permettre de réaliser des choses que la thermodynamique proclamait impossibles.

Maxwell avait déjà montré comment les relations mathématiques prévisibles et fiables entre les propriétés d’un gaz – pression, volume et température – pouvaient être dérivées des mouvements aléatoires et inconnaissables d’innombrables molécules secouées frénétiquement par l’énergie thermique. En d’autres termes, la thermodynamique – la nouvelle science du flux de chaleur, qui unissait les propriétés de la matière à grande échelle comme la pression et la température – était le résultat de la mécanique statistique à l’échelle microscopique des molécules et des atomes.

Selon la thermodynamique, la capacité à extraire du travail utile des ressources énergétiques de l’univers est en constante diminution. Les poches d’énergie diminuent, les concentrations de chaleur s’amenuisent. Dans tout processus physique, une certaine énergie est inévitablement dissipée sous forme de chaleur inutile, perdue au milieu des mouvements aléatoires des molécules. Ce caractère aléatoire est assimilé à la quantité thermodynamique appelée entropie – une mesure du désordre – qui est toujours croissante. C'est la deuxième loi de la thermodynamique. Finalement, l’univers en entier sera réduit à un fouillis uniforme et ennuyeux : un état d’équilibre, dans lequel l’entropie est maximisée et où rien de significatif ne se reproduira plus jamais.

Sommes-nous vraiment condamnés à ce triste sort ? Maxwell était réticent à y croire et, en 1867, il entreprit, comme il le disait, de " faire un trou " dans la deuxième loi. Son objectif était de commencer avec une boîte emplie de molécules désordonnée qui s'agitaient de manière aléatoire, puis de séparer les molécules rapides des molécules lentes, réduisant ainsi l'entropie.

Imaginez une petite créature – le physicien William Thomson l'appellera plus tard, au grand désarroi de Maxwell, un démon – qui peut voir chaque molécule individuelle dans la boîte. Le démon sépare la boîte en deux compartiments, avec une porte coulissante dans le mur entre eux. Chaque fois qu'il aperçoit une molécule particulièrement énergétique s'approcher de la porte depuis le compartiment de droite, il l'ouvre pour la laisser passer. Et chaque fois qu’une molécule lente et "froide " s’approche par la gauche, il la laisse passer également. Enfin, il dispose d'un compartiment de gaz froid à droite et de gaz chaud à gauche : un réservoir de chaleur sur lequel on peut puiser pour effectuer des travaux, compenser, etc.

Cela n'est possible que pour deux raisons. Premièrement, le démon possède plus d’informations que nous : il peut voir toutes les molécules individuellement, plutôt que de se limiter à des moyennes statistiques. Et deuxièmement, il a une intention : un plan pour séparer le chaud du froid. En exploitant intentionnellement ses connaissances, il peut défier les lois de la thermodynamique.

Du moins, semble-t-il. Il a fallu cent ans pour comprendre pourquoi le démon de Maxwell ne peut en fait vaincre la deuxième loi et éviter le glissement inexorable vers un équilibre mortel et universel. Et la raison montre qu’il existe un lien profond entre la thermodynamique et le traitement de l’information – ou en d’autres termes, le calcul. Le physicien germano-américain Rolf Landauer a montré que même si le démon peut recueillir des informations et déplacer la porte (sans friction) sans coût d'énergie, il reste quand même quelque chose à payer. Parce qu'il ne peut pas y avoir une mémoire illimitée de chaque mouvement moléculaire, il faut occasionnellement effacer sa mémoire – oublier ce qu'il a vu et recommencer – avant de pouvoir continuer à récolter de l'énergie. Cet acte d’effacement d’informations a un prix inévitable : il dissipe de l’énergie, et donc augmente l’entropie. Tous les gains réalisés contre la deuxième loi grâce au travail astucieux du démon sont annulés par cette " limite de Landauer " : le coût fini de l'effacement de l'information (ou plus généralement, de la conversion de l'information d'une forme vers une autre).

Les organismes vivants ressemblent plutôt au démon de Maxwell. Alors qu’un récipient empli de produits chimiques en interactions finira par dépenser son énergie pour tomber dans une stase et un équilibre ennuyeux, les systèmes vivants évitent collectivement l’état d’équilibre du non vivant depuis l’origine de la vie il y a environ trois milliards et demi d’années. Ils récupèrent l’énergie de leur environnement pour maintenir cet état de non-équilibre, et ils le font avec " une intention ". Même les simples bactéries se déplacent avec " intention " vers les sources de chaleur et de nutrition. Dans son livre de 1944, Qu'est-ce que la vie ?, le physicien Erwin Schrödinger l’a exprimé en disant que les organismes vivants se nourrissent d’ " entropie négative ".

Ils y parviennent, explique Schrödinger, en capturant et en stockant des informations. Certaines de ces informations sont codées dans leurs gènes et transmises d’une génération à l’autre : un ensemble d’instructions pour continuer de récolter l’entropie négative. Schrödinger ne savait pas où les informations sont conservées ni comment elles sont codées, mais son intuition selon laquelle elles sont écrites dans ce qu'il nomme un " cristal apériodique* " a inspiré Francis Crick, lui-même physicien de formation, et James Watson lorsqu'en 1953, ils pensèrent comment l'information génétique peut être codée dans la structure moléculaire de la molécule d'ADN.

Un génome est donc, au moins en partie, un enregistrement des connaissances utiles qui ont permis aux ancêtres d'un organisme – jusqu'à un passé lointain – de survivre sur notre planète. Selon David Wolpert, mathématicien et physicien de l'Institut de Santa Fe qui a organisé le récent atelier, et son collègue Artemy Kolchinsky, le point clé est que les organismes bien adaptés sont corrélés à cet environnement. Si une bactérie nage de manière fiable vers la gauche ou la droite lorsqu’il y a une source de nourriture dans cette direction, elle est mieux adaptée et s’épanouira davantage qu’une bactérie qui nage dans des directions aléatoires et ne trouve donc la nourriture que par hasard. Une corrélation entre l’état de l’organisme et celui de son environnement implique qu’ils partagent des informations en commun. Wolpert et Kolchinsky affirment que c'est cette information qui aide l'organisme à rester hors équilibre, car, comme le démon de Maxwell, il peut adapter son comportement pour extraire le travail des fluctuations de son environnement. S’il n’acquérait pas cette information, l’organisme retrouverait progressivement cet équilibre : il mourrait.

Vue sous cet angle, la vie peut être considérée comme un calcul visant à optimiser le stockage et l’utilisation d’informations significatives. Et la vie s’avère extrêmement efficace dans ce domaine. La résolution par Landauer de l'énigme du démon de Maxwell a fixé une limite inférieure absolue à la quantité d'énergie requise par un calcul à mémoire finie : à savoir le coût énergétique de l'oubli. Les meilleurs ordinateurs d’aujourd’hui gaspillent bien plus d’énergie que cela, consommant et dissipant généralement plus d’un million de fois plus. Mais selon Wolpert, " une estimation très prudente de l’efficacité thermodynamique du calcul total effectué par une cellule est qu’elle n’est qu’environ 10 fois supérieure à la limite de Landauer ".

L’implication, dit-il, est que " la sélection naturelle s’est énormément préoccupée de minimiser le coût thermodynamique du calcul. Elle fera tout son possible pour réduire la quantité totale de calculs qu’une cellule doit effectuer. En d’autres termes, la biologie (à l’exception peut-être de nous-mêmes) semble prendre grand soin de ne pas trop réfléchir au problème de la survie. Cette question des coûts et des avantages de l'informatique tout au long de la vie, a-t-il déclaré, a été largement négligée en biologie jusqu'à présent.

Darwinisme inanimé

Ainsi, les organismes vivants peuvent être considérés comme des entités qui s’adaptent à leur environnement en utilisant l’information pour récolter de l’énergie et échapper à l’équilibre. On pensera ce qu'on veut de cette phrase mais on remarquera qu'elle ne dit rien sur les gènes et l’évolution, que Mayr, comme de nombreux biologistes, pensait subordonnés à une intention et des but biologiques.

Jusqu’où cette image peut-elle alors nous mener ? Les gènes perfectionnés par la sélection naturelle sont sans aucun doute au cœur de la biologie. Mais se pourrait-il que l’évolution par sélection naturelle ne soit en elle-même qu’un cas particulier d’un impératif plus général vers une fonction et un but apparent qui existe dans l’univers purement physique ? ça commence à ressembler à cela.

L’adaptation a longtemps été considérée comme la marque de l’évolution darwinienne. Mais Jeremy England, du Massachusetts Institute of Technology, a soutenu que l'adaptation à l'environnement peut se produire même dans des systèmes non vivants complexes.

L’adaptation a ici une signification plus spécifique que l’image darwinienne habituelle d’un organisme bien équipé pour survivre. L’une des difficultés de la vision darwinienne est qu’il n’existe aucun moyen de définir un organisme bien adapté sauf rétrospectivement. Les " plus aptes " sont ceux qui se sont révélés meilleurs en termes de survie et de réplication, mais on ne peut pas prédire ce qu'implique les conditions physiques. Les baleines et le plancton sont bien adaptés à la vie marine, mais d’une manière qui n’a que peu de relations évidentes entre eux.

La définition anglaise de " l'adaptabilité " est plus proche de celle de Schrödinger, et même de celle de Maxwell : une entité bien adaptée peut absorber efficacement l'énergie d'un environnement imprévisible et fluctuant. C'est comme la personne qui garde l'équilibre sur un navire qui tangue alors que d'autres tombent parce qu'elle sait mieux s'adapter aux fluctuations du pont. En utilisant les concepts et les méthodes de la mécanique statistique dans un contexte de non-équilibre, England et ses  collègues soutiennent que ces systèmes bien adaptés sont ceux qui absorbent et dissipent l'énergie de l'environnement, générant ainsi de l'entropie.

Les systèmes complexes ont tendance à s’installer dans ces états bien adaptés avec une facilité surprenante, a déclaré England :  "La matière qui fluctue thermiquement se modèle souvent spontanément via des formes qui absorbent bien le travail d'un environnement qui varie dans le temps."

Rien dans ce processus n’implique une adaptation progressive à l’environnement par le biais des mécanismes darwiniens de réplication, de mutation et d’héritage des traits. Il n'y a aucune réplication du tout. "Ce qui est passionnant, c'est que cela signifie que lorsque nous donnons un aperçu physique des origines de certaines des structures d'apparence adaptée que nous voyons, il n'est pas nécessaire qu'elles aient eu des parents au sens biologique habituel", a déclaré England. " On peut expliquer l'adaptation évolutive à l'aide de la thermodynamique, même dans des cas intrigants où il n'y a pas d'auto-réplicateurs et où la logique darwinienne s'effondre " - à condition que le système en question soit suffisamment complexe, polyvalent et sensible pour répondre aux fluctuations de son environnement.

Mais il n’y a pas non plus de conflit entre l’adaptation physique et l’adaptation darwinienne. En fait, cette dernière peut être considérée comme un cas particulier de la première. Si la réplication est présente, alors la sélection naturelle devient la voie par laquelle les systèmes acquièrent la capacité d'absorber le travail – l'entropie négative de Schrödinger – de l'environnement. L’auto-réplication est en fait un mécanisme particulièrement efficace pour stabiliser des systèmes complexes, et il n’est donc pas surprenant que ce soit ce que la biologie utilise. Mais dans le monde non vivant où la réplication ne se produit généralement pas, les structures dissipatives bien adaptées ont tendance à être très organisées, comme les ondulations de sable et les dunes cristallisant à partir de la danse aléatoire du sable soufflé par le vent. Vue sous cet angle, l’évolution darwinienne peut être considérée comme un exemple spécifique d’un principe physique plus général régissant les systèmes hors équilibre.

Machines à prévoir

Cette image de structures complexes s’adaptant à un environnement fluctuant nous permet également de déduire quelque chose sur la manière dont ces structures stockent l’information. En bref, tant que de telles structures – qu’elles soient vivantes ou non – sont obligées d’utiliser efficacement l’énergie disponible, elles sont susceptibles de devenir des " machines à prédiction ".

C'est presque une caractéristique déterminante de la vie que les systèmes biologiques changent d'état en réponse à un signal moteur provenant de l'environnement. Quelque chose se passe ; vous répondez. Les plantes poussent vers la lumière ; elles produisent des toxines en réponse aux agents pathogènes. Ces signaux environnementaux sont généralement imprévisibles, mais les systèmes vivants apprennent de leur expérience, stockant des informations sur leur environnement et les utilisant pour orienter leurs comportements futurs. (Photo : les gènes, sur cette image, donnent simplement les éléments essentiels de base à usage général.)

La prédiction n’est cependant pas facultative. Selon les travaux de Susanne Still de l'Université d'Hawaï, de Gavin Crooks, anciennement du Lawrence Berkeley National Laboratory en Californie, et de leurs collègues, prédire l'avenir semble essentiel pour tout système économe en énergie dans un environnement aléatoire et fluctuant.

Still et ses collègues démontrent que le stockage d'informations sur le passé qui n'ont aucune valeur prédictive pour l'avenir a un coût thermodynamique. Pour être le plus efficace possible, un système doit être sélectif. S'il se souvient sans discernement de tout ce qui s'est passé, il subit un coût énergétique important. En revanche, s'il ne prend pas la peine de stocker la moindre information sur son environnement, il aura constamment du mal à faire face aux imprévus. "Une machine thermodynamiquement optimale doit équilibrer la mémoire et la prédiction en minimisant sa nostalgie - les informations inutiles sur le passé", a déclaré un co-auteur, David Sivak, maintenant à l'Université Simon Fraser à Burnaby, en Colombie-Britannique. En bref, il doit être capable de récolter des informations significatives, celles qui sont susceptibles d'être utiles à la survie future.

On pourrait s’attendre à ce que la sélection naturelle favorise les organismes qui utilisent efficacement l’énergie. Mais même les dispositifs biomoléculaires individuels, comme les pompes et les moteurs de nos cellules, devraient, d’une manière ou d’une autre, tirer les leçons du passé pour anticiper l’avenir. Pour acquérir leur remarquable efficacité, dit Still, ces appareils doivent " implicitement construire des représentations concises du monde qu’ils ont rencontré jusqu’à présent,  afin de pouvoir anticiper ce qui va arriver ".

Thermodynamique de la mort

Même si certaines de ces caractéristiques fondamentales de traitement de l'information des systèmes vivants existent déjà, en l'absence d'évolution ou de réplication, grâce à cette thermodynamique de non-équilibre, on pourrait imaginer que des caractéristiques plus complexes - l'utilisation d'outils, par exemple, ou la coopération sociale - doivent émerger à un certain moment de l'évolution.

Eh bien, ne comptez pas là-dessus. Ces comportements, généralement considérés comme du domaine exclusif de la niche évolutive très avancée qui comprend les primates et les oiseaux, peuvent être imités dans un modèle simple constitué d'un système de particules en interaction. L’astuce est que le système est guidé par une contrainte : il agit de manière à maximiser la quantité d’entropie (dans ce cas, définie en termes de différents chemins possibles que les particules pourraient emprunter) qu’il génère dans un laps de temps donné. 

La maximisation de l’entropie a longtemps été considérée comme une caractéristique des systèmes hors équilibre. Mais le dispositif-système de ce modèle obéit à une règle qui lui permet de maximiser l’entropie sur une fenêtre de temps fixe qui s’étend dans le futur. En d’autres termes, il fait preuve de prévoyance. En effet, le modèle examine tous les chemins que les particules pourraient emprunter et les oblige à adopter le chemin qui produit la plus grande entropie. En gros, c’est généralement la voie qui laisse ouverte le plus grand nombre d’options quant à la manière dont les particules pourraient se déplacer ultérieurement. (mis en italique par Mg)

On pourrait dire que le système de particules éprouve une sorte de besoin de préserver sa liberté d’action future, et que ce besoin guide son comportement à tout moment. Les chercheurs qui ont développé le modèle – Alexander Wissner-Gross de l’Université Harvard et Cameron Freer, mathématicien du Massachusetts Institute of Technology – appellent cela une " force entropique causale ". Dans les simulations informatiques de configurations de particules en forme de disque se déplaçant dans des contextes particuliers, cette force crée des résultats qui suggèrent étrangement l’intelligence.

Dans un cas, un grand disque a pu " utiliser " un petit disque pour extraire un deuxième petit disque d’un tube étroit – un processus qui ressemblait à l’utilisation d’un outil. Libérer le disque augmentait l'entropie du système. Dans un autre exemple, deux disques placés dans des compartiments séparés ont synchronisé leur comportement pour tirer un disque plus grand vers le bas afin qu'ils puissent interagir avec lui, donnant ainsi l'apparence d'une coopération sociale.

Bien entendu, ces simples agents en interaction bénéficient d’un aperçu de l’avenir. La vie, en règle générale, ne le fait pas. Alors, dans quelle mesure est-ce pertinent pour la biologie ? Ce n’est pas clair, même si Wissner-Gross a déclaré qu’il travaillait actuellement à établir " un mécanisme pratique et biologiquement plausible pour les forces entropiques causales ". En attendant, il pense que cette approche pourrait avoir des retombées pratiques, offrant un raccourci vers l’intelligence artificielle. " Je prédis qu'un moyen plus rapide d'y parvenir sera de d'abord  identifier un tel comportement, puis de travailler à rebours à partir des principes et contraintes physiques, plutôt que de travailler vers l'avant à partir de techniques de calcul ou de prédiction particulières ", a-t-il déclaré. En d’autres termes, trouvez d’abord un système qui fait ce que vous voulez qu’il fasse, puis déterminez comment il le fait.

Le vieillissement est également traditionnellement considéré comme un trait dicté par l’évolution. Les organismes ont une durée de vie qui crée des opportunités de reproduction, raconte l'histoire, sans inhiber les perspectives de survie de la progéniture du fait que les parents restent trop longtemps et se disputent les ressources. Cela semble sûrement faire partie de l'histoire, mais Hildegard Meyer-Ortmanns, physicienne à l'Université Jacobs de Brême, en Allemagne, pense qu'en fin de compte, le vieillissement est un processus physique et non biologique, régi par la thermodynamique de l'information.

Ce n’est certainement pas simplement une question d’usure. "La plupart des matériaux souples dont nous sommes constitués sont renouvelés avant d'avoir la chance de vieillir", a déclaré Meyer-Ortmanns. Mais ce processus de renouvellement n'est pas parfait. La thermodynamique de la copie de l'information dicte qu'il doit y avoir un compromis entre précision et énergie. Un organisme dispose d’une réserve d’énergie limitée, donc les erreurs s’accumulent nécessairement avec le temps. L’organisme doit alors dépenser une énergie de plus en plus importante pour réparer ces erreurs. Le processus de renouvellement finit par produire des copies trop défectueuses pour fonctionner correctement ; la mort suit.

Les preuves empiriques semblent le confirmer. On sait depuis longtemps que les cellules humaines en culture semblent capables de se répliquer au maximum 40 à 60 fois (appelée limite de Hayflick ) avant de s'arrêter et de devenir sénescentes. Et des observations récentes sur la longévité humaine suggèrent qu'il pourrait y avoir une raison fondamentale pour laquelle les humains ne peuvent pas survivre bien au-delà de 100 ans .

Il y a un corollaire à ce besoin apparent de systèmes prédictifs, organisés et économes en énergie qui apparaissent dans un environnement fluctuant hors d’équilibre. Nous sommes nous-mêmes système de ce genre, comme le sont tous nos ancêtres jusqu’à la première cellule primitive. Et la thermodynamique hors équilibre semble nous dire que c’est exactement ce que fait la matière dans de telles circonstances. En d’autres termes, l’apparition de la vie sur une planète comme la Terre primitive, imprégnée de sources d’énergie telles que la lumière du soleil et l’activité volcanique qui maintiennent les choses hors d’équilibre, ressemble moins à un événement extrêmement improbable, comme de nombreux scientifiques l’ont supposé, mais pratiquement inévitable. En 2006, Eric Smith et feu Harold Morowitz de l'Institut de Santa Fe ont soutenu que la thermodynamique des systèmes hors équilibre rend l'émergence de systèmes organisés et complexes beaucoup plus probable sur une Terre prébiotique loin de l'équilibre qu'elle ne le serait si les ingrédients chimiques bruts étaient juste assis dans un " petit étang chaud " (comme le disait Charles Darwin) en mijotant doucement.

Au cours de la décennie qui a suivi la première apparition de cet argument, les chercheurs ont ajouté des détails et des perspectives à l’analyse. Les qualités qu’Ernst Mayr considérait comme essentielles à la biologie – le sens et l’intention – pourraient émerger comme une conséquence naturelle des statistiques et de la thermodynamique. Et ces propriétés générales peuvent à leur tour conduire naturellement à quelque chose comme la vie.

Dans le même temps, les astronomes nous ont montré combien de mondes existent – ​​selon certaines estimations, ils se chiffrent en milliards – en orbite autour d’autres étoiles de notre galaxie. Beaucoup sont loin de l’équilibre, et au moins quelques-uns ressemblent à la Terre. Et les mêmes règles s’appliquent sûrement là aussi. 



 

Auteur: Internet

Info: https://www.quantamagazine.org/how-life-and-death-spring-from-disorder-20170126/ Philip Ball, 26 janv 2017 (Trad Mg) *Un cristal apériodique est comme un papier peint dont le motif se répète à grande échelle, mais avec des irrégularités subtiles. Il n'y a pas de motif exact qui se répète à l'infini, mais il y a tout de même un ordre caché dans sa structure.  Comme le Penrose tiling: un pavage avec des formes de pentagones et de losanges,  qui vient des artisans du Moyen-Orient.  Pavage qui ne peut  se répéter à l'infini de manière classique, mais possède un ordre à grande échelle. On peut le diviser en grandes "tuiles" qui se répètent, mais les motifs à l'intérieur de ces tuiles ne s'alignent pas parfaitement. C'est un exemple de cristal apériodique appelé "quasi-cristal". En bref c'est un ordre à grande échelle, mais sans motif répétitif exact à l'infini. (Voir aussi le lien avec les dialogues avec l'ange "aller vers le nouveau")

[ au coeur de FLP ] [ bayésianisme ] [ mémoire tétravalente ] [ épigénétique ] [ filtrage mémoriel ] [ constante ouverture ] [ citation s'appliquant à ce logiciel ] [ expérience accumulée ] [ prospective ouverte ] [ curiosité moteur ] [ scalabilité ] [ entendement ] [ théorie du tout ] [ astrobiologie ] [ orthogenèse ] [ biophysique ] [ philosophie ] [ méta-moteur ] [ principe intégré ] [ dessein ] [ résolution ] [ visée ] [ détermination ]

 

Commentaires: 0

Ajouté à la BD par miguel