Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5
Temps de recherche: 0.0301s

entité organique

Pour parler grossièrement, un système vivant - un organisme - est constitué d'une relation symbiotique entre un métabolisme et un réplicateur. ...le réplicateur contient le plan de l'organisme, avec les informations nécessaires pour croître, effectuer des réparations et se reproduire. ...le métabolisme fournit l'énergie et les matières premières nécessaires à la construction et au fonctionnement du réplicateur.

Auteur: Farmer J. Doyne

Info: La troisième culture : Au-delà de la révolution scientifique (1995)

[ reproductrice ] [ autopoïèse ] [ autonome ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par miguel

appartenance

Quelque fois, elle a l'impression d'être non pas un humain mais un objet mobile, solide ou liquide. Quand elle mange du riz chaud, elle a l'impression d'être du riz. Quand elle se lave le visage à l'eau froide, elle a l'impression d'être de l'eau. En même temps, qu'elle n'est ni du riz ni de l'eau, mais une matière solide et irréductible qui refuse de se mélanger à quoi que ce soit.

Auteur: Han Kang

Info: Leçons de grec

[ intégration séparation ] [ inclusion exclusion ] [ autopoïèse ] [ secondéité ]

 

Commentaires: 0

Ajouté à la BD par miguel

dualité originelle

Si les biologistes ont négligé l'auto-organisation, ce n'est pas parce que celle-ci n'est pas omniprésente et profonde. C'est parce que nous, biologistes, n'avons pas encore compris comment penser à des systèmes régis simultanément par deux sources de commande. Pourtant, quand on observe un flocon de neige, on peut voir de simples molécules lipidiques à la dérive dans l'eau se transformer en vésicules lipidiques creuses semblables à des cellules. Qui observe le potentiel de cristallisation de la vie dans des essaims de molécules en réaction, qui voit l'ordre stupéfiant et spontané dans des réseaux reliant des dizaines et des dizaines de milliers de variables, ne peut pas ne pas entretenir une pensée centrale : si nous devons un jour parvenir à une théorie complète en biologie, nous devrons sans aucun doute  comprendre ce mélange d'auto-organisation et de sélection. Nous devrons constater que nous sommes les expressions naturelles d'un ordre plus profond. En fin de compte nous découvrirons peut-être que nous sommes attendus, après tout, dans le grand mythe de la création.

Auteur: Kauffman Stuart Alan

Info:

[ autopoïèse ] [ émergence ] [ science ] [ biologie systémique ] [ prédétermination ]

 

Commentaires: 0

Ajouté à la BD par miguel

science-fiction

Ce décodeur multi-quantique universel, en permettant de geler et de fixer certaines plages-séquences - elles-mêmes complexes enchevêtrements simultanés en mouvement - permet alors de les comparer entre elles via de très raffinées simulations. Ces simulations comparatives, qui ne sont encore que de pauvres transpositions de qualité médiocres, apportent cependant un nouvel éclairage. Ce que nous appelons un changement de paradigme véritable.

Ecoutez-moi bien : les planètes sont des matrices, chacune est le socle créateur où se développe un éco système interconnecté, évolution locale fondée et auto imprégnée des couches successives d'une évolution propre articulée sur des spécificités et des paramètres d'un temps T à un endroit E. Résultat : chaque développement organique planétaire a des bases si "originales" en terme de syntonisation de ses vibrations sources que l'intrication singulière développée sur une planète X ou Y rend la vie de sa surface invisible aux autres, sauf rarissimes exceptions que la théorie prédit mais n'a pas encore découvertes.

Par exemple nous autres ne pouvons distinguer que des amas gravitationnel rond, constitués d'atomes et de particules en apparence identiques aux nôtres, ce qui est une erreur.

C'est à dire que tout monde-sphère autre que le sien apparaît comme "désert" aux yeux de l'explorateur étranger, même si ces deux mondes sont dans le même système solaire. Les vies des planètes sont isolées les unes des autres à cause de ces déphasages.

Une autre équipe à aussi montré que deux mondes proches avec un paramétrage biophysique d'origine quasi similaire ne font pas émerger des systèmes de vie perceptibles l'un pour l'autre, ce qui donne une idée de l'infinie finesse de ces variations poly vibratoires. Tout décalage biophysique quantique originel modifie donc profondément la perception de ce que l'observateur appelle "vie non minérale évoluée" à la surface d'une planète autre que la sienne.

Ici telle planète-civilisation très ancienne et complexe apparaît comme un monde invivable parce que déchiré par de puissants cyclones sous des pressions atmosphériques inimaginables pour nous. Là une autre sphère biotope à un stade plus précoce de son évolution, qui est vue comme un enfer désertique et glacial douché par de fréquentes pluies de méthane. Ou là encore, telle planète, sans lumière parce que trop éloignée de son soleil et entièrement recouverte d'un océan-banquise instable, empêchera même d'imaginer un vie à sa surface. Et pourtant cet obscur chaudron abrite des organismes, si loin de nous que vouloir les décrire, même si c'est formellement possible, constitue une entreprise ridicule.

C'est de ces constats que naquit l'hyper-relativité.

Auteur: Mg

Info: 26 octobre 2017 - Les théories de Piel Essiarf, In "A la recherche de Zoul"

[ solipsisme planétaire ] [ dé-syntonisation ] [ limitations sensorielles ] [ niveaux vibratoires ] [ autopoïèse ] [ self-organisation ] [ exoplanètes ]

 
Mis dans la chaine
Commentaires: 2

monades intégrées

Renormalisation : quand la physique des particules met l'infini sous le tapis

La renormalisation est une astuce qui permet de s'affranchir des infinis gênants dans les calculs. Elle a sauvé la physique des particules, mais quel est son bien-fondé mathématique ?

(Image : Il n'est pas nécessaire d'analyser des molécules d'eau individuelles pour comprendre le comportement des gouttelettes, ou ces gouttelettes pour étudier une vague. Ce passage d'une échelle à une autre est l'essence même de la renormalisation ) 

À la fin des années 1920, plusieurs médecins, comme Werner Heisenberg, Paul Dirac, Pascual Jordan, Wolfgang Pauli… font disparaître les particules ! À la place, ils préfèrent y voir des ondulations dans un champ, une sorte d'océan dans lequel, en chaque point, la valeur d'une grandeur physique est donnée. Ainsi, une vague dans ce champ est un électron, une autre un photon, et leurs interactions semblent expliquer tous les événements électromagnétiques.

Devenu un des piliers conceptuels de la description physique de l'Univers et l'explication incontournable de nombreux phénomènes, cette théorie quantique des champs n'a qu'un seul problème : elle est adossée à une technique que l'on a longtemps supposée provisoire et regardé avec suspicion, la renormalisation. "Hélas", elle est conservée indispensable pour composer avec les infinis rédhibitoires qui apparaissent dans les calculs. D'où un sentiment inconfortable, même chez ceux qui ont l'élaborée, d'utiliser un outil qui s'apparente à un château de cartes bâties sur un artifice mathématique tordu.

"C'est un procédé douteux", a écrit plus tard Richard Feynman. " Devoir utiliser à de tels tours de passe-passe nous a empêché de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente. "

Une justification de la renormalisation a pourtant été trouvée, des décennies plus tard, et en provenance d'une branche de la physique apparemment sans rapport. Le regard des médecins sur cette « hérésie » a alors changé la façon de la considérer. En effet, des chercheurs étudiant le magnétisme ont découvert que le processus ne concernait pas du tout les infinis, mais s'apparentait plutôt à une séparation de l'Univers en royaumes de tailles indépendantes, et cette nouvelle vision guide aujourd'hui de nombreux domaines. . . du physique. Quoi qu'il en soit, la renormalisation est, de l'avis de David Tong, théoricien à l'université de Cambridge, " sans doute l'avancée la plus importante de ces cinquante dernières années en physique théorique ".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les plus abouties de toute la science. L'une d'elles, la théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis des prédictions théoriques qui s'accordent aux résultats expérimentaux avec une précision de 1 partie sur 1 milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs conduisait souvent à des réponses absurdes mettant en jeu l'infini, au point que des théoriciens ont envisagé que les théories des champs soient une impasse.

Richard Feynman et d'autres, notamment Freeman Dyson, ont donc cherché de nouvelles voies. Certaines pourraient-être remis les particules sur le devant de la scène, mais, à la place, elles ont abouti à un tour de magie. Ils ont découvert que les équations de la QED conduisaient à des prédictions acceptables, à condition d'être corrigées par cette procédure impénétrable qu'est la renormalisation. En première approximation, la recette est la suivante : lorsqu'un calcul de QED conduit à une série divergente, on abrège celle-ci en intégrant la partie qui tend à s'envoler vers l'infini dans un coefficient (un nombre fixe) placé devant la somme. Puis on remplace ce coefficient par une mesure finie issue d'expérimentations, et l'on peut ensuite laisser la série désormais apprivoisée repartir vers l'infini.

"Ce ne sont tout simplement pas des mathématiques raisonnables". Paul Dirac

Certains ont vu dans ce procédé un jeu de dupes, à commencer par Paul Dirac, pionnier de la théorie des champs, qui déplorait : " Ce ne sont tout simplement pas des mathématiques raisonnables. "

Le cœur du problème – et un germe de sa solution éventuelle – se trouve dans la façon dont les médecins ont traité la charge de l'électron. Dans le mécanisme décrit, la charge électrique naît du fameux coefficient qui « avale l'infini » pendant la tambouille mathématique. Pour les théoriciens qui s'interrogent sur la signification physique de la renormalisation, la QED laisse supposer que l'électron a deux charges : une charge théorique, qui est infinie, et la charge mesurée, qui ne l'est pas. Peut-être que le cœur de l'électron contient une charge infinie, mais elle serait masquée dans la pratique par les effets du champ quantique (que l'on peut se représenter ici comme un nuage virtuel de particules positives) : en fin de compte , les expérimentateurs ne mesurent qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, ont pris à bras-le-corps cette idée en 1954. Ils ont relié les deux charges de l'électron à une charge « effective » qui varie selon la distance. Plus on se rapproche (et plus on pénètre le " manteau positif " de l'électron), plus la charge est importante. Leurs travaux ont été les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les médecins quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est " la version mathématique d'un microscope ", explique Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour rechercher des théories de la gravité quantique. " Et, inversement, on peut commencer par le système microscopique et faire un zoom arrière. C'est l'association du microscope et du télescope. "

Les aimants du pont neuf

Un deuxième indice, après la piste de l'échelle, est venu du monde de la matière condensée, où les physiciens se demandaient comment l'approximation rudimentaire d'un aimant – le modèle d'Ising – parvenir à saisir les moindres détails de certaines transformations. Ce modèle n'est guère plus qu'une grille dans laquelle chaque case est dotée d'une flèche, représentant le moment magnétique d'un atome, qui pointe soit vers le haut soit vers le bas. Et pourtant, il prédit le comportement des aimants réels avec une précision remarquable.

À basse température, la plupart des moments magnétiques des atomes s'alignent (toutes les flèches de la grille pointent dans la même direction) et le matériau est donc magnétique. À l'inverse, à haute température, le désordre domine, et l'aimantation disparaît. Entre ces deux extrêmes, se niche un point de transition critique caractérisé par la coexistence d'îlots d'atomes alignés de toutes tailles. Le point essentiel est que la façon dont certaines quantités varient autour de ce " point critique " semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes qui n'ont aucun rapport, tels que la transition. . à haute pression, où l'eau liquide devient indiscernable de la vapeur d'eau.

La mise au jour de ce phénomène ubiquitaire, que les théoriciens ont donc appelé « universalité », était aussi bizarre qu'une improbable découverte révélant que les éléphants et les aigrettes se déplaçaient exactement à la même vitesse maximale.

La renormalisation capture la tendance de la nature à se distribuer en mondes essentiellement indépendants.

Les médecins n'ont pas l'habitude de s'occuper d'objets de tailles différentes en même temps. Mais le comportement universel autour des points critiques les a obligés à tenir compte de toutes les échelles de longueur à la fois. Leo Kadanoff, spécialiste de la matière condensée, a trouvé comment y parvenir en 1966 en mettant au point une technique dite " par blocs de spins ". Elle consiste à diviser une grille d'Ising trop complexe pour être abordée de front en blocs plus petits et à déterminer pour chacun d'eux l'orientation moyenne, en l'occurrence celle de la majorité des flèches qu'ils contiennent. Tout le bloc prend alors cette valeur (haut ou bas), et l'on répète le processus. Ce faisant, les détails du réseau sont lissés, comme si un zoom arrière révélait le comportement global du système.

Enfin, Kenneth Wilson, un ancien étudiant de Murray Gell-Mann qui avait un pied dans le monde de la physique des particules et un autre dans celui de la matière condensée, à l'unité des idées de son mentor et de Francis Low à celles de Léo Kadanoff. Son " groupe de renormalisation ", qu'il a décrit pour la première fois en 1971, a justifié les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valorisé à Kenneth Wilson le prix Nobel de physique en 1982… et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de s'imaginer le groupe de renormalisation de Wilson est de le voir comme une " théorie des théories " reposant sur le microscopique au macroscopique. Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation dépendante de l'orientation des flèches dans deux cas voisins. Mais extrapoler cette formule simple à des milliards de particules est impossible, parce que vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Kenneth Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. Vous entreprenez par une théorie adaptée à de petites pièces, par exemple les atomes d'une bille de billard, puis vous actionnez la "moulinette mathématique" de Kenneth Wilson afin d'obtenir une théorie, cette fois pertinente pour des groupes de ces pièces, par exemple les molécules de la bille. En réitérant l'opération, vous serez finalement en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une bille entière.

C'est la magie du groupe de renormalisation : il met en évidence les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton plutôt que de l'enchevêtrement des quarks qui le constituent.

Le groupe de renormalisation de Kenneth Wilson a également suggéré que les malheurs de Richard Feynman et de ses contemporains ont fait qu'ils essayaient de comprendre l'électron d'un point de vue infiniment proche. De fait, « nous ne nous attendons pas à ce que [les théories] soient valables jusqu'à des échelles [de distance] arbitrairement petites », concède James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. . . Les médecins comprennent aujourd'hui que couper mathématiquement les sommes et disperser l'infini est la bonne façon de faire un calcul lorsque votre théorie a une taille de grille minimale intégrée. C'est comme si, explique James Fraser, " la coupure absorbait notre ignorance de ce qui se passe aux niveaux inférieurs " pour lesquels on ne dispose d'aucune information, d'aucune grille.

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement rien dire de la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les médecins appellent des théories « efficaces », qui fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies est de découvrir ce qui se passe exactement quand on réduit ces distances.

Du grand au petit

Aujourd'hui, le "procédé douteux" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses rouages ​​​​révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Au cours de la renormalisation, les couches submicroscopiques complexes à prendre en compte ont tendance à disparaître : elles existent bel et bien, mais elles n'ont pas d'incidence sur le tableau d'ensemble. « La simplicité est une vertu », résume Paul Fendley.

Les fondements de la renormalisation illustrent la tendance de la nature à se répartir en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent superbement les molécules individuelles de l'acier. Les chimistes font de même avec les quarks et les gluons quand ils analysent les liaisons moléculaires. La séparation des phénomènes en fonction de leur échelle, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer du grand au petit au fil des siècles, plutôt que de s'attaquer simultanément à toutes les échelles.

Cependant, l'hostilité de la renormalisation à l'égard des détails microscopiques va à la rencontre des efforts des médecins modernes, dans leur quête de comprendre le toujours plus petit. La séparation des échelles suggère qu'ils devront creuser en profondeur pour vaincre le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

« La renormalisation nous aide à simplifier le problème », explique Nathan Seiberg, médecin théoricien à l'Institut d'études avancées, à Princeton, aux États-Unis. Mais " elle cache aussi ce qui se passe à plus courte distance. On ne peut pas avoir le beurre et l'argent du beurre… " 



 

Auteur: Internet

Info: Pour la science, dossier 125, Charlie Wood, 9 octobre 2024, cet article est une traduction de " Comment le 'hocus-pocus' mathématique a sauvé la physique des particules "

[ théorie du tout ] [ autopoïèses cosmiques ]

 

Commentaires: 0

Ajouté à la BD par miguel