Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 6
Temps de recherche: 0.0427s
physique fondamentale
Il est instructif à ce moment de mettre en opposition les caractères clés des théories relativiste et quantique. comme nous l’avons vu, la théorie de la relativité exige continuité, stricte causalité (ou déterminisme) et localité. De l’autre côté, la théorie des quanta exige non-continuité, non-causalité et non-localité. Ainsi les concepts de base de la théorie de la relativité et de celle des quanta se contredisent directement l’un l’autre. Il n’est donc pas tellement surprenant que ces deux théories n’aient jamais été unifiées d’une façon consistante. Il semble extrêmement probable qu’une telle unification soit impossible actuellement.
Auteur:
Bohm David
Années: 1917 - 1992
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: physicien
Continent – Pays: Amérique du nord - Usa
Info:
La Plénitude de l'univers
[
sciences
]
[
indéterminisme
]
[
corpuscule-onde
]
[
plafonnement
]
physique fondamentale
L’intrication quantique persiste entre les quarks top, les particules fondamentales les plus lourdes connues
Albert Einstein décrivait l’intrication quantique comme " une action à distance qui fait froid dans le dos ". Elle avait déjà été observée pour des particules stables. Des photons et des électrons. Elle vient désormais d’être démontrée pour des particules bien plus lourdes, les quarks top. Avec quelles conséquences ?
L'intrication quantique. C'est le nom que les physiciens donnent à ce drôle de phénomène qui lie, de manière invisible, deux particules émises en même temps, et ce quelle que soit la distance qui les séparent. Ainsi, si l'état de l'une d'elles est modifié, celui de l'autre se voit simultanément modifié lui aussi. Et le phénomène a déjà été observé sur des particules stables de type photons ou électrons. Il est au cœur du développement de la cryptographie et de l'informatique quantique.
Des quarks top liés par la physique quantique
Mais des chercheurs de l’université de Rochester (États-Unis) rapportent aujourd'hui la première observation lors d'une expérience menée au Centre européen pour la recherche nucléaire (Cern) d'une intrication quantique entre des quarks top instables et leurs antiparticules. - Ils connaissent "l'état d'esprit" l'un de l'autre à chaque instant, commente Regina Demina, professeur de physique, dans un communiqué de l’université de Rochester.
Ces particules sont tellement lourdes - autant chacune qu'un atome d'or - qu'il est peu probable de les retrouver un jour dans un quelconque ordinateur quantique. La production de quarks top nécessite en effet de très hautes énergies comme celles accessibles au Grand collisionneur de hadrons (LHC).
Quelles conséquences pour la découverte de cette nouvelle intrication quantique ?
Toutefois, la découverte devrait aider à faire la lumière sur la durée pendant laquelle l'intrication persiste et sur ce qui finit par la briser. Elle devrait aussi aider à comprendre si elle est transmise aux produits de désintégration des particules. Et pour ceux qui se souviennent que les physiciens pensent que notre Univers était dans un état intriqué après sa phase initiale d'expansion rapide, la découverte des chercheurs de l'université de Rochester pourrait aussi permettre de faire la lumière sur la perte de connexion quantique dans notre monde.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
futura-sciences.com, Natha Mayer 22 Juin 2024
[
advaita
]
[
non dualité
]
physique fondamentale
Pourquoi les particules qui collisionnent révèlent la réalité
Une grande partie de ce que les physiciens savent des lois fondamentales de la nature vient de la construction de machines destinées à écraser les particules entre elles.
Les physiciens ont commencé à développer des collisionneurs de particules à la suite de révélations selon lesquelles l’univers ne se résume pas à des atomes. Ernest Rutherford a perçu l'intérieur de l'atome lors de l'une des premières expériences de proto-collisionneur en 1909. Lui et son élève ont placé une matière radioactive derrière un bouclier en plomb percé d'un trou, de sorte qu'un flux de particules alpha (maintenant connues sous le nom de noyaux d'hélium) ) puisse passer à travers le trou. Lorsqu’ils ont projeté ce faisceau de particules sur une fine feuille d’or, ils ont observé qu’une particule sur 20 000 rebondissait directement vers l’arrière. Rutherford l'a comparé à un obus d'artillerie qui se refléterait sur une feuille de papier de soie. Les physiciens avaient découvert que les atomes d'or étaient pour la plupart constitués d'espace vide, mais que les particules alpha se dispersaient occasionnellement hors des noyaux denses et chargés positivement des atomes.
Deux des étudiants de Rutherford, John Cockcroft et Ernest Walton, ont ensuite assemblé et exploité le premier véritable collisionneur de particules en 1932. Ils ont utilisé un champ électrique pour accélérer les protons et les transformer en atomes de lithium avec suffisamment d'énergie pour briser les atomes de lithium en deux, divisant l'atome pour la première fois.
Au cours des décennies suivantes, les physiciens ont construit un défilé de collisionneurs de particules de plus en plus performants. Ils ont augmenté la densité des particules du projectile, ajouté des aimants supraconducteurs pour mieux les diriger et se sont offert plus de pistes en concevant des collisionneurs circulaires. Pour produire des feux d’artifice plus violents, ils ont brisé des faisceaux de particules circulant dans des directions opposées.
De nombreuses innovations technologiques visaient à produire des collisions à plus haute énergie pour générer des variétés de particules plus riches. Toute la matière que vous avez vue ou touchée est composée de seulement trois particules légères et fondamentales : des électrons et deux types de quarks. La nature laisse aussi entrevoir l'existence de plus d'une douzaine de particules élémentaires plus lourdes, mais seulement pour un instant, avant qu'elles ne se transforment en particules légères et stables. Pour savoir quelles particules massives peuvent exister, les physiciens exploitent l'interchangeabilité de la matière et de l'énergie découverte par Albert Einstein, exprimée dans sa célèbre équation E = mc 2. En générant des collisions plus énergétiques, ils virent émerger des particules plus lourdes.
Une autre façon de voir les choses est que les collisions à haute énergie s’enfoncent plus profondément dans le monde subatomique. Toutes les particules quantiques ont des propriétés ondulatoires, telles que les longueurs d'onde. Et leurs longueurs d’onde déterminent ce avec quoi ils peuvent interagir. Les ondes sonores peuvent contourner les murs parce qu'elles mesurent des mètres en longueur, par exemple, tandis que les ondes lumineuses sont arrêtées par tout ce qui est plus grand que leur longueur d'onde de quelques centaines de nanomètres. Les ondes incroyablement minuscules impliquées dans les collisions à haute énergie sont sensibles à des obstacles quantiques tout aussi minuscules. De cette manière, les énergies plus élevées permettent aux physiciens d’explorer les règles de la réalité à des échelles de plus en plus petites.
Suivant l’exemple de Rutherford et de ses étudiants, les chercheurs ont continué leurs explorations à un rythme effréné. L'énergie des collisions de particules a augmenté de 10 fois tous les six à huit ans pendant la majeure partie d'un siècle, ce qui correspond presque au rythme de la loi de Moore pour les puces informatiques. Ces progrès ont culminé avec la construction du Grand collisionneur de hadrons (LHC) en Europe, une piste souterraine circulaire de 27 kilomètres de circonférence qui écrase des protons à des énergies environ 20 millions de fois supérieures à celles utilisées par Cockcroft et Walton pour diviser l'atome. C’est au LHC en 2012 que les physiciens ont découvert le boson de Higgs, une particule lourde qui donne de la masse à d’autres particules fondamentales. Le Higgs était la dernière pièce manquante du modèle standard de la physique des particules, un ensemble d'équations qui rend compte de toutes les particules élémentaires connues et de leurs interactions.
Quoi de neuf et remarquable
Le LHC, qui a entamé une nouvelle période d'exploitation de six mois en avril, a consolidé le modèle standard avec la découverte du boson de Higgs. Mais ce qui n'a pas été découvert a laissé le domaine en crise. Pendant des décennies, de nombreux théoriciens des particules ont espéré qu'une nouvelle " supersymétrie “ entre les particules de matière et les particules de force serait observée afin de résoudre une énigme appelée " problème de la hiérarchie ", et aider ainsi à relier les forces quantiques et fournir un candidat pour les particules de ” matière noire » qui maintiennent les galaxies ensemble.
Mais le LHC n’a vu aucun signe des particules prédites par la supersymétrie et, en 2016, les partisans de la théorie ont reconnu que notre univers n’est pas supersymétrique comme ils le pensaient simplement. La même année, l'évocation d'une nouvelle particule s'est avérée être un mirage statistique, et les physiciens ont dû se rendre compte que le LHC ne découvrirait probablement aucun nouveau phénomène au-delà des particules du modèle standard - une situation parfois appelée "scénario du cauchemar" .
Sans indices indiquant l’existence de particules plus lourdes qui pourraient être évoquées dans des collisions à plus haute énergie, il est difficile de justifier la construction d’un autre collisionneur de particules encore plus grand, de plusieurs milliards de dollars. Certains insistent sur le fait que cela en vaut la peine, car il reste encore beaucoup à étudier sur le boson de Higgs, qui pourrait contenir des indices sur d'éventuelles entités plus lourdes situées hors de portée du LHC. Mais aucun indice - ni aucune entité - de cette nature n'est garanti.
Une proposition visant à construire un collisionneur de nouvelle génération au Japon est au point mort. L'Europe réfléchit à un successeur du LHC de 100 kilomètres, mais s'il est approuvé et financé, sa construction prendra tellement de temps que les étudiants diplômés d'aujourd'hui seront à la retraite depuis longtemps avant que ce nouveau LHC ne démarre.
Les physiciens des particules américains ont reçu des nouvelles optimistes en décembre dernier lorsqu'un comité gouvernemental a soutenu l'étude des perspectives quant à un collisionneur de muons . Les muons sont des versions plus volumineuses d'électrons qui seraient plus puissantes lors des collisions, tout en étant dépourvues de la sous-structure des protons, de sorte qu'un collisionneur de muons relativement petit pourrait produire des collisions propres et à haute énergie. Un collisionneur de muons de pointe pourrait s’insérer dans la structure d’une installation existante, le Fermi National Accelerator Laboratory dans l’Illinois, et pourrait donc être construit plus rapidement et à moindre coût. Le problème est que les muons se désintègrent en quelques microsecondes et que la technologie nécessaire pour créer et contrôler des faisceaux étroits de ceux-ci n'existe pas encore. Néanmoins, si le projet va de l'avant, les partisans espèrent qu'un tel dispositif pourrait être opérationnel au moment où les élèves de maternelle d'aujourd'hui commencent à obtenir leur doctorat.
En attendant, les physiciens n’ont d’autre choix que de proposer des expériences alternatives et de nouvelles façons de reconstituer les indices que les collisionneurs leur ont déjà fournis.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.quantamagazine.org/, Charlie Wood, 2 juin 2024
[
impasse
]
[
historique
]
[
vulgarisation
]
physique fondamentale
On m’a dit que je gaspillais mon temps
Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.
AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?
AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.
Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particule. Ainsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.
Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.
AA - Et qu’appelle-t-on deuxième révolution quantique ?
AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.
Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.
AM - Comment a-t-on validé ce phénomène "d’intrication" ?
AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.
AM - Quelles expériences ont été réalisées pour établir cette intrication ?
AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.
Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.
AM - D’où vient votre passion pour la physique ?
Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.
Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.
AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?
AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.
On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.
On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.
Auteur:
Aspect Alain
Années: 1947 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: H
Profession et précisions: physicien, Nobel de physique 2022
Continent – Pays: Europe - France
Info:
Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022
[
nano-monde
]
physique fondamentale
Des informaticiens prouvent que la chaleur détruit l'intrication quantique
En concevant un nouvel algorithme quantique, quatre chercheurs ont accidentellement établi une limite stricte au phénomène " effrayant ".
Il y a près d'un siècle, le physicien Erwin Schrödinger a attiré l'attention sur une particularité du monde quantique qui fascine et agace les chercheurs depuis lors. Lorsque des particules quantiques telles que les atomes interagissent, elles abandonnent leur identité individuelle au profit d'un état collectif plus grand et plus étrange que la somme de ses parties. Ce phénomène est appelé intrication.
Les chercheurs ont une bonne compréhension du fonctionnement de l’intrication dans des systèmes idéalisés contenant seulement quelques particules. Mais le monde réel est plus compliqué. Dans de grands ensembles d’atomes, comme ceux qui composent la matière que nous voyons et touchons, les lois de la physique quantique entrent en compétition avec les lois de la thermodynamique, et les choses se compliquent.
À très basse température, l'intrication peut se propager sur de longues distances, enveloppant de nombreux atomes et donnant lieu à d'étranges phénomènes tels que la supraconductivité . Mais si la température augmente, les atomes s'agitent, perturbant les liens fragiles qui unissent les particules intriquées.
Les physiciens ont longtemps lutté pour comprendre les détails de ce processus. Aujourd'hui, une équipe de quatre chercheurs a prouvé que cette intrication ne s'affaiblit pas seulement lorsque la température augmente. En fait, dans les modèles mathématiques de systèmes quantiques tels que les réseaux d'atomes dans les matériaux physiques, il existe toujours une température spécifique au-dessus de laquelle elle disparaît complètement. « Ce n'est pas seulement qu'elle est exponentiellement petite », a déclaré Ankur Moitra(ouvre un nouvel onglet)du Massachusetts Institute of Technology, l'un des auteurs du nouveau résultat. " C'est zéro. "
Les chercheurs avaient déjà observé des signes de ce comportement et l’avaient surnommé la " mort subite d'intrication. Mais leurs preuves ont toujours été indirectes. La nouvelle découverte, au contraire, a la force d'une preuve mathématique. Elle établit l'absence d'intrication d'une manière beaucoup plus complète et rigoureuse.
Curieusement, les quatre chercheurs à l'origine de ce nouveau résultat ne sont même pas des physiciens et n'avaient pas pour objectif de prouver quoi que ce soit à propos de l'intrication. Ce sont des informaticiens qui ont découvert cette preuve par hasard en développant un nouvel algorithme.
Quelle que soit leur intention, les résultats ont enthousiasmé les chercheurs du domaine. « C'est une déclaration très, très forte », a déclaré Soonwon Choi, physicien au MIT. " J’ai été très impressionné. ".
Trouver l'équilibre
L’équipe a fait sa découverte en explorant les capacités théoriques des futurs ordinateurs quantiques – des machines qui exploiteront le comportement quantique, notamment l’intrication et la superposition, pour effectuer certains calculs bien plus rapidement que les ordinateurs conventionnels que nous connaissons aujourd’hui.
L'une des applications les plus prometteuses de l'informatique quantique est l'étude de la physique quantique elle-même. Imaginons que vous souhaitiez comprendre le comportement d'un système quantique. Les chercheurs doivent d'abord développer des procédures spécifiques, ou des algorithmes, que les ordinateurs quantiques peuvent utiliser pour répondre à vos questions.
Mais toutes les questions sur les systèmes quantiques ne sont pas faciles à résoudre à l’aide d’algorithmes quantiques. Certaines sont tout aussi faciles à résoudre pour les algorithmes classiques, qui fonctionnent sur des ordinateurs ordinaires, tandis que d’autres sont difficiles à résoudre à la fois pour les algorithmes classiques et quantiques.
Pour comprendre dans quels domaines les algorithmes quantiques et les ordinateurs qui peuvent les exécuter pourraient présenter un avantage, les chercheurs analysent souvent des modèles mathématiques appelés systèmes de spin, qui capturent le comportement de base de réseaux d’atomes en interaction. Ils peuvent alors se demander : que fera un système de spin si vous le laissez tranquille à une température donnée ? L’état dans lequel il se stabilise, appelé état d’équilibre thermique, détermine bon nombre de ses autres propriétés. Les chercheurs cherchent donc depuis longtemps à développer des algorithmes permettant de trouver des états d’équilibre.
La question de savoir si ces algorithmes bénéficient réellement de leur nature quantique dépend de la température du système de spin en question. À des températures très élevées, les algorithmes classiques connus peuvent facilement faire le travail. Le problème devient plus difficile à mesure que la température diminue et que les phénomènes quantiques s'intensifient ; dans certains systèmes, il devient trop difficile pour les ordinateurs quantiques de résoudre le problème dans un délai raisonnable. Mais les détails de tout cela restent obscurs.
Des scientifiques trouvent un moyen rapide de décrire les systèmes quantiques
" Quand allez-vous dans l'espace où vous avez besoin du quantique, et quand allez-vous dans l'espace où le quantique ne vous aide même pas ? " a déclaré Ewin Tang, chercheur à l’Université de Californie à Berkeley et l’un des auteurs des nouveaux résultats. " On ne sait pas grand-chose. "
En février, Tang et Moitra ont commencé à réfléchir au problème de l'équilibre thermique avec deux autres informaticiens du MIT : un chercheur postdoctoral nommé Ainesh Bakshi et l'étudiant diplômé de Moitra, Allen Liu. En 2023, ils ont tous collaboré sur un algorithme quantique révolutionnaire pour une tâche différente impliquant des systèmes de spin, et ils cherchaient un nouveau défi.
" Quand nous travaillons ensemble, les choses se passent naturellement ", a déclaré Bakshi. " C'est génial. "
Avant cette percée de 2023, les trois chercheurs du MIT n’avaient jamais travaillé sur les algorithmes quantiques. Ils avaient une formation en théorie de l’apprentissage, un sous-domaine de l’informatique qui se concentre sur les algorithmes d’analyse statistique. Mais comme tous les jeunes ambitieux du monde, ils considéraient leur relative naïveté comme un avantage, une façon de voir un problème avec un œil neuf. " L’une de nos forces est que nous ne connaissons pas grand-chose au quantique ", a déclaré Moitra. " Le seul quantique que nous connaissons est celui qu’Ewin nous a enseigné. "
L'équipe a décidé de se concentrer sur les températures relativement élevées, où les chercheurs soupçonnaient l'existence d'algorithmes quantiques rapides, même si personne n'avait pu le prouver. Assez rapidement, ils ont trouvé un moyen d'adapter une ancienne technique de la théorie de l'apprentissage à un nouvel algorithme rapide. Mais alors qu'ils rédigeaient leur article, une autre équipe est arrivée à un résultat similaire :une preuve qu'un algorithme prometteur développé l'année précédente fonctionnerait bien à des températures élevées. Ils avaient été récupérés.
La mort subite renaît
Un peu déçus d'être arrivés deuxièmes, Tang et ses collaborateurs ont commencé à correspondre avec Álvaro Alhambra, physicien à l'Institut de physique théorique de Madrid et l'un des auteurs de l'article concurrent. Ils voulaient déterminer les différences entre les résultats obtenus indépendamment. Mais lorsque Alhambra a lu une version préliminaire de la preuve des quatre chercheurs, il a été surpris de découvrir qu'ils avaient prouvé autre chose dans une étape intermédiaire : dans tout système de spin en équilibre thermique, l'intrication disparaît complètement au-dessus d'une certaine température. " Je leur ai dit : ¨- Oh, c'est très, très important" , a déclaré Alhambra.
L’équipe a rapidement révisé son projet pour mettre en évidence le résultat accidentel. " Il s’avère que cela ne cadre pas avec notre algorithme ", a déclaré Moitra. " Nous obtenons plus que ce que nous avions prévu. "
Les chercheurs avaient observé cette mort soudaine de l'intrication depuis la fin des années 2000, dans des expériences et des simulations sur des ordinateurs classiques ordinaires. Mais aucun de ces travaux antérieurs n'avait permis de mesurer directement la disparition de l'intrication. Ils n'avaient également étudié le phénomène que dans des petits systèmes, qui ne sont pas les plus intéressants.
" Il se pourrait que pour des systèmes de plus en plus grands, il faille monter à des températures de plus en plus élevées pour constater l’absence d’intrication ", a déclaré Alhambra. Dans ce cas, le phénomène de mort subite pourrait se produire à des températures si élevées qu’il ne serait pas pertinent dans les matériaux réels. Au lieu de cela, Tang et ses collaborateurs ont montré que la température à laquelle l’intrication disparaît ne dépend pas du nombre total d’atomes dans le système. La seule chose qui compte, ce sont les détails des interactions entre les atomes proches.
L’approche utilisée pour leur démonstration était elle-même inhabituelle. La plupart des algorithmes de recherche d’états d’équilibre thermique s’inspirent de la façon dont les systèmes physiques réels abordent l’équilibre. Mais Tang et son équipe ont utilisé des techniques très éloignées de la théorie quantique.
" C’est ce qui est si étonnant dans ce document ", a déclaré Nikhil Srivastava, informaticien à Berkeley. " La preuve ignore en quelque sorte la physique. "
La recherche continue
La preuve apportée par les quatre chercheurs que les systèmes de spin à haute température ne présentent aucune intrication permet d'expliquer une autre caractéristique intéressante de leur nouvel algorithme : très peu de ces données sont réellement quantiques. Certes, le résultat de l'algorithme (une description complète de la manière dont les atomes d'un système de spin sont orientés en équilibre thermique) est trop difficile à stocker sur une machine classique. Mais à part la dernière étape qui génère ce résultat, chaque partie de l'algorithme est classique.
" Il s’agit essentiellement du calcul quantique le plus trivial ", a déclaré Liu.
Tang a un long historique de découverte de résultats de " déquantification " - des preuves que les algorithmes quantiques ne sont pas réellement nécessaires pour de nombreux problèmes. Elle et ses collaborateurs n’ont pas essayé de faire cela cette fois-ci, mais la preuve de l’intrication évanouissante qu’ils ont trouvée équivaut à une version encore plus extrême de la déquantification. Ce n’est pas seulement que les algorithmes quantiques n’offrent aucun avantage dans un problème spécifique impliquant des systèmes de spin à haute température - il n’y a absolument rien de quantique dans ces systèmes.
Mais cela ne signifie pas que les chercheurs en informatique quantique doivent perdre espoir. Deux études récentes ont identifié des exemples de systèmes de spin à basse température dans lesquels les algorithmes quantiques de mesure des états d'équilibre sont plus performants que les algorithmes classiques, même s'il reste à déterminer dans quelle mesure ce comportement est répandu. Et même si Bakshi et ses collaborateurs ont obtenu un résultat négatif, la méthode peu orthodoxe qu'ils ont utilisée pour y parvenir indique que de nouvelles idées fructueuses peuvent surgir d'endroits inattendus.
" Nous pouvons être optimistes quant à la découverte de nouveaux algorithmes fous ", a déclaré Moitra. " Et ce faisant, nous pourrons découvrir de magnifiques mathématiques. "
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.quantamagazine.org/, ParBen Brubaker, 28 août 2024
[
sérendipité
]
[
seuil
]
[
rupture
]
[
frontière
]
[
dissipation
]
[
désagrégation
]
[
désenchevêtrèrent
]
physique fondamentale
La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective
La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.
Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.
Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.
Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.
Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.
Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".
L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).
S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.
LE CŒUR DU PROBLÈME
Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.
Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.
Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.
Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.
Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.
Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.
Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.
ASPECTS CRUCIAUX DE LA RÉALITÉ
Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.
La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.
La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.
La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.
Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.
Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.
Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.
Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.
En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.
CHOISISSEZ VOTRE POISON
Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.
Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.
D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.
Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.
La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.
Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.
"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.
"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".
Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.
Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.
UNE NON LOCALITÉ PLUS PROFONDE
Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.
Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.
Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.
En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023
[
enchevêtrement quantique
]
[
régions de l'espace-temps
]
[
monde subatomique
]