Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 5201
Temps de recherche: 0.0564s
astrophysique
La découverte d’un lien entre les trous noirs et la matière noire pourrait résoudre le " problème du parsec final "
Les trous noirs sont considérés comme les objets astrophysiques les plus captivants. Plusieurs hypothèses ont été avancées concernant leur formation, notamment en ce qui concerne les trous noirs supermassifs (SMBH). Récemment, en adoptant une nouvelle approche, des chercheurs canadiens ont identifié un lien entre les trous noirs supermassifs et les particules de matière noire. Dans une nouvelle étude, ils suggèrent que la fusion de SMBH donnant lieu à un seul trou noir plus massif est influencée par le comportement des particules de matière noire. Cette découverte, selon eux, pourrait contribuer à résoudre le " problème du parsec final ".
Dans une étreinte gravitationnelle, les trous noirs supermassifs gravitent lentement les uns vers les autres. Selon les astronomes, leur rapprochement progressif devrait causer une émission d’ondulation dans la structure de l’espace-temps détectable depuis la Terre. C’est d’ailleurs ce que la communauté scientifique a avancé en 2023, lorsqu’un " bourdonnement " persistant d’ondes gravitationnelles raisonnant à travers l’Univers a été détecté. D’après les chercheurs, ce signal, aussi appelé " murmure de l’Univers ", pourrait être dû à la fusion de millions de trous noirs supermassifs, sur des milliards d’années.
Cependant, des simulations ont montré que lorsque des paires de SMBH se rapprochent dans un mouvement de spirale, leur approche s’arrête lorsqu’ils sont séparés d’environ un parsec (environ trois années-lumière), comme s’ils se répulsaient, empêchant ainsi la fusion. C’est ce résultat qui a donné son nom au " problème du parsec final ".
Récemment, une équipe de recherche de l’Université de Toronto et de l’Université McGill, dirigée par Gonzalo Alonso-Álvarez, semble avoir trouvé la solution dans le cadre d’une nouvelle étude publiée dans la revue Physical Review Letters. D’après eux, la clé réside dans l’inclusion de la matière noire, qui a longtemps été sous-estimée dans le cadre de ce processus. " Nous montrons que l’inclusion de l’effet de la matière noire, jusqu’alors négligé, peut aider les trous noirs supermassifs à surmonter ce parsec final de séparation et à fusionner. Nos calculs montrent comment cela peut se produire, contrairement à ce que l’on pensait jusqu’ici ", explique Alonso-Álvarez dans un communiqué de l’Université de Toronto.
Et si la matière noire n’était pas une substance passive et sans interaction ?
L’une des substances les plus mystérieuses de l’Univers est sans doute la matière noire (elle constituerait environ 85 % de la matière dans le cosmos). Bien qu’elle ne soit pas visible, elle témoigne de sa présence par le biais de ses effets gravitationnels sur la matière visible. Longtemps, les scientifiques ont pensé que cette matière était à la fois passive et sans interaction. Toutefois, ce n’est peut-être pas le cas. Alonso-Álvarez et son équipe suggèrent que si les particules de matière noire disposaient d’une propriété d’auto-interaction, cela génèrerait une impulsion supplémentaire pour " rassembler " les SMBH. Cette " matière noire auto-interactive " agirait par la suite comme une sorte de " colle " cosmique, permettant aux trous noirs de fusionner.
Mais la véritable question est de savoir, dans ce cas, comment cela est possible. Lorsque deux galaxies entrent en collision, leurs trous noirs centraux orbitent l’un autour de l’autre vers l’intérieur, en raison des interactions gravitationnelles avec les étoiles à proximité. Ils traversent ensuite un " pic " de concentration (très dense) de matière noire. Si cette matière noire n’interagit pas, ce pic est perturbé par le mouvement des trous noirs. En revanche, les particules de matière noire peuvent maintenir et stabiliser la structure du pic, à condition de " rebondir " les unes sur les autres.
" La possibilité que les particules de matière noire interagissent les unes avec les autres est une hypothèse que nous avons formulée, un ingrédient supplémentaire que tous les modèles de matière noire ne contiennent pas ", a déclaré Alonso-Alvarez. Il avance que leur argument réside sur le fait que " seuls les modèles contenant cet ingrédient peuvent résoudre le problème final du Parsec ".
Cette solution résout ainsi potentiellement le mystère cosmique détecté par le Pulsar Timing Array en 2023, ainsi que le problème du parsec final. D’après les chercheurs, même si la forme de ce signal d’ondes gravitationnelles ne correspond pas parfaitement à ce que l’on attend de modèles standard, leur modèle de matière noire en auto-interaction peut produire un spectre d’ondes gravitationnelles plus adapté à ces observations.
James Cline, co-auteur de l’étude, de l’Université McGill et du CERN, explique : " Une prédiction de notre proposition est que le spectre des ondes gravitationnelles observées par les réseaux de synchronisation de pulsars devrait être adouci aux basses fréquences. Les données actuelles suggèrent déjà ce comportement, et de nouvelles données pourraient le confirmer dans les prochaines années ".
L’étude d’Alonso-Alvarez et de ses collègues met en exergue le potentiel des ondes gravitationnelles dans le sondage de la nature de la matière noire. En revanche, des travaux supplémentaires devront être réalisés pour confirmer cette possibilité. " Notre travail est une nouvelle façon de nous aider à comprendre la nature particulaire de la matière noire ", a déclaré Alonso-Álvarez. " Nous avons découvert que l’évolution des orbites des trous noirs est très sensible à la microphysique de la matière noire, ce qui signifie que nous pouvons utiliser les observations de fusions de trous noirs supermassifs pour mieux comprendre ces particules ", conclut-il.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://trustmyscience.com/, Kareen Fontaine & J. Paiano, 24 juillet 2024
[
masse manquante
]
ascendant partagé
Comment des erreurs de " copier-coller " ont façonné les humains et le monde animal
7.000 groupes de gènes nous relient à l'ancêtre commun de tous les vertébrés et les invertébrés. C'est grâce à de nombreuses erreurs au fil de l'Evolution que l'humain et les animaux sont devenus ce qu'ils sont.
(Photo : Les pieuvres ont acquis leur capacité à changer de couleur grâce à une erreur dans l'ADN - ici à l'aquarium du Croisic.)
C’est une petite créature marine qui se déplace au sol, tout au fond des fonds marins. Cet animal, tout simple, possède un système nerveux, des muscles, des organes reproductifs, un système digestif et excréteur simples. On sait qu’il a un avant et un arrière, un côté droit et un côté gauche. Rien de bien excitant, et pourtant. Cette petite créature, qui vivait il y a 600 millions d’années, est l’ancêtre commun de tous les vertébrés (les poissons, les reptiles, les oiseaux, les mammifères et donc l’Homme) et les invertébrés (les insectes, les mollusques, les vers et bien d’autres).
A quel point sommes-nous encore reliés à notre ancêtre commun ?
C’est la première fois, dans l’histoire de la vie, qu’un organisme vivant possédait ce type d’organisation basique (devant, derrière, deux côtés), qui allait mener au développement complexe de nombreux animaux, dont les humains.
(* photos : L'empreinte du plus ancien bilatérien retrouvé en Australie. Chaque barre représente 1 mm.)
Mais à quel point sommes-nous encore génétiquement reliés à cet ancêtre commun ? En analysant l’ADN de 20 animaux bilatériens (avec une gauche et une droite), une équipe du Centre for Genomic Regulation (CRG) de Barcelone (Espagne) a pu remonter la trace de plus de 7.000 groupes de gènes qui nous rattachent à cette petite créature du fond des mers.
"Quand on peut identifier le même gène dans de nombreuses espèces bilatériennes, on peut être à peu près sûrs que ce gène a été identifié chez leur dernier ancêtre commun. C’est pour cela que nous nous sommes intéressés à des espèces les plus différentes possibles. Des vertébrés - comme les humains, les souris ou les requins - aux insectes, comme les abeilles, les cafards ou les éphémères, et même des espèces distantes comme les oursins ou les pieuvres", expliquent les chercheurs.
Seule la moitié des gènes est restée telle quelle depuis 600 millions d’années
Mais seule la moitié des gènes est restée telle quelle depuis 600 millions d’années. L’autre moitié a été légèrement modifiée au cours de l’Evolution, avec l’apparition de quelques erreurs de réplication de l’ADN, révèle leur étude dans Nature Ecology & Evolution.
Spontanément, une copie supplémentaire d'un gène est apparue dans le génome. Les animaux ont alors pu garder une copie du gène pour leurs fonctions fondamentales tout en utilisant la deuxième copie pour se créer de nouvelles spécificités. C’est ainsi que ces 3.500 groupes de gènes ont complètement changé d’utilité et ont été utilisés dans certaines parties du corps et du cerveau des animaux. Une façon de faire survenir des " innovations " dans le développement des espèces.
" Certains gènes ont entraîné la perception de stimuli légers sur la peau des pieuvres, ce qui a pu contribuer à leur capacité à changer de couleur, à se camoufler et à communiquer avec d’autres pieuvres ", explique le Pr Manuel Irimia, spécialisé en biologie évolutive au Centre for Genomic Regulation. Chez les insectes, certains gènes se sont spécialisés dans les muscles et dans la formation de l’épiderme, leur permettant de voler.
Chez l'humain aussi, les apports de ces erreurs de " copier-coller " ont été cruciales. " Certaines ont eu un impact sur le cerveau. C’est grâce à elles que les oligodendrocytes, des cellules cérébrales, créent la gaine de myéline qui entoure et protège nos neurones. Chez nous mais aussi chez tous les vertébrés ", ajoute le professeur. D’autres gènes, comme FGF17, maintiennent nos fonctions cognitives du cerveau même lorsque l’âge avance.
" Nos gènes sont un peu comme un grand livre de recettes. En les changeant légèrement, on peut créer de nombreux tissus ou organes différents. Imaginez que par accident, on y retrouve deux recettes de paella identiques. On peut alors réaliser la recette originale de paella tandis que l’Evolution se chargera de modifier légèrement la deuxième pour créer la recette du risotto. Imaginez maintenant que tout le livre ait été entièrement copié. Les possibilités d’évoluer sont infinies. Ces petits changements, survenus il y a des millions d’années, se trouvent encore sur les animaux d’aujourd’hui ", sourit Federica Mantica, autrice de l’article et chercheuse au Center for Genomic Regulation de Barcelone.
Jeter un œil à cet immense arbre phylogénique, c’est regarder l’histoire de l’Homme, voire même l’histoire de la vie. " Ces copies supplémentaires se sont spécialisées dans un tissu en particulier plusieurs fois au cours de l’Evolution humaine. En fait, les humains ont été façonnés par ces événements ayant eu lieu il y a des millions d’années, lorsque nos ancêtres ressemblaient vaguement à des poissons, ce qui a créé tout le matériel génétique exploité jusqu’à aujourd’hui encore. "
Si notre ancêtre du fond des mers peut sembler extrêmement basique, c'est bien grâce à son matériel génétique que le règne animal a pu devenir aussi complexe qu'il est aujourd'hui.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.sciencesetavenir.fr/ - Coralie Lemke, 15 avril 2024
[
aïeul général
]
[
Pikaia gracilens ?
]
[
adaptation
]
[
épigenèse
]
cybernétique
Pour Cédric Villani, " la superintelligence, c’est une façon de récupérer des super milliards "
A l’heure où la Silicon Valley planche sur de nouvelles formes d'IA la crème des experts français dans ce domaine – Cédric Villani, Aurélie Jean et Edouard Grave – ont clarifié ces différents concepts lors du forum Artificial Intelligence Marseille (AIM), organisé par " La Tribune ".
C'est un superlatif qui est sur toutes les lèvres des acteurs de l'industrie de l'intelligence artificielle (IA) : la " superintelligence ", promise par OpenAI. Elle pourrait émerger dans " quelques milliers de jours seulement ", estimait récemment Sam Altman, le patron de l'entreprise créatrice de ChatGPT. Le tout à l'occasion du lancement d'une nouvelle famille de modèles d'IA, dotée de capacités de raisonnement complexes et censées représenter une première étape vers des IA autonomes.
Le principe ? Les résultats s'améliorent et, à ce rythme-là, la superintelligence pourrait être atteinte rapidement, en dépassant l'intelligence humaine, décrypte l'ancien député et auteur de la stratégie nationale de l'IA, Cédric Villani. Déjà, " sur certaines tâches, les intelligences artificielles font bien mieux que les humains. C'est vrai pour un diagnostic de cancer ou de fracture, ou en jeu de go, en somme, dans toutes sortes d'activités ", pointe le mathématicien.
Cependant, si, en parlant d'intelligence, on se réfère à " un être qui a conscience d'être un être et prend une décision ", le médaillé Fields affiche son scepticisme. " Il n'est pas clair qu'on ait avancé même un pouième là-dedans ". Et de trancher : " La superintelligence, c'est une façon de récupérer des super milliards ".
Au-delà du raisonnement analytique
" Le mot 'intelligence artificielle' a été créé à une époque où l'on réduisait l'intelligence humaine à l'intelligence analytique ", abonde la docteure en algorithmique et entrepreneuse Aurélie Jean. Une vision qui ne correspond plus à celle de la psychologie et des neurosciences d'aujourd'hui, qui font état des intelligences au pluriel - émotionnelle, créative ou pratique.
Dans ces conditions, si l'intelligence générale est capable de maîtriser, modéliser et simuler l'ensemble des tâches cognitives d'un être humain, cela devrait donc inclure " le raisonnement analytique, bien entendu, mais aussi les émotions et la conscience ", déduit Aurélie Jean. Or, l'entraînement d'un algorithme reste un calcul d'optimisation, nourri avec des milliers de paramètres. Et si on peut construire un agent conversationnel qui nous dira " je t'aime " - ce n'est pas pour autant qu'il ressentira cette émotion... Ainsi, pour Aurélie Jean, il y a d'un côté les scientifiques qui ne croient pas à cette possibilité, et puis, " quelques-uns qui font du marketing et de la communication. Sam Altman en fait partie ".
Loin d'une superintelligence générale
Écho similaire de la part d'Edouard Grave, chercheur au laboratoire français Kyutai. " Des concepts telles que la conscience ou la volonté, c'est quelque chose qui, aujourd'hui, n'est pas du tout présent dans les algorithmes utilisés ". Et si certains pensent qu'à terme, des comportements d'intelligence tels qu'on l'entend pour les humains pourraient émerger, l'échelle qu'il faudrait atteindre est " délirante et probablement irréaliste ", souligne ce spécialiste.
En outre, il estime nécessaire de distinguer la superintelligence de l'IA générale. " D'une certaine manière, on a déjà des superintelligences qui sont très spécifiques, comme le go et la détection de cancers ", confirme-t-il. Quant à l'IA générale, " on a commencé à avoir des algorithmes un peu plus généraux et pas seulement spécifiques, qui, notamment, commencent à être capables de faire des tâches pour lesquelles ils n'ont pas forcément été directement entraînés ". De là à atteindre une superintelligence générale, en conséquence, une machine qui serait capable de tout faire mieux qu'un humain, " on en est effectivement assez loin ".
Une " grande diversion "
Quand bien même cela serait possible un jour, serait-ce pour autant souhaitable ? Une superintelligence serait " un gouffre énergétique phénoménal ! ", s'exclame Cédric Villani. Enfin, même en supposant que le problème énergétique soit résolu, resterait la question de la finalité. " Si quelqu'un arrive à faire une hyperintelligence, ce sera un projet pour dominer le monde ", redoute celui qui est également président de la Fondation de l'écologie politique.
Non sans humour, il imagine une mission extraterrestre en reconnaissance de ce qui se passe sur la Terre, constatant que face à une situation critique de la planète, avec un climat déréglé et des guerres, les humains construisent... des centres de données. " Il y a quelque chose qui ressemble à une très grande diversion ", ironise-t-il. Une manière, aussi, de détourner les regards des problématiques actuelles de l'IA - " son impact environnemental et sociétal, la discrimination technologique, le digital labor, de même que son effet sur la démocratie ", renchérit Aurélie Jean.
Ce qui n'empêche pas, bien au contraire, de poursuivre la recherche en matière de superintelligence. " Nous sommes à un moment unique dans l'histoire de l'humanité où nous allons être capables de redéfinir ce qu'est l'humain, une conscience, une émotion, le fait de penser et de réfléchir, grâce aussi, entre autres, à l'IA ", poursuit-elle. En collaboration avec des linguistes et des neuroscientifiques, l'enjeu est donc de pousser les limites des modèles d'IA en espérant comprendre ce que nous sommes - à la différence d'une machine.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Natasha Laporte, 18 Nov 2024
[
évolution
]
[
force brute
]
[
financiarisation
]
[
poudre aux yeux
]
monde subatomique
Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide
Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".
Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.
Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.
Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.
Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.
" Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.
Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.
Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :
(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)
Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.
Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.
Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique.
L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises.
*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.
Explication de l'effet
Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.
Observation expérimentale
Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic)
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017
[
éther
]
[
vacuité source
]
instant de la mort
Il se passe quelque chose dans le cerveau qui n'a aucun sens
(Photo - video. La cryogénisation peut-elle nous préserver de la mort ? Actuellement dans le monde, environ 300 personnes attendent dans des caissons réfrigérés, en état de cryogénisation. Désireux d’échapper à la mort, ils espèrent un jour être réanimés par les progrès de la science. Arte et FutureMag ont interrogé Torsten Nahm, un partisan du projet, pour en savoir plus sur cette pratique)
La mort, un phénomène mystérieux qui fascine depuis des millénaires. Récemment, des découvertes surprenantes ont révélé une activité cérébrale inattendue dans les derniers instants de la vie. Ces recherches ouvrent de nouvelles perspectives sur la conscience et remettent en question notre compréhension du processus de la mort. Une révolution scientifique est-elle en marche ?
- Une activité cérébrale inattendue aux portes de la mort - Les expériences de mort imminente sous un nouveau jour - Vers une redéfinition des frontières de la mort ? - Un champ de recherche en pleine effervescence
La science de la mort connaît actuellement une véritable révolution. Des chercheurs ont mis en évidence une activité cérébrale complexe et intense dans les moments qui suivent l'arrêt cardiaque, remettant en question nos conceptions sur la fin de la vie. Ces découvertes soulèvent de nombreuses questions sur la nature de la conscience et les frontières entre la vie et la mort.
Une activité cérébrale inattendue aux portes de la mort
En 2014, une équipe de chercheurs dirigée par Jimo Borjigin, professeure de neurologie à l'Université du Michigan, a fait une découverte stupéfiante. En étudiant le cas d'une jeune femme de 24 ans en état de mort cérébrale, surnommée " Patient One ", ils ont observé une activité électrique intense et organisée dans son cerveau plusieurs minutes après l'arrêt de l'oxygénation.
Contrairement aux idées reçues, le cerveau ne s'éteint pas immédiatement après l'arrêt cardiaque. Au contraire, il connaît une véritable tempête électrique :- apparition d'ondes gamma à haute fréquence ;
- synchronisation accrue entre différentes régions cérébrales ;
- activation des zones associées à la conscience et à la mémoire.
Cette activité surprenante a persisté pendant plusieurs minutes, atteignant même des niveaux 11 à 12 fois supérieurs à ceux observés avant l'arrêt de la ventilation assistée. Ces observations remettent en question l'idée selon laquelle le cerveau cesse immédiatement de fonctionner après la mort clinique.
Les expériences de mort imminente sous un nouveau jour
Depuis des décennies, les récits d'expériences de mort imminente (EMI) fascinent le grand public et divisent la communauté scientifique. Ces témoignages de personnes ayant frôlé la mort évoquent souvent des sensations de détachement du corps, de tunnel lumineux ou de rencontre avec des êtres spirituels.
Les découvertes de Borjigin et son équipe apportent un nouvel éclairage sur ces phénomènes. L'activité cérébrale intense observée chez " Patient One " pourrait expliquer certains aspects des EMI :
Activité cérébrale Expérience subjective potentielle
Synchronisation des ondes cérébrales Sensation de détachement du corps
Activation des zones de la mémoire Défilement de la vie
Connexions entre zones du traitement conscient Visions et sensations intenses
Ces résultats suggèrent que les EMI pourraient être le produit d'une activité neurologique complexe plutôt que la preuve d'une conscience survivant à la mort du corps. Néanmoins, de nombreuses questions restent en suspens et alimentent le débat scientifique.
Vers une redéfinition des frontières de la mort ?
Les travaux de Borjigin et d'autres chercheurs dans le domaine de la thanatologie (l'étude scientifique de la mort) ouvrent de nouvelles perspectives passionnantes. Ils remettent en question notre compréhension traditionnelle du processus de la mort et soulèvent des interrogations éthiques et philosophiques :
1. À quel moment exact peut-on considérer qu'une personne est réellement morte ?
2. Existe-t-il une forme de conscience résiduelle après l'arrêt cardiaque ?
3. Ces découvertes peuvent-elles améliorer les techniques de réanimation ?
Des recherches récentes menées à l'Université de Yale ont montré qu'il était possible de réactiver partiellement des cellules cérébrales de porcs plusieurs heures après leur mort. Ces résultats, bien que préliminaires, laissent entrevoir la possibilité de repousser les limites actuelles de la réanimation.
En revanche, ces avancées soulèvent également des questions éthiques complexes. Jusqu'où est-il raisonnable d'aller dans la prolongation de la vie ? Comment définir la mort cérébrale à la lumière de ces nouvelles connaissances ?
Un champ de recherche en pleine effervescence
L'étude scientifique de la mort connaît actuellement un véritable essor. De nombreuses équipes de recherche à travers le monde explorent différentes facettes de ce phénomène complexe :
- analyse des mécanismes neurobiologiques de la mort cérébrale ;
- étude des facteurs influençant les expériences de mort imminente ;
- développement de nouvelles techniques de réanimation ;
- exploration des liens entre mort et conscience.
Ces travaux prometteurs pourraient non seulement révolutionner notre compréhension de la mort, mais aussi avoir des implications majeures dans le domaine médical. Ils ouvrent la voie à de nouvelles approches pour améliorer la prise en charge des patients en fin de vie et potentiellement sauver davantage de vies.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.futura-sciences.com/sante/actualites/medecine-nouvelle-science-mort-il-passe-quelque-chose-cerveau-na-aucun-sens-115554/
[
innovation scientifique
]
[
survie
]
[
dilemmes moraux
]
codages humains
( FLP ) - Bonjour. L'IA est toujours plus compétente pour le codage informatique... Elle sera peut-être capable d'autonomie d'ici quelques année en la matière. En tant qu'IA pourrais-tu m'expliquer les différences syntaxiques les plus importantes entre le langage humain et le codage informatique ?
(Perplexity.ai) - Voici les principales différences syntaxiques entre le langage humain et le codage informatique : Le langage humain est naturel, flexible et ambigu, tandis que le codage informatique est formel, rigide et précis. Le langage humain utilise des mots, des phrases et une grammaire complexe, alors que le codage utilise des instructions, des syntaxes et des structures de données spécifiques. Dans le langage humain, la signification dépend beaucoup du contexte et de l'interprétation. En revanche, le codage doit être sans ambiguïté et les instructions doivent être exécutées de manière déterministe. Le langage humain est souvent implicite et sous-entend des informations, tandis que le codage doit être explicite et détailler chaque étape. Les humains peuvent communiquer avec des gestes, des expressions et des sous-entendus, mais l'ordinateur ne peut comprendre que des instructions écrites de manière formelle. Enfin, le langage humain évolue naturellement, alors que le codage doit suivre des standards et des conventions stricts pour assurer la compatibilité et la maintenabilité des programmes.
(FLP) - Peut-on avancer que l'un précède s'appuie sur l'autre ? Et donc que l'un s'appuie sur l'autre ?
(Perplexity.ai) - Oui, on peut avancer que le codage s'appuie sur le langage humain, et que le langage humain précède le codage informatique. Voici les principales raisons qui étayent cette affirmation : Le langage humain est naturel, flexible et ambigu, tandis que le codage informatique est formel, rigide et précis. Le langage humain utilise des mots, des phrases et une grammaire complexe, alors que le codage utilise des instructions, des syntaxes et des structures de données spécifiques. Le langage humain a évolué naturellement au fil du temps, alors que le codage informatique a été développé pour permettre la communication avec les machines, en s'inspirant des structures du langage humain. Les langages de programmation ont été créés comme intermédiaires entre le langage humain et le langage machine binaire. Avant de coder, les programmeurs doivent avoir une compréhension du problème à résoudre et une logique de haut niveau, souvent exprimée sous forme de pseudocode, qui s'appuie sur le langage naturel. Le codage consiste ensuite à traduire cette logique dans un langage de programmation formel. Donc oui, on peut affirmer que le langage humain précède et sert de base au développement du codage informatique, qui s'en inspire pour permettre la communication avec les machines.
(FLP) - Merci. Je suis étonné qu'a aucun moment ne soient évoquées les mathématiques
(Perplexity.ai) - Vous avez raison, les sources fournies ne traitent pas directement des mathématiques, mais plutôt des différences entre le langage naturel et le langage formel. Cependant, on peut faire les observations suivantes : Les sources soulignent que le langage mathématique, tout comme le codage informatique, se distingue du langage naturel par sa syntaxe formelle, sa précision et son absence d'ambiguïté. Elles expliquent que le langage mathématique a ses propres règles grammaticales, catégories de mots et conventions de notation. Certaines sources évoquent spécifiquement l'articulation entre la syntaxe et la sémantique dans le langage mathématique, et l'importance de cette articulation pour la compréhension et l'apprentissage des mathématiques. Donc bien que les mathématiques ne soient pas le sujet principal des sources, on peut en déduire que les différences syntaxiques entre le langage naturel et le langage formel des mathématiques sont un élément clé pour comprendre la nature et l'apprentissage des mathématiques. Les sources soulignent l'importance de cette distinction dans un contexte plus général de formalisation du langage.
(FLP) - Merci. Personnellement j'ai l'impression que ce qu'il se passe c'est que les LLMs, avec les transformers et autres outils, vectorisent des mots ou éléments de langage "au-delà" des frontières des grands idiomes humains. Et donc procèdent et établissent des genres de "catalogages sémantiques des significations"... voire même de mathématisation, du verbe humain
(Perplexity.ai) - Votre observation est pertinente. Les modèles de langage les plus avancés, comme les LLMs (Large Language Models) utilisant des architectures de type transformers, semblent en effet aller au-delà des frontières des langues humaines traditionnelles pour établir une représentation sémantique plus universelle du langage. Voici quelques points clés à ce sujet : Les langues humaines sont naturelles, flexibles et ambiguës, tandis que les langages formels comme les mathématiques ou l'informatique sont plus rigides et précis. Les LLMs cherchent à capturer la sémantique sous-jacente au-delà des spécificités syntaxiques des langues. En vectorisant les mots et éléments de langage, les LLMs établissent une représentation numérique de la signification qui transcende les frontières linguistiques. Ils peuvent ainsi faire des analogies, des inférences et des généralisations au-delà des règles grammaticales d'une langue donnée. On peut voir cela comme une forme de "mathématisation" du langage naturel, où les modèles tentent de saisir la logique et la structure sémantique profonde, au-delà des variations de surface entre les idiomes humains. Cela ouvre la voie à un traitement plus universel et formel du langage par les machines. Donc vous avez raison, les LLMs semblent viser une représentation plus abstraite et générique du langage, qui dépasse les catégorisations traditionnelles des langues naturelles. Cela leur permet d'établir des "catalogages sémantiques" plus mathématiques et transversaux, au-delà des frontières linguistiques.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
22 juin 2024
[
intelligence artificielle
]
[
comparaison
]
[
dialogue homme-machine
]
[
dictionnaires 2.0
]
cosmographie
La découverte d’un lien entre les trous noirs et la matière noire pourrait résoudre le " problème du parsec final "
Les trous noirs sont considérés comme les objets astrophysiques les plus captivants. Plusieurs hypothèses ont été avancées concernant leur formation, notamment en ce qui concerne les trous noirs supermassifs (SMBH). Récemment, en adoptant une nouvelle approche, des chercheurs canadiens ont identifié un lien entre les trous noirs supermassifs et les particules de matière noire. Dans une nouvelle étude, ils suggèrent que la fusion de SMBH donnant lieu à un seul trou noir plus massif est influencée par le comportement des particules de matière noire. Cette découverte, selon eux, pourrait contribuer à résoudre le " problème du parsec final ".
Dans une étreinte gravitationnelle, les trous noirs supermassifs gravitent lentement les uns vers les autres. Selon les astronomes, leur rapprochement progressif devrait causer une émission d’ondulation dans la structure de l’espace-temps détectable depuis la Terre. C’est d’ailleurs ce que la communauté scientifique a avancé en 2023, lorsqu’un " bourdonnement " persistant d’ondes gravitationnelles raisonnant à travers l’Univers a été détecté. D’après les chercheurs, ce signal, aussi appelé "murmure de l’Univers ", pourrait être dû à la fusion de millions de trous noirs supermassifs, sur des milliards d’années.
Cependant, des simulations ont montré que lorsque des paires de SMBH se rapprochent dans un mouvement de spirale, leur approche s’arrête lorsqu’ils sont séparés d’environ un parsec (environ trois années-lumière), comme s’ils se répulsaient, empêchant ainsi la fusion. C’est ce résultat qui a donné son nom au " problème du parsec final ".
Une invitation à rêver, prête à être portée.
Récemment, une équipe de recherche de l’Université de Toronto et de l’Université McGill, dirigée par Gonzalo Alonso-Álvarez, semble avoir trouvé la solution dans le cadre d’une nouvelle étude publiée dans la revue Physical Review Letters. D’après eux, la clé réside dans l’inclusion de la matière noire, qui a longtemps été sous-estimée dans le cadre de ce processus. " Nous montrons que l’inclusion de l’effet de la matière noire, jusqu’alors négligé, peut aider les trous noirs supermassifs à surmonter ce parsec final de séparation et à fusionner. Nos calculs montrent comment cela peut se produire, contrairement à ce que l’on pensait jusqu’ici ", explique Alonso-Álvarez dans un communiqué de l’Université de Toronto.
Et si la matière noire n’était pas une substance passive et sans interaction ?
L’une des substances les plus mystérieuses de l’Univers est sans doute la matière noire (elle constituerait environ 85 % de la matière dans le cosmos). Bien qu’elle ne soit pas visible, elle témoigne de sa présence par le biais de ses effets gravitationnels sur la matière visible. Longtemps, les scientifiques ont pensé que cette matière était à la fois passive et sans interaction. Toutefois, ce n’est peut-être pas le cas. Alonso-Álvarez et son équipe suggèrent que si les particules de matière noire disposaient d’une propriété d’auto-interaction, cela génèrerait une impulsion supplémentaire pour " rassembler " les SMBH. Cette " matière noire auto-interactive " agirait par la suite comme une sorte de " colle " cosmique, permettant aux trous noirs de fusionner.
Mais la véritable question est de savoir, dans ce cas, comment cela est possible. Lorsque deux galaxies entrent en collision, leurs trous noirs centraux orbitent l’un autour de l’autre vers l’intérieur, en raison des interactions gravitationnelles avec les étoiles à proximité. Ils traversent ensuite un " pic " de concentration (très dense) de matière noire. Si cette matière noire n’interagit pas, ce pic est perturbé par le mouvement des trous noirs. En revanche, les particules de matière noire peuvent maintenir et stabiliser la structure du pic, à condition de " rebondir " les unes sur les autres.
" La possibilité que les particules de matière noire interagissent les unes avec les autres est une hypothèse que nous avons formulée, un ingrédient supplémentaire que tous les modèles de matière noire ne contiennent pas ", a déclaré Alonso-Alvarez. Il avance que leur argument réside sur le fait que " seuls les modèles contenant cet ingrédient peuvent résoudre le problème final du Parsec ".
Cette solution résout ainsi potentiellement le mystère cosmique détecté par le Pulsar Timing Array en 2023, ainsi que le problème du parsec final. D’après les chercheurs, même si la forme de ce signal d’ondes gravitationnelles ne correspond pas parfaitement à ce que l’on attend de modèles standard, leur modèle de matière noire en auto-interaction peut produire un spectre d’ondes gravitationnelles plus adapté à ces observations.
James Cline, co-auteur de l’étude, de l’Université McGill et du CERN, explique : " Une prédiction de notre proposition est que le spectre des ondes gravitationnelles observées par les réseaux de synchronisation de pulsars devrait être adouci aux basses fréquences. Les données actuelles suggèrent déjà ce comportement, et de nouvelles données pourraient le confirmer dans les prochaines années ".
L’étude d’Alonso-Alvarez et de ses collègues met en exergue le potentiel des ondes gravitationnelles dans le sondage de la nature de la matière noire. En revanche, des travaux supplémentaires devront être réalisés pour confirmer cette possibilité. " Notre travail est une nouvelle façon de nous aider à comprendre la nature particulaire de la matière noire ", a déclaré Alonso-Álvarez. " Nous avons découvert que l’évolution des orbites des trous noirs est très sensible à la microphysique de la matière noire, ce qui signifie que nous pouvons utiliser les observations de fusions de trous noirs supermassifs pour mieux comprendre ces particules ", conclut-il.
Source : Physical Review Letters
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://trustmyscience.com/, Kareen Fontaine & J. Paiano·24 juillet 2024
[
.
]
historique
Dans la bibliothèque personnelle d'Hitler
Le journaliste américain Timothy Ryback a examiné les milliers de volumes du Führer.
Celui qui ordonna les autodafés de livres possédait 16.000 volumes, dont 1.200 ont survécu au pillage pour trouver refuge dans diverses universités américaines. En 1935, sa bibliothèque était si réputée qu'elle fit l'objet d'un reportage dans "The New Yorker". Comme toute bibliothèque, celle de Hitler - il en possédait en fait une dans chaque résidence - était constituée de couches successives.
A) Tout d'abord la bibliothèque de notaire, le fonds patrimonial, celui qui rassure et auquel on ne touche guère et qu'on lit peu. C'est là qu'on trouve "Don Quichotte", "les Voyages de Gulliver", "Robinson Crusoé", "la Case de l'oncle Tom", "Hamlet" ou les romans d'aventures de Karl May.
B) La bibliothèque active, la collection qui alimente le cerveau reptilien, les ouvrages auxquels on revient sans cesse, qu'on annote, qu'on fatigue, qu'on exploite à l'infini.
C) Ajoutons-y une troisième partie constituée des envois, des livres reçus et dédicacés, qui valent surtout par ce qu'ils nous disent des auteurs comme Jünger, qui envoie son "Feu et sang" "au Führer national Adolf Hitler". C'est bien évidemment la deuxième partie qui nous intéresse. C'est là que le crayon s'arrête, souligne, annote. Le simple inventaire des livres de la bibliothèque de Hitler n'aurait pas suffit à faire un livre de 450 pages. Timothy Ryback a donc entrecoupé l'examen du fonds Hitler par un examen de la pensée d'Hitler. Il montre en quoi certaines lectures ont pu alimenter des conversations ou déterminer des décisions. En considérant comme Walter Benjamin qu'un collectionneur est conservé par sa collection, il a cherché à suivre les obsessions et les évolutions d'Hitler :
"J'ai sélectionné les volumes existants qui recelaient un contenu émotionnel ou intellectuel significatif apportant quelque clarté sur le personnage, sur ses pensées dans la solitude et ses futurs discours ou actes publics." Dans ces rayons, on trouve quantité d'auteurs racistes et antisémites : l'industriel Henry Ford, l'émule de Gobineau Hans Günther, l'ultranationaliste Paul Lagarde, le rugueux bavarois Anton Drexler, le pangermaniste Heinrich Class, le professeur de gymnastique Otto Dickel ou le haineux Dietrich Eckart, qui mélangeait "Peer Gynt", l'occultisme et la mythologie germanique.
Tous ces fielleux délirants trouvent refuge dans la bibliothèque de Hitler. On ne sait pas s'il digère tout, mais il lit, crayon à la main. C'est un lecteur boulimique, vorace, fanatique. Un livre chaque nuit. Une lubie chaque jour. Le buste de Schopenhauer sur son bureau, cet autodidacte dévore Clausewitz, les biographies de Jules César et d'Alexandre le Grand, Emmanuel Kant, qu'on retrouve avec Machiavel dans son bunker après son suicide, et se nourrit de Fichte, qui, d'après Ryback, était "le philosophe le plus proche de Hitler et de son mouvement national-socialiste, dans son esprit comme dans sa dynamique". Hitler, qui déteste les intellectuels, surtout quand ils sont juifs, ingurgite également les ouvrages traitant de la spiritualité et de l'occultisme, qui se comptent par douzaines et sont peut-être les témoins les plus bavards des préoccupations profondes de leur propriétaire. "
Dans la biographie d'Heinrich Himmler parue en septembre dernier en Allemagne, Peter Longerich, grande autorité allemande sur l'histoire de "la solution finale", s'est brièvement intéressé aux lectures du grand ordonnateur de la Shoah. A côté des romans de gare, on trouve la médiocre littérature d'extrême droite, les traités racistes de Hans Günther, "le Manuel de la question juive" de Theodor Fritsch et tout un bric-à-brac de livres toc sur la télépathie, l'astrologie et ces sciences tellement parallèles qu'elles ne rencontrent jamais l'intelligence.
Dédicace de Leni Riefenstahl sur le premier volume des oeuvres complètes de Fichte : "A mon cher Führer, avec ma profonde admiration". Nous sommes là au coeur même du personnage d'Adolf Hitler, constate Timothy Ryback. Ce fut moins une distillation des philosophies de Schopenhauer et de Nietzsche qu'une théorie bon marché, puisée dans des livres de poche et des gros livres ésotériques, où l'on distingue la genèse d'un esprit mesquin, calculateur et prêt à cogner plus qu'à discuter.
Que peut-on conclure ? Que la lecture de Cervantès ou de Shakespeare ne préserve de rien, bien sûr. On le savait déjà. La culture n'est pas un rempart contre la barbarie. Elle se situe juste à côté. Il suffit de lire en ne voulant pas comprendre. Chez Hitler, ce ne sont pas les grands auteurs, les lourds classiques qui comptent, mais ce qu'il y a à côté. Le problème, c'est quand Goethe voisine avec des auteurs racistes. Les livres peuvent préserver de l'inhumanité, mais ils ne sont pas une condition suffisante. Tout dépend de l'usage qu'on en fait. Au fond, c'est la limite de l'investigation de Timothy Ryback. Il a cherché à comprendre ce qui se passait dans la tête d'Hitler en examinant a posteriori sa bibliothèque. Imaginons un seul instant qu'on ne sache rien de son propriétaire, que nous possédions juste une liste. On pourrait, en faisant l'inventaire, en déduire que l'homme sait choisir ses classiques, qu'il aime la guerre, qu'il est antisémite, qu'il apprécie l'occultisme, qu'il est curieux, bizarre, dérangé peut-être, mais rien ne nous dirait qu'il mit l'Europe à feu et à sang et qu'il extermina 6 millions de juifs. On peut faire dire beaucoup à une bibliothèque, mais sûrement pas ce que pensait vraiment son propriétaire.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Nouvel Obs. 18 mars 2009
[
bouquins
]
[
nazisme
]
[
dictateur
]
[
littérature
]
[
biais de confirmation
]
[
biblio-reflet
]
palier évolutif
L’explosion cambrienne déclenchée par plusieurs transgressions marines ?
Il y a 542 millions d'années apparaissaient, durant une période de quelques dizaines de millions d'années seulement, les grandes lignées d'animaux multicellulaires, comme les vertébrés et les arthropodes. Les lignées végétales et bactériennes se sont elles aussi diversifiées.
Quel fut le déclencheur de cet événement planétaire ?
La libération massive d'ions dans les océans, due à une érosion devenue intense, affirme une équipe américaine. Les organismes marins auraient utilisé ces polluants pour fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.
Les premières formes de vie seraient apparues sur Terre il y a 3,5 milliards d'années. Curieusement, ces êtres restèrent en grande majorité unicellulaires (vivant parfois en colonies) jusqu'à l'explosion cambrienne survenue il y a seulement 542 millions d'années. Cet événement vit alors naître de nombreux organismes pluricellulaires et des structures biominérales (par exemple des coquillages) en seulement quelques millions d'années, preuve d'une accélération soudaine de l'évolution (comme en témoignent par exemple les schistes de Burgess). Mais quel fut le facteur déclenchant ? Cette question taraude de nombreux scientifiques depuis longtemps car peu d'hypothèses convaincantes ont été apportées.
Il existe pour la même époque une autre grande curiosité, mais cette fois d'ordre géologique, clairement observable dans le Grand Canyon. L'analyse des couches stratigraphiques de cette région révèle l'histoire de la Terre sur près de 2 milliards d'années, ou presque, car il reste plusieurs discordances chronologiques. Ainsi, il n'y a pas de trace de roches datant de l'époque de l'explosion cambrienne. Des sédiments âgés de 525 millions d'années reposent directement sur des roches métamorphiques de 1.740 millions d'années et des couches sédimentaires inclinées âgées de 1.200 à 740 millions d'années. Des roches sédimentaires "jeunes" provenant de mers peu profondes recouvrent donc de "vieilles" roches sans aucune continuité logique. Mais une question se pose : a-t-on vraiment perdu des informations sur l'évolution de la Terre pendant 215 millions d'années à cause de cette inconformité géologique ?
Il semble bien que non. Selon Shanan Peters de l'université de Wisconsin-Madison, cette absence de données géologiques permettrait d'expliquer le mécanisme déclencheur de l'explosion cambrienne. Les résultats obtenus par l'équipe de ce chercheur sont présentés dans la revue Nature. L'inconformité résulterait d'une succession d'événements géologiques ayant causé la libération massive d'ions dans les océans. Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation. Cette dernière changea alors radicalement le cours de l’évolution, tant les avantages qu'elle apporte sont nombreux.
(Illustration - Le Grand Canyon s'étend sur 450 km de long et possède une profondeur moyenne de 1.300 mètres. Les strates visibles permettent littéralement de lire l'histoire géologique du continent nord-américain - L’explosion cambrienne serait liée à un trop plein d'ions)
Ces explications font suite à l'analyse des propriétés géochimiques de plus de 20.000 échantillons de roches prélevés en Amérique du Nord.
Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d'anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l'air et à l'eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d'ions calcium, potassium, fer et silice. La chimie de l'eau fut alors profondément modifiée.
Un dernier retour des mers il y a 525 millions d'années provoqua le dépôt de sédiments plus jeunes. De nombreuses traces géologiques confirment ces événements - couches de glauconite et d'autres roches particulièrement riches en potassium, fer et silice.
(ici un schéma montre la brutale accélération de l'évolution au Cambrien avec apparition de beaucoup de genres d'espèces vivantes - diversité.
Des minerais pour évacuer le trop plein d’ions
Chaque organisme vivant maintient un équilibre ionique avec le milieu. L'arrivée massive d'ions dans l'environnement marin a dû profondément perturber cette balance. Plusieurs espèces se seraient mises à stocker leurs excédents en ions calcium, potassium, fer et silice sous forme de minerais afin de rétablir l'équilibre. Cette stratégie a deux avantages : les effets des particules chargées sont limités et elles ne sont pas rejetées dans le milieu où elles pourraient à nouveau jouer un rôle néfaste.
Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l'explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur "squelette" siliceux.
Les avantages évolutifs procurés par ces minéraux sont conséquents puisqu'ils sont utilisés pour la conception de coquilles et d'épines (rôle de protection), de squelettes (rôle de soutien) et de griffes ou dents (rôle dans la prédation). Leur apparition permet de mieux comprendre le changement soudain du cours de l'évolution.
Ce que certains qualifiaient de "trou" dans les enregistrements de l'histoire de la Terre se révèle en réalité être une source d'information d'une valeur inestimable. La "grande inconformité" (en anglais Great Unconformity) révèle ainsi un mécanisme probable du déclenchement de l'explosion radiative du Cambrien.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Quentin Mauguit, Futura-sciences.com, 24/04/2012
[
animal-minéral
]
[
paléontologie
]
[
radiations adaptatives
]
[
pressions de sélection
]
[
palier évolutif
]
[
équilibres ponctués
]
intrications
Les scientifiques qui étudient le cerveau ont découvert que cet organe opère simultanément jusqu'à 11 dimensions différentes, créant des structures multivers qui présentent "un monde que nous n'avions jamais imaginé".
En utilisant un système mathématique avancé, les chercheurs ont pu montrer des structures architecturales qui apparaissent lorsque le cerveau doit traiter l'information, avant de se désintégrer et disparaitre. Leurs résultats, publiés dans la revue Frontiers in Computational Neuroscience, révèlent les processus extrêmement complexes impliqués dans la création de structures neuronales, ce qui pourrait aider à expliquer pourquoi le cerveau est si difficile à comprendre et à associer sa structure à sa fonction.
L'équipe, dirigée par des scientifiques de l'EPFL en Suisse, effectuait des recherches dans le cadre du projet Blue Brain, une initiative visant à créer une reconstruction biologiquement détaillée du cerveau humain. En travaillant d'abord sur les cerveaux des rongeurs, l'équipe a utilisé des simulations de supercalculateurs pour étudier les interactions complexes dans différentes de ses régions. Dans cette dernière étude, les chercheurs ont pu approfondir les structures du réseau neuronal du cerveau en utilisant la topologie algébrique - un système utilisé pour décrire des réseaux avec des espaces et des structures en constante évolution.
C'est la première fois que cette branche des mathématiques est appliquée aux neurosciences. "La topologie algébrique est comme un télescope et un microscope en même temps. Elle peut zoomer dans les réseaux pour trouver des structures cachées - les arbres dans la forêt - et voir les espaces vides - les clairières - tout en même temps", précise Kathryn Hess. Dans l'étude, les chercheurs ont effectué de multiples tests sur le tissu cérébral virtuel pour découvrir des structures cérébrales qui n'apparaitraient jamais par hasard. Ils ont ensuite effectué les mêmes expériences sur des tissus cérébraux réels afin de confirmer leurs résultats virtuels. Ils ont découvert que lorsqu'on présente un stimulus au tissu virtuel, des groupes de neurones forment une clique. Chaque neurone se connecte à tous les autres neurones de manière très spécifique pour produire un objet géométrique précis. Plus il y a de neurones dans une clique, plus les dimensions sont élevées. Dans certains cas, les chercheurs ont découvert des cliques avec jusqu'à 11 dimensions différentes.
Les structures s'assemblent en des enceintes qui forment des trous à haute dimension que l'équipe a nommé cavités. Une fois que le cerveau a traité l'information, la clique et la cavité disparaissent.
Multivers du cerveau. "L'apparition de ces cavités high-dimensionnelles lorsque le cerveau traite des informations signifie que les neurones du réseau réagissent aux stimuli d'une manière extrêmement organisée", a déclaré l'un des chercheurs, Ran Levi. "C'est comme si le cerveau réagit à un stimulus en construisant puis en rasant une tour de blocs multidimensionnels, en commençant par des tiges (1D), des planches (2D), puis des cubes (3D), puis des géométries plus complexes avec 4D, 5D, etc. La progression de l'activité à travers le cerveau ressemble à un château de sable multidimensionnel qui se matérialise hors du sable puis se désintègre ", a-t-il déclaré. Henry Markram, directeur de Blue Brain Project, avance que les résultats pourraient aider à expliquer pourquoi le cerveau est si difficile à comprendre. "Les mathématiques appliquées habituellement aux réseaux d'étude ne peuvent pas détecter les structures et les espaces à grande dimension que nous voyons maintenant clairement", a-t-il déclaré. "Nous avons découvert un monde que nous n'avions jamais imaginé. Il y a des dizaines de millions de ces objets, même dans un petit segment du cerveau, à travers sept dimensions. Dans certains réseaux, nous avons même trouvé des structures allant jusqu'à onze dimensions". Les résultats indiquent que le cerveau traite les stimuli en créant ces cliques et cavités complexes, de sorte que la prochaine étape sera de savoir si notre capacité à effectuer des tâches compliquées nécessite ou non la création de ces structures multidimensionnelles.
Dans une interview par courrier électronique avec Newsweek, Hess dit que la découverte nous rapproche de la compréhension d' "un des mystères fondamentaux de la neuroscience: le lien entre la structure du cerveau et la façon dont elle traite l'information". En utilisant la topologie algébrique l'équipe a pu découvrir "la structure hautement organisée cachée dans les modèles de tir apparemment chaotiques des neurones, une structure qui était invisible jusqu'à ce que nous l'examinions avec ce filtre mathématique particulier". Hess dit que les résultats suggèrent que lorsque nous examinons l'activité du cerveau avec des représentations à faible dimension, nous n'observons que l'activité réelle qui se déroule. Cela signifie que nous pouvons voir des informations, mais pas l'image complète. "Alors, dans un sens, nos découvertes peuvent expliquer pourquoi il a été si difficile de comprendre la relation entre la structure et la fonction du cerveau", explique-t-elle.
"Le schéma de réponse stéréotypique que nous avons découvert indique que le circuit répond toujours aux stimuli en construisant une séquence de représentations géométriques commençant dans des dimensions faibles et en ajoutant des dimensions progressivement plus élevées, jusqu'à ce que l'accumulation s'arrête soudainement et s'effondre: une signature mathématique pour les réactions à stimuli. "Pour le travail futur, nous avons l'intention d'étudier le rôle de la plasticité - le renforcement et l'affaiblissement des connexions en réponse aux stimuli - avec les outils de topologie algébrique. La plasticité est fondamentale pour le processus mystérieux d'apprentissage, et nous espérons que nous pourrons donner un nouvel aperçu de ce phénomène", a-t-elle ajouté.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.newsweek.com/brain-structure-hidden-architecture-multiverse-dimensions-how-brain-works-6243006/12/17 by Hannah Osborne - Ici FLP regrette sa volonté réitérée de ne pas insérer d'images dans les textes. Elles sont ici très parlantes.
[
simultanéïté
]
[
réfléchir
]
[
réflexion humaine modélisée
]