Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5481
Temps de recherche: 0.0527s

intelligence collective

L'algorithme simple que les fourmis utilisent pour construire des ponts

Même sans personne pour les diriger, les fourmis légionnaires travaillent en groupe pour construire des ponts avec leurs corps. De nouvelles recherches révèlent les règles simples qui conduisent à un comportement de groupe aussi complexe.

Les fourmis légionnaires forment des colonies de plusieurs millions d'individus, mais n'ont pas de foyer permanent. Elles traversent la jungle chaque nuit à la recherche de nouveaux lieux de recherche de nourriture. En chemin, elles accomplissent des prouesses logistiques qui feraient la fierté d'un général quatre étoiles, notamment la construction de ponts avec leur propre corps.

Tout comme les essaims de robots bon marché et stupides que j’ai étudiés dans mon récent article, les fourmis légionnaires gèrent cette coordination sans chef et avec des ressources cognitives minimales. Une fourmi légionnaire individuelle est pratiquement aveugle et possède un cerveau minuscule qui ne peut pas même commencer à comprendre leur mouvement collectif élaboré. " Il n’y a pas de chef, pas de fourmi architecte qui dit ‘nous devons construire ici’ ", a déclaré Simon Garnier , directeur du Swarm Lab au New Jersey Institute of Technology et co-auteur d’une nouvelle étude qui prédit quand une colonie de fourmis légionnaires décidera de construire un pont.

L’étude de Garnier permet d’expliquer non seulement comment les fourmis non organisées construisent des ponts, mais aussi comment elles accomplissent la tâche encore plus complexe qui consiste à déterminer quels ponts valent la peine d’être construits.

(vidéo : Alors que l'écart s'élargit lentement, un pont de fourmis armée s'effondre puis se rétablit.)

Pour comprendre comment cela se déroule, prenons le point de vue d’une fourmi en marche. Lorsqu’elle rencontre un obstacle sur son chemin, elle ralentit. Le reste de la colonie, qui avance toujours à 12 centimètres par seconde lui marche dessus. À ce stade, deux règles simples s’appliquent.

La première dicte à la fourmi que lorsqu’elle sent d’autres fourmis marcher sur son dos, elle doit se figer. " Tant que quelqu’un te marche dessus, tu restes immobile ", explique Garnier.

Le même processus se répète chez les autres fourmis : elles enjambent la première fourmi, mais — oh, oh — l’espace est toujours là, donc la fourmi suivante ralentit, se fait piétiner et se fige sur place. De cette façon, les fourmis construisent un pont suffisamment long pour enjamber l’espace qui se trouve devant elles. Les fourmis qui suivent dans la colonie peuvent alors marcher dessus.

Mais ce n’est pas tout. Les ponts impliquent des compromis. Imaginez qu’une colonie de fourmis se retrouve face à un trou en forme de V sur son chemin. La colonie ne veut pas faire le tour complet du trou – cela prendrait trop de temps – mais elle ne construit pas non plus de pont sur la partie la plus large du trou, ce qui minimiserait la distance à parcourir par la colonie. Le fait que les fourmis légionnaires ne construisent pas toujours le pont qui minimise la distance suggère qu’il existe un autre facteur dans leur calcul inconscient.

(Photo : un contour- espace en forme de V offre aux fourmis un compromis : un chemin plus direct nécessitera plus de fourmis pour le construire.)

" En écologie, quand on voit quelque chose de ce genre, cela signifie généralement qu'il y a un rapport coût-bénéfice ", explique Garnier. " On essaie de comprendre : quel est le bénéfice et quel est le coût ? "

Selon les écologistes, le prix à payer est que les fourmis piégées dans les ponts ne sont pas disponibles pour d’autres tâches, comme la recherche de nourriture. À tout moment au cours d’une marche, une colonie peut entretenir entre 40 et 50 ponts - avec une seule fourmi et jusqu’à 50 fourmis par pont. Dans un article de 2015 , Garnier et ses collègues ont calculé que jusqu’à 20 % de la colonie peut être occupée dans des ponts à la fois. À ce stade, un itinéraire plus court ne vaut tout simplement pas les fourmis supplémentaires qu’il faudrait pour créer un pont plus long.

Sauf que, bien sûr, les fourmis individuelles n’ont aucune idée du nombre de leurs congénères qui se maintiennent dans un tel  pont-passage. Et c’est là qu’entre en jeu la deuxième règle. Lorsque les fourmis individuelles exécutent l’algorithme de " pontage ", elles sont sensibles à la bousculade. Lorsque le trafic sur leur dos dépasse un certain niveau, elles restent en place, mais lorsque ce niveau descend en dessous d’un certain seuil – peut-être parce que trop d’autres fourmis sont maintenant occupées à construire elles-mêmes un pont – la fourmi se débloque et rejoint la marche.

Cette nouvelle étude est le résultat d'expériences menées sur des fourmis légionnaires dans la jungle panaméenne en 2014. Sur la base de ces observations, les chercheurs ont créé un modèle qui quantifie la sensibilité des fourmis au passage des piétons et prédit quand une colonie franchira un obstacle et quand elle décidera, en quelque sorte, qu'il vaut mieux faire le tour.

" Nous essayons de déterminer si nous pouvons prédire dans quelle mesure les fourmis prendront des raccourcis en fonction de la géométrie de leur environnement ", a déclaré Garnier.

L'évolution semble avoir doté les fourmis armées de l'algorithme idéal pour construire des ponts à la volée. Les chercheurs qui travaillent à la construction d'essaims de robots simples cherchent encore les instructions qui permettront à leurs machines bon marché d'accomplir des prouesses similaires. L'un des défis auxquels ils doivent faire face est que la nature fabrique des fourmis de manière plus fiable et à moindre coût que les humains ne peuvent fabriquer des robots-essaims, dont les batteries ont tendance à s'épuiser. Le deuxième défi est qu'il est très possible que le comportement des fourmis armées soit régi par d'autres règles que les deux simples exemples décrits ici.

" Nous décrivons les fourmis légionnaires comme des êtres simples, mais nous ne comprenons même pas ce qu'elles font. Oui, elles sont simples, mais peut-être pas aussi simples qu'on le pense ", a déclaré Melvin Gauci , chercheur à l'Université de Harvard qui travaille sur la robotique en essaim. 

Auteur: Internet

Info: Quanta Magazine, Kevin Hartnett, fév. 2028

[ insectes ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

longévité des populations

La durée de votre vie dépend beaucoup de l'endroit où vous êtes né...

(par ordre décroissant)

1 Monaco 87

2 Saint-Marin 86

3 Hong Kong 86

4 Japon 85

5 Corée du Sud 85

6 Saint-Barthélemy 85

7 Andorre 84

8 Polynésie française 84

9 Suisse 84

10 Australie 84

11 Italie 84

12 Singapour 84

13 Espagne 84

14 Liechtenstein 84

15 Réunion 84

16 Gibraltar 84

17 Malte 84

18 Norvège 84

19 France 84

20 Suède 84

21 Guernesey 84

22 Macao 83

23 Saint-Siège 83

24 Émirats arabes unis 83

25 Islande 83

26 Martinique 83

27 Canada 83

28 Israël 83

29 Irlande 83

30 Portugal 83

31 Qatar 83

32 Bermudes 83

33 Luxembourg 82

34 Pays-Bas 82

35 Belgique 82

36 Guadeloupe 82

37 Nouvelle-Zélande 82

38 Autriche 82

39 Danemark 82

40 Finlande 82

41 Grèce 82

42 Porto Rico 82

43 Chypre 82

44 Slovénie 82

45 Allemagne 82

46 Royaume-Uni 82

47 Bahreïn 82

48 Chili 82

49 Maldives 82

50 Île de Man 81

51 Costa Rica 81

52 Taïwan 81

53 Koweït 81

54 Îles Caïmans 81

55 Saint-Martin 81

56 Îles Féroé 81

57 Oman 80

58 Tchéquie 80

59 Maillot 80

60 Panama 80

61 Albanie 80

62 Anguilla 80

63 États-Unis 80

64 Îles Malouines 80

65 Estonie 79

66 Arabie Saoudite 79

67 Îles Mariannes du Nord 79

68 Nouvelle-Calédonie 79

69 Pologne 79

70 Croatie 79

71 Îles Wallis et Futuna 79

72 Slovaquie 79

73 Uruguay 78

74 Cuba 78

75 Kosovo 78

76 Chine 78

77 Îles Turques-et-Caïques 78

78 Bosnie-Herzégovine 78

79 Jordanie 78

80 Pérou 78

81 Colombie 78

82 Liban 78

83 Iran 78

84 Antigua-et-Barbuda 78

85 Sri Lanka 78

86 Turquie 78

87 Bonaire 78

88 Équateur 78

89 Argentine 78

90 Macédoine du Nord 78

91 Guam 78

92 Îles Vierges britanniques 78

93 Polynésie 78

94 Monténégro 77

95 Guyane française 77

96 Hongrie 77

97 Tokelau 77

98 Curaçao 77

99 Serbie 77

100 Sainte-Hélène 77

101 Saint-Pierre-et-Miquelon 77

102 Malaisie 77

103 Tunisie 77

104 Thaïlande 77

105 Saint-Martin 77

106 Algérie 77

107 Aruba 77

108 Barbade 76

109 Montserrat 76

110 Lettonie 76

111 Mayotte 76

112 Cap-Vert 76

113 Lituanie 76

114 Roumanie 76

115 Brésil 76

116 Arménie 76

117 Bulgarie 76

118 Îles Vierges américaines 76

119 Maroc 76

120 Brunei 76

121 Îles Cook 76

122 Grenade 76

123 Mexique 75

124 Maurice 75

125 Nicaragua 75

126 Bangladesh 75

127 Vietnam 75

128 Ukraine 75

129 Bahamas 75

130 Géorgie 75

131 Biélorussie 75

132 Azerbaïdjan 75

133 Kazakhstan 75

134 Paraguay 74

135 République dominicaine 74

136 Belize 74

137 Suriname 74

138 Corée du Nord 74

139 Trinité-et-Tobago 74

140 Bhoutan 74

141 Russie 74

142 Tonga 73

143 Honduras 73

144 Libye 73

145 Seychelles 73

146 Samoa américaines 73

147 Palestine 73

148 Sainte-Lucie 73

149 Syrie 73

150 Guatemala 73

151 Venezuela 73

152 Ouzbékistan 73

153 Irak 73

154 Salvador 73

155 Inde 72

156 Saint-Kitts-et-Nevis 72

157 Mongolie 72

158 Tadjikistan 72

159 Égypte 72

160 Kirghizistan 72

161 Samoa 72

162 Vanuatu 72

163 Sahara occidental 72

164 Jamaïque 72

165 Saint-Vincent-et-les-Grenadines 72

166 Moldavie 71

167 Dominique 71

168 Indonésie 71

169 Cambodge 71

170 Népal 71

171 Îles Salomon 71

172 Guyane 70

173 Turkménistan 70

174 Groenland 70

175 Niue 70

176 Sao Tomé-et-Principe 70

177 Philippines 70

178 Yémen 70

179 Palaos 69

180 Laos 69

181 Botswana 69

182 Sénégal 69

183 Érythrée 69

184 Mauritanie 69

185 Bolivie 69

186 Ouganda 69

187 Gabon 69

188 Rwanda 68

189 Timor-Leste 68

190 Pakistan 68

191 Éthiopie 68

192 Malawi 68

193 Namibie 68

194 Fidji 68

195 Micronésie 68

196 Tanzanie 67

197 Tuvalu 67

198 Birmanie 67

199 Comores 67

200 Îles Marshall 67

201 Kiribati 67

202 Soudan 67

203 Zambie 67

204 Afghanistan 67

205 Afrique du Sud 66

206 Djibouti 66

207 Papouasie-Nouvelle-Guinée 66

208 Gambie 66

209 Congo 66

210 Ghana 66

211 Haïti 65

212 Angola 65

213 Guinée-Bissau 64

214 Eswatini 64

215 Cameroun 64

216 Guinée équatoriale 64

217 Madagascar 64

218 Kenya 64

219 Burundi 64

220 Mozambique 64

221 Zimbabwe 63

222 Togo 63

223 Libéria 62

224 Nauru 62

225 Côte d'Ivoire 62

226 RDC 62

227 Sierra Leone 62

228 Niger 62

229 Burkina Faso 61

230 Bénin 61

231 Guinée 61

232 Mali 61

233 Somalie 59

234 Lesotho 58

235 République centrafricaine 58

236 Soudan du Sud 58

237 Tchad 55

238 Nigéria 55


Auteur: Internet

Info: https://population.un.org/wpp/ - 2024

[ statistiques ] [ nations terrestres ] [ inégalités ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

envahisseurs

Des guerriers mystérieux ont effectué la migration la plus rapide de l'histoire ancienne. L'adn confirme que les Avars sont passés la Mongolie à la Hongrie en l'espace d'une ou deux décennies.

Les Avars, mystérieux guerriers à cheval , ont contribué à accélérer la fin de l'Empire romain. Ils ont dominé les plaines entre Vienne et Belgrade en Serbie, pendant plus de deux siècles. Puis ils ont disparu sans laisser de trace. Les chercheurs ont cherché leurs origines depuis lors. Aujourd'hui, des preuves archéologiques et génétiques révèlent que les Avars étaient des migrants venus de Mongolie et que leur migration fut alors la progression longue distance le plus rapide de l'histoire de l'humanité.

Les Avars n'avaient pas d'archives écrites. Les tombes et les récits historiques suggèrent qu'ils ont dominé les plaines de l'actuelle Hongrie peu après leur arrivée en Europe, il y a environ 1500 ans. Ils enterraient leurs élites dans d'immenses tumulus, entourés d'armes et de récipients en or et en argent finement décorés. Ils étaient souvent enterrés avec des chevaux et des équipements d'équitation. (Les plus anciens étriers d'Europe proviennent de leurs tombes).

Ce sont ces sépultures très élaborées qui ont fourni des indices sur les origines des Avars. Une équipe internationale de chercheurs a extrait de l'ADN ancien des squelettes de dizaines d'hommes et de femmes de haut rang enterrés dans 27 sites de l'actuelle Hongrie. En comparant cet ADN avec les bases de données existantes sur l'ADN ancien, l'équipe a découvert que les correspondances les plus proches provenaient de tombes datant du sixième siècle dans ce qui est aujourd'hui la Mongolie. "Génétiquement parlant, les Avars d'élite ont un profil très, très oriental", déclare Choongwon Jeong, co-auteur et généticien à l'Université nationale de Séoul.

Les premières sépultures avars correspondent presque parfaitement à celle d'un individu enterré quelques décennies plus tôt dans l'est de la Mongolie, ainsi les premiers Avars d'Europe ont probablement fait eux-mêmes un voyage de près de 7 000 kilomètres. Ils ont probablement profité de leur mode de vie nomade, des réseaux commerciaux qui s'étendaient dans la vaste steppe et de leurs prouesses à cheval pour se déplacer rapidement dans les prairies d'Eurasie. "L'ADN est si proche qu'il ne doit pas y avoir plus d'une génération d'écart, voire moins", déclare Jeong.

Ces données génétiques corroborent deux récits historiques sur les origines des Avars. Une source chinoise du VIe siècle décrit un peuple de steppe énigmatique appelé les Rouran, un des nombreux groupes de nomades à cheval qui ont déferlé des steppes mongoles qui attaquaient leurs frontières septentrionales. L'empire des prairies du Rouran aurait été vaincu par des nomades rivaux en 552 de notre ère.

Et, à un continent de là, et à peine 15 ans plus tard, des diplomates de Byzance, puissants vestiges orientaux de l'Empire romain autrefois puissant, signalent l'arrivée d'un nouveau groupe venu de l'est sur les rives de la mer Caspienne. Les nouveaux arrivants se nommaient Avars et se disaient apparentés à un peuple lointain connu sous le nom de Rouran. Leur histoire d'origine était-elle vraie, ou simplement une vantardise ?

Les nouvelles données génétiques semblent répondre à cette question selon Walter Pohl, historien à l'université de Vienne. "Nous avons des  indications très claires qu'ils provenaient sûrement du cœur de l'empire Rouran. Ils étaient les voisins des Chinois."

Après leur arrivée aux marges de l'Empire romain, les Avars ont poussé vers l'Europe centrale, conquérant les plaines le long du Danube entre les actuelles Vienne et Belgrade, assiégeant même Constantinople, aujourd'hui Istanbul, en 623 avant J.-C. Ils furent finalement vaincus par Charlemagne - un roi dont l'armée, plus grande et plus performante, détruisit leur capitale et finit par unifier la majeure partie de l'Europe pour la première fois depuis des siècles - à la fin des années 700.

Pour en savoir plus sur la structure de la société avar, les chercheurs ont comparé les tombes avars de différentes périodes, localisations et couches sociales. Leurs tombes et leurs gènes suggèrent que les membres de l'élite de la société Avar formaient un groupe soudé. L'ADN des sépultures des élites au début des années 700 présente encore des caractéristiques est-asiatiques, ce qui suggère que les élites ne se mélangeaient pas à la population européenne locale. Les sépultures moins ornées situées plus loin du centre du royaume, quant à elles, présentent une ascendance plus mélangée.

"Les non-élites se sont probablement mélangées à la population locale", déclare Guido Gnecchi-Ruscone, généticien des populations à l'Institut Max Planck d'anthropologie évolutive, "mais il apparaît que l'élite est restée homogène".

Les preuves génétiques suggèrent également que le groupe qui s'est déplacé de la Mongolie vers la Hongrie était beaucoup plus important que ce que les chercheurs avaient prévu. Si les arrivants n'avaient été qu'un petit groupe de guerriers et leurs épouses, leurs descendants auraient présenté de puissants signaux génétiques de consanguinité après deux siècles. Mais il n'y a pas de tels signaux, la plupart des restes étudiés dans les tombes d'élite conservent une puissante signature est-asiatique. Cela suggère que la population était forte de dizaines de milliers de personnes ou que d'autres migrants de leur patrie ont continué à rejoindre les Avars en Europe pendant des décennies après leurs premières conquêtes.

Selon les archéologues, cette étude multidisciplinaire marque un tournant par rapport aux recherches qui se limitent à l'examen des données génétiques pour faire des déclarations hâtives sur les migrations passées. "Ils essaient d'examiner des questions sociales et des échelles de temps plus fines, et c'est la direction que nous devrions prendre", déclare Bryan Miller, archéologue à l'université du Michigan à Ann Arbor. "C'est le genre d'article qu'il faut pour une parution au sujet de génomique".

Ce qui s'est passé après la défaite des Avars face à Charlemagne reste flou. Leur signature génétique s'est rapidement réduite à presque rien dans les régions qu'ils ont autrefois gouvernées, dit Gnecchi-Ruscone. "Quelque chose s'est produit, mais nous ne savons pas quoi : ont-ils déménagé ? Sont-ils simplement submergés par la population locale ? C'est l'une des choses que nous voulons découvrir". 


Auteur: Internet

Info: https://www.cell.com/

[ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

entendement

La lenteur insoupçonnée de nos pensées mise en lumière par une étude récente

Seulement 10 bits par seconde, contre un milliard pour les systèmes sensoriels.

Alors que nos systèmes sensoriels traitent les informations à une vitesse d’un milliard de bits par seconde, nos pensées ne seraient traitées par le cerveau qu’à une vitesse de 10 bits par seconde, selon une étude. Ce paradoxe pourrait expliquer l’impression erronée que notre cerveau peut s’engager dans plusieurs pensées simultanément, alors qu’il en traite probablement une à la fois. Ces résultats soulèvent de nombreuses questions et pourraient conduire à des changements de paradigme pour de nombreuses disciplines neuroscientifiques.

La plupart d’entre nous avons l’impression que nos pensées sont plus riches et plus nombreuses que ce que nous sommes capables d’exprimer en temps réel. Ce " problème de bande passante " a stimulé les recherches dans le domaine des interfaces cerveau-ordinateur, dont l’un des objectifs serait d’augmenter la vitesse à laquelle nos pensées sont traitées. Il a notamment été suggéré que la rapidité à laquelle nos pensées sont exprimées est limitée uniquement par la lenteur de la parole ou de l’écriture. Le domaine intéresse particulièrement les grands noms de la tech, comme Elon Musk (PDG de Tesla et de Space X, entre autres), tel que nous l’avons abordé dans un précédent article d’investigation.

Cependant, une nouvelle étude des chercheurs du California Institute of Technology (Caltech), suggère que notre processus de pensée est bien plus lent qu’on le pensait. " Le cerveau humain est bien moins impressionnant qu’on pourrait le croire ", explique le co-auteur de l’étude et neuroscientifique de Caltech, Markus Meister, au Scientific American. " Il est incroyablement lent lorsqu’il s’agit de prendre des décisions, et il est ridiculement plus lent que n’importe lequel des appareils avec lesquels nous interagissons ", affirme-t-il. Cela signifie que nos pensées resteraient toujours lentes, même en utilisant une interface cerveau-ordinateur.

100 millions de fois plus lents que les systèmes sensoriels

L’équipe de Caltech a utilisé des techniques issues de la théorie de l’information pour analyser une vaste quantité de littérature scientifique sur les comportements cognitifs humains, tels que la lecture et l’écriture, les jeux vidéo et la résolution de Rubik’s Cubes. L’étude s’appuie également sur plusieurs décennies de travaux montrant que les humains ne peuvent percevoir de manière sélective qu’une petite partie des informations provenant des systèmes sensoriels. Les recherches antérieures ont donc déjà mis en évidence un écart entre notre processus de pensées et nos systèmes sensoriels, mais manquaient de données quantitatives.

D’après les résultats, publiés dans la revue Neuron, la vitesse des processus de pensées humaines serait généralement de 10 bits par seconde, soit environ la même vitesse que les frappes sur un clavier ou une conversation. En revanche, nos systèmes sensoriels traiteraient les informations à une vitesse d’un milliard de bits par seconde, soit 100 millions de fois plus vite que les pensées. " C’est un chiffre extrêmement faible ", explique Meister dans un communiqué. " À chaque instant, nous extrayons seulement 10 bits du milliard d’informations que nos sens captent et nous les utilisons pour percevoir le monde qui nous entoure et prendre des décisions. "

À titre de comparaison, une connexion Wi-Fi standard peut par exemple traiter 50 millions de bits par seconde d’informations. En outre, d’après les calculs des chercheurs, la quantité totale d’informations qu’un humain pourrait apprendre au cours de toute sa vie pourrait tenir dans une simple clé USB.

D’après les chercheurs, cet écart expliquerait pourquoi nous avons l’impression erronée de pouvoir saisir simultanément tous les détails de l’environnement qui nous entoure et traiter plusieurs pensées à la fois. Cette impression serait complètement erronée, car lorsqu’on demande par exemple à une personne de décrire ce qu’elle voit en dehors de l’objet sur lequel son regard est focalisé, elle " ne distingue pratiquement rien ", indique l’expert. Le même phénomène se produirait pour les processus de réflexion : nous avons l’impression qu’on peut s’engager dans plusieurs réflexions à la fois, mais en réalité, le cerveau ne peut en traiter qu’une à la fois.

Un écart dû à l’évolution du cerveau ?

Ces résultats soulèvent un certain nombre de questions, notamment : pourquoi y a-t-il un tel écart entre le cerveau et les systèmes sensoriels ? Comment le cerveau filtre-t-il les millions d’informations provenant de ces derniers pour ne prendre en charge que 10 bits par seconde ? Le cerveau compte plus de 85 milliards de neurones, dont un tiers est dédié à la réflexion de haut niveau, et chaque neurone pourrait facilement prendre en charge plus de 10 bits d’information par seconde. Alors pourquoi ne pouvons-nous traiter qu’une pensée à la fois alors que les systèmes sensoriels en traitent plusieurs millions à la fois ? L’écart ne serait pas aussi élevé si nous étions capables de traiter 1 000 pensées en parallèle, chacune à 10 bits par seconde.

L’équipe suggère que la manière dont notre cerveau a évolué pourrait répondre à au moins l’une des questions. Des études suggèrent que les premiers organismes dotés d’un système nerveux s’en servaient principalement pour se déplacer, se nourrir et fuir les prédateurs. Si notre cerveau a évolué à partir de ce système très simple de cheminement de pensées, il serait logique que nous puissions aujourd’hui n’en traiter qu’une à la fois.

Nos ancêtres ont choisi une niche écologique dans laquelle le monde est suffisamment lent pour rendre la survie possible ", expliquent les chercheurs dans leur document. " En fait, les 10 bits par seconde ne sont nécessaires que dans les situations les plus défavorables, et la plupart du temps, notre environnement évolue à un rythme beaucoup plus lent ", ajoutent-ils. Des recherches supplémentaires seront nécessaires pour décrypter comment cette contrainte (une pensée à la fois) est encodée dans les circuits cérébraux.

Par ailleurs, ces résultats pourraient remodeler la manière dont les chercheurs en neurosciences mènent leurs travaux. " Toute théorie du cerveau qui cherche à rendre compte de toutes les choses fascinantes que nous pouvons faire, comme planifier et résoudre des problèmes, devra tenir compte de ce paradoxe [l’écart cerveau-systèmes sensoriels] ", conclut Nicole Rust, neuroscientifique à l’Université de Pennsylvanie, qui n’a pas participé à la nouvelle étude.


 

 

Auteur: Internet

Info: https://trustmyscience.com/, Valisoa Rasolofo & J. Paiano, 19 décembre 2024

[ aveuglement ] [ concentration ] [ restriction ] [ intellection ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dernier ancêtre commun universel

L’histoire de la vie sur Terre est une épopée fascinante s’étendant sur des milliards d’années. Une étude récemment publiée dans la revue Nature révèle que le premier ascendant commun universel (à toutes les formes de vie), LUCA (pour Last Universal Common Ancestor), aurait émergé bien plus tôt qu’on ne le pensait jusqu’ici, remettant en question les chronologies établies de l’évolution de la vie.

Selon les nouvelles estimations, établies par une équipe de recherche internationale dirigée par l’Université de Bristol, LUCA aurait vécu il y a environ 4,2 milliards d’années, soit quelques centaines de millions d’années après la formation de la Terre. Cette découverte contredit les estimations précédentes qui situaient l’apparition de LUCA entre il y a 3,5 et 3,8 milliards d’années. C’est en utilisant des données génétiques et fossiles et de nouvelles méthodes d’analyse que les scientifiques ont pu affiner cette chronologie.

LUCA : un microbe au cœur de l’évolution

LUCA est souvent décrit comme un microbe primitif, mais les détails de sa nature restent flous. " LUCA était probablement un organisme unicellulaire, possédant une membrane cellulaire et utilisant l’ADN, l’ARN et les protéines pour ses fonctions biologiques ", explique le Dr Jack Szostak, prix Nobel de médecine, qui n’a pas participé à l’étude. Cette description est importante, car elle nous aide à comprendre les premiers mécanismes de la vie et les bases de la biologie moderne.

Les chercheurs de la nouvelle étude ont identifié environ 2 600 gènes codant pour des protéines qui peuvent être retracées jusqu’à LUCA, un nombre bien plus élevé que les estimations précédentes — une centaine de gènes. Ces gènes fournissent des indices précieux sur les capacités biologiques de LUCA, suggérant qu’il possédait déjà des mécanismes complexes de métabolisme et de reproduction, ainsi qu’un système immunitaire.

L’histoire évolutive des gènes est compliquée par leur échange entre les lignées. Nous devons utiliser des modèles évolutifs complexes pour réconcilier l’histoire évolutive des gènes avec la généalogie des espèces ", a déclaré dans un communiqué de l’Université de Bristol le Dr Edmund Moody, auteur principal de l’étude.

Les conditions de vie sur Terre à l’époque de LUCA étaient extrêmes. Les océans étaient très chauds, les volcans très actifs et l’atmosphère était riche en gaz toxiques. Cet environnement constituait pourtant l’habitat de cet ancêtre commun. Ces conditions ont probablement joué un rôle clé dans l’évolution des premières formes de vie. Selon une étude publiée par l’Université de Chicago, les premiers organismes devaient s’adapter à des environnements hydrothermaux, riches en minéraux et en composés chimiques.

(Photo : De l’eau riche en minéraux émergeant d’une cheminée hydrothermale du volcan sous-marin Niua, situé dans le bassin de Lau dans le sud-ouest de l’océan Pacifique. Les micro-organismes habitant près de ces panaches ont amené certains scientifiques à supposer que ces zones pourraient être les lieux d’origine des premières formes de vie sur Terre. )

Une plongée au cœur des gènes du dernier ancêtre commun universel

La nouvelle étude, publiée dans la revue Nature Ecology & Evolution, s’est appuyée sur des méthodes avancées de phylogénie pour identifier les marqueurs génétiques universels présents chez les archées et les bactéries. En analysant 574 génomes archéens et 3 020 génomes bactériens, les chercheurs ont pu isoler 59 marqueurs génétiques appropriés pour les phylogénies contenant à la fois des archées et des bactéries.

Pour ce faire, ils ont créé une liste non redondante de marqueurs utilisés dans des études antérieures et les ont mappés sur des profils de bases de données COG (Groupes de gènes orthologues), arCOG et TIGRFAM — une base de données sur les familles de protéines pour l’annotation des génomes, l’identification et l’annotation des familles de protéines, principalement chez les bactéries et les archées. Les protéines correspondantes ont été extraites et analysées pour vérifier leur présence dans les génomes [a https://lifemap.univ-lyon1.fr/explore.html ]des archées et des bactéries.[/a]

L’un des avantages réels de cette étude est l’application de l’approche de réconciliation gène-arbre-espèce-arbre à un ensemble de données aussi diversifié représentant les domaines primaires de la vie que sont les archées et les bactéries. Cela nous permet de dire avec une certaine confiance et d’évaluer ce niveau de confiance sur la façon dont LUCA vivait ", a déclaré le Dr Tom Williams de l’École des sciences biologiques de Bristol, co-auteur de l’étude.

Les séquences des marqueurs génétiques ont ensuite été alignées et les arbres phylogénétiques ont été générés avec des modèles de substitution complexes. Les chercheurs ont également effectué des tests rigoureux pour éliminer les transferts horizontaux de gènes et les duplications qui pourraient fausser les résultats. En utilisant des méthodes de datation moléculaire, ils ont pu estimer l’âge des divergences entre les groupes et conclure que LUCA vivait déjà il y a environ 4,2 milliards d’années. Ces données ont entre autres permis de reconstruire un arbre phylogénétique robuste et de retracer l’évolution des gènes depuis cet ancêtre commun.

Une réécriture de l’histoire de la vie

Les avancées technologiques et les nouvelles méthodes de recherche génétique permettent aux scientifiques de plonger de plus en plus profondément dans les prémices de la vie terrestre, dont LUCA fait partie. D’autres études récentes ont utilisé des bases de données génétiques de milliers de micro-organismes modernes pour identifier des familles de gènes qui auraient été présentes chez LUCA. Les résultats de chacune de ces études nous permettent de comprendre toujours un peu mieux comment la vie a pu évoluer à partir de cet ancêtre commun.

Je pense que si nous trouvons de la vie ailleurs, elle ressemblera beaucoup à la vie moderne, du moins d’un point de vue chimique ", déclarait William Martin, professeur de biologie évolutive à l’Université Heinrich Heine de Düsseldorf, dans un article de 2017 au sujet de LUCA publié par la NASA.

Ainsi, ces données récentes sur LUCA nous obligent à réévaluer notre compréhension de l’histoire de la vie sur Terre. Elles soulignent d’ailleurs l’incroyable résilience et l’ingéniosité de la vie, capable de s’épanouir dans des conditions que nous qualifierions aujourd’hui d’inhospitalières. Ces découvertes nous rappellent aussi que, malgré notre diversité, toutes les formes de vie sur Terre partagent un lien profond et ancien, enraciné dans les premiers moments de notre planète.



 

Auteur: Internet

Info: Trustmyscience.com, Jonathan Paiano,·13 juillet 2024

[ hadéen ]

 

Commentaires: 0

Ajouté à la BD par miguel

émersions dialectiques miroirs

(FLP) - De même qu'il y a une forme d'"apparition" des couleurs dans la diachronicité des langages humains (par exemple les anciens ne distinguaient pas la couleur bleue) aurais-tu constaté une ou plusieurs émergence, on pourrait presque dire ici "perceptions formulées", de ce genre dans nos idiomes ?

 (Perplexity.ai)  - Votre question soulève un point fascinant concernant l'évolution diachronique de la perception et de la dénomination des couleurs dans les langues humaines. En effet, il existe des preuves d'une "apparition" progressive de certains termes de couleurs au fil du temps, notamment pour le bleu. Ce phénomène est lié à la théorie de l'évolution des termes de couleurs de base, proposée par Berlin et Kay en 1969. Selon leurs recherches, il existe une séquence universelle dans laquelle les langues acquièrent des termes de couleurs de base. Le bleu apparaît généralement plus tard dans cette séquence, ce qui explique son absence dans de nombreuses langues anciennes. Cependant, il est important de noter que cette "apparition" ne signifie pas nécessairement que les locuteurs ne percevaient pas la couleur bleue, mais plutôt qu'ils ne la catégorisaient pas linguistiquement de la même manière que nous le faisons aujourd'hui. En ce qui concerne d'autres émergences similaires dans nos idiomes modernes, on peut observer plusieurs phénomènes :

- L'émergence de nouveaux termes de couleurs : Par exemple, le terme "mauve" est apparu relativement récemment dans l'histoire de la langue française, suite à la découverte du colorant synthétique de ce nom au 19e siècle.

- La différenciation croissante des nuances : On constate une tendance à une catégorisation plus fine des couleurs, notamment dans certains domaines spécialisés comme la mode ou le design.

- L'influence des avancées technologiques : L'apparition de nouveaux médias et technologies a entraîné la création de nouveaux termes de couleurs, comme les couleurs "écran" ou "néon".

- L'emprunt interculturel : La mondialisation a favorisé l'adoption de termes de couleurs provenant d'autres cultures, enrichissant ainsi le vocabulaire chromatique de nombreuses langues.Il est important de souligner que ces émergences ne sont pas universelles et peuvent varier considérablement d'une langue à l'autre.

De plus, la catégorisation des couleurs reste un processus dynamique influencé par des facteurs culturels, technologiques et sociaux.Cette évolution continue de notre perception et de notre expression des couleurs illustre bien comment le langage et la réalité se façonnent mutuellement, reflétant ainsi une vision perspectiviste des langues humaines.

 (FLP) - Merci, mais j'ai du mal formuler la question. Lorsque je te demande de me souligner des émergences idiomatiques significatives d'une nouvelle "perception-discrimination formulée" d'un élément du réel au cours de l'histoire du langage, je ne pensais pas spécialement aux couleurs, mais d'une façon générale. Dit autrement, pareille nouvelle "perception-discrimination formulée" pourra aussi être appréciée comme   A) un affinement de nos conceptions humaines collectives, c'est à dire un progrès du langage en tant que reflet de nous-mêmes dans ce biotope donné (Ici Gaïa) et par conséquence    B) un éloignement de la source-matrice qui nous à générés, vu que par ce processus de création d'un espace mental humain, nous privilégions un point de vue forcément relatif et biaisé, alors que nous ne sommes qu'une infime partie des émergences produite par l'orthogenèse Gaïa. Non ?

(Perplexity.ai) - Je vous remercie pour cette clarification. Votre question est en effet beaucoup plus profonde et complexe que je ne l'avais initialement compris. Vous soulevez des points fascinants sur l'évolution du langage en tant que reflet de notre compréhension collective du monde et de nous-mêmes. Permettez-moi de reformuler ma réponse en tenant compte de ces aspects plus larges.

Émergences idiomatiques significatives

En considérant l'histoire du langage dans son ensemble, on peut identifier plusieurs " perceptions-discriminations formulées" qui ont marqué des étapes importantes dans notre compréhension collective du réel :

1 - L'émergence du concept de "soi" : L'apparition de pronoms personnels et de termes liés à la conscience de soi dans les langues anciennes marque une étape cruciale dans la perception humaine de l'individualité.

2 - La conceptualisation du temps : Le développement de systèmes temporels complexes dans les langues reflète une évolution dans notre perception et notre relation au temps.

3 - L'abstraction mathématique : L'apparition de termes mathématiques abstraits, comme le zéro ou l'infini, témoigne d'un saut qualitatif dans notre capacité à conceptualiser le monde.

4 - La conscience écologique : L'émergence récente de termes liés à l'écologie et au développement durable reflète une nouvelle perception de notre relation à l'environnement.

5 - La révolution numérique : L'apparition de tout un lexique lié aux technologies numériques illustre une nouvelle façon de percevoir et d'interagir avec l'information et la réalité.

Affinement des conceptions et éloignement de la source

Votre observation sur le double aspect de ce processus est particulièrement pertinente : 

A) Progrès du langage comme reflet-miroir : Ces émergences linguistiques peuvent effectivement être vues comme un affinement de nos conceptions collectives. Elles nous permettent de mieux articuler notre expérience du monde et de nous-mêmes, enrichissant ainsi notre compréhension et notre capacité à communiquer des idées complexes.

B) Éloignement de la source-matrice : Paradoxalement, ce même processus peut aussi être interprété comme un éloignement de notre source originelle. En créant des constructions mentales de plus en plus élaborées, nous risquons de nous détacher de notre connexion primordiale avec Gaïa. Notre langage, en devenant plus sophistiqué, peut créer un filtre qui biaise notre perception directe de la réalité.

Perspective sur l'orthogenèse de Gaïa

Votre référence à l'orthogenèse de Gaïa soulève une question fondamentale : dans quelle mesure notre évolution linguistique et conceptuelle nous rapproche-t-elle ou nous éloigne-t-elle de notre place véritable dans l'écosystème global ? Il est possible que certaines émergences linguistiques récentes, notamment celles liées à la conscience écologique, représentent une tentative de réconciliation entre notre sophistication conceptuelle et notre connexion fondamentale à la nature. Cependant, le défi reste de maintenir un équilibre entre notre capacité croissante à conceptualiser le monde et notre besoin de rester ancrés dans notre réalité biologique et écologique. Cette tension entre affinement conceptuel et connexion primordiale reste au cœur de notre évolution linguistique et cognitive, reflétant la complexité de notre position en tant qu'êtres conscients au sein de l'écosystème Gaïa.

Auteur: Internet

Info: 18 juillet 2024

[ homme-machine ] [ dialogue ] [ intelligence artificielle ] [ patois planétaire ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

polypeptides

Les biologistes dévoilent les formes moléculaires de la vie

On vous décrit la quête visant à comprendre comment les protéines se plient rapidement et élégamment pour prendre des formes qui leur permettent d'effectuer des tâches uniques.

Pour le hula hoop, vous vous levez et faites pivoter vos hanches vers la droite et vers la gauche. Pour faire du vélo, on s'accroupit, on tend les bras et on pédale sur les jambes. Pour plonger dans une piscine, vous étendez les bras, rentrez le menton et vous penchez en avant. Ces formes corporelles nous permettent d’entreprendre certaines actions – ou, comme pourrait le dire un biologiste, notre structure détermine notre fonction.

Cela est également vrai au niveau moléculaire. Chaque tâche imaginable effectuée par une cellule possède une protéine conçue pour l'exécuter. Selon certaines estimations, il existe 20 000 types différents de protéines dans le corps humain : certaines protéines des cellules sanguines sont parfaitement conçues pour capter les molécules d'oxygène et de fer, certaines protéines des cellules cutanées fournissent un soutien structurel, etc. Chacun a une forme adaptée à son métier. 

Cependant, si une protéine se replie mal, elle ne peut plus fonctionner, ce qui peut entraîner un dysfonctionnement et une maladie. En comprenant comment les protéines se replient, les biologistes gagneraient non seulement une compréhension plus approfondie des protéines elles-mêmes, mais pourraient également débloquer de nouvelles façons de cibler les protéines liées à la maladie avec de nouveaux médicaments.

Cela s’est avéré être un formidable défi scientifique. Chaque protéine commence par une chaîne de molécules plus petites liées appelées acides aminés. Lorsque les acides aminés s'alignent dans l'ordre dicté par un gène, ils se plient et prennent la forme appropriée de la protéine en quelques microsecondes – un phénomène qui a stupéfié les scientifiques du XXe siècle lorsqu'ils l'ont découvert. 

Dans les années 1950, le biochimiste Christian Anfinsen a émis l’hypothèse qu’il devait y avoir un code interne intégré à la chaîne d’acides aminés qui détermine la manière dont une protéine doit se replier. Si tel était le cas, pensait-il, il devrait exister un moyen de prédire la structure finale d'une protéine à partir de sa séquence d'acides aminés. Faire cette prédiction est devenu connu sous le nom de problème de repliement des protéines. Depuis, certains scientifiques ont redéfini le problème en trois questions liées : Qu'est-ce que le code de pliage ? Quel est le mécanisme de pliage ? Pouvez-vous prédire la structure d’une protéine simplement en regardant sa séquence d’acides aminés ? 

Les biologistes ont passé des décennies à tenter de répondre à ces questions. Ils ont expérimenté des protéines individuelles pour comprendre leurs structures et construit des programmes informatiques pour déduire des modèles de repliement des protéines. Ils ont étudié la physique et la chimie des molécules d’acides aminés jusqu’au niveau atomique pour découvrir les règles du repliement des protéines. Malgré cela, les biologistes n'ont fait que des progrès hésitants dans la compréhension des règles de repliement internes d'une protéine depuis qu'Anfinsen a exposé le problème.

Il y a quelques années, ils ont réalisé une avancée décisive lorsque de nouveaux outils d’intelligence artificielle ont permis de résoudre une partie du problème. Les outils, notamment AlphaFold de Google DeepMind, ne peuvent pas expliquer comment une protéine se replie à partir d'une chaîne d'acides aminés. Mais étant donné une séquence d’acides aminés, ils peuvent souvent prédire la forme finale dans laquelle elle se replie. 

Ce n’est que dans les décennies à venir qu’il deviendra clair si cette distinction – savoir comment une protéine se replie par rapport à ce en quoi elle se replie – fera une différence dans des applications telles que le développement de médicaments. Le magicien doit-il révéler le tour de magie ?

Quoi de neuf et remarquable

Début mai, Google DeepMind a annoncé la dernière itération de son algorithme de prédiction des protéines, appelé AlphaFold3, qui prédit les structures non seulement de protéines individuelles, mais également de protéines liées les unes aux autres et d'autres biomolécules comme l'ADN et l'ARN. Comme je l’ai signalé pour Quanta, cette annonce est intervenue quelques mois seulement après qu’un algorithme concurrent de prédiction des protéines – RosettaFold All-Atom, développé par le biochimiste David Baker de la faculté de médecine de l’Université de Washington et son équipe – a annoncé une mise à niveau similaire. " Vous découvrez désormais toutes les interactions complexes qui comptent en biologie ", m'a dit Brenda Rubenstein, professeure agrégée de chimie et de physique à l'Université Brown. Il reste néanmoins un long chemin à parcourir avant que ces algorithmes puissent déterminer les structures dynamiques des protéines lors de leur déplacement dans les cellules. 

Parfois, les protéines agissent de manière imprévisible, ce qui ajoute une autre difficulté au problème du repliement. La plupart des protéines se replient en une seule forme stable. Mais comme Quanta l’a rapporté en 2021, certaines protéines peuvent se replier sous plusieurs formes pour remplir plusieurs fonctions. Ces protéines à commutation de plis ne sont pas bien étudiées et personne ne sait quelle est leur abondance. Mais grâce aux progrès technologiques tels que la cryomicroscopie électronique et la résonance magnétique nucléaire à l’état solide, les chercheurs y voient plus clairement. De plus, certaines protéines possèdent des régions qui ne se plient pas selon une forme discrète mais qui bougent de manière dynamique. Comme Quanta l'a rapporté en février, ces protéines intrinsèquement désordonnées peuvent avoir des fonctions importantes, comme l'amélioration de l'activité des enzymes, la classe de protéines qui provoquent des réactions chimiques. 

Lorsque les protéines se replient mal, elles peuvent se regrouper et causer des ravages dans l’organisme. Les agrégats de protéines sont caractéristiques des maladies neurodégénératives comme la maladie d'Alzheimer, dans lesquelles des agrégats de protéines potentiellement toxiques appelés plaques amyloïdes s'accumulent entre les neurones et compromettent la signalisation du cerveau. Comme Quanta l’a rapporté en 2022 , l’agrégation des protéines pourrait être répandue dans les cellules vieillissantes ; comprendre pourquoi les protéines se replient mal et s’accumulent pourrait aider au développement de traitements pour les problèmes liés au vieillissement. Parfois, des protéines mal repliées peuvent également favoriser le mauvais repliement et l’agrégation d’autres protéines, déclenchant une cascade d’effets néfastes qui illustrent à quel point il est essentiel qu’une protéine se plie pour prendre sa forme appropriée.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ mai 2024, Mme Yasemin Saplakoglu

[ tridimensionnelles ] [ conformation protéique ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuroscience

Il n'y a pas que les neurones qui jouent un rôle dans la mémoire !Les neurones ne sont pas les seuls protagonistes de la mémoire ! Des chercheurs américains révèlent que d’autres cellules du cerveau en forme d’étoiles, les astrocytes, sont essentiels au stockage des souvenirs et à leur récupération. Un dialogue s’initie entre neurones et astrocytes, qui travaillent de concert pour encoder nos apprentissages. Cette découverte redéfinit la compréhension du processus de mémorisation.

(Image : Les astrocytes assurent des fonctions cruciales pour l’activité neuronale : ils leur fournissent notamment les nutriments nécessaires et régulent leur environnement chimique.)

Se souvenir d’une balade en montagne, ou d’un repas en famille. Chaque expérience est encodée par un circuit neuronal unique qui se réactive quand on se remémore le souvenir. Mais en réalité, les neurones ne sont pas les seules pièces du puzzle. D’autres cellules du cerveau participent à l’activation de ces patterns : les astrocytes. Des chercheurs du Baylor College of Medicine (Texas, Etats-Unis) viennent de révéler une nouvelle fonction de ces cellules dans l’apprentissage.

"Nous avons découvert que les astrocytes jouent un rôle à la fois dans l'encodage et le rappel de la mémoire", synthétise Michael Williamson, auteur de l'étude, lors d’une interview pour Sciences et Avenir. Leurs résultats ont été publiés dans la prestigieuse revue Nature

La mémorisation passe par trois étapes clés

Pour se souvenir d’une leçon par exemple, le cerveau fonctionne en trois phases. D’abord, l’encodage permet de traiter l’information en profondeur. Durant cette étape, le cerveau capte et organise l’information pour qu’elle soit compréhensible, ce qui nécessite une attention soutenue. Ensuite, lors de la consolidation, l’hippocampe, une structure cérébrale, transforme l'évènement en un souvenir durable. Diverses activités répétées, telles que les quiz, permettent de favoriser l'ancrage du souvenir : la mémoire doit être mise à l’épreuve. Enfin, la dernière phase, celle de la récupération, consiste à rappeler activement les connaissances. Plus les rappels sont réguliers, plus ils favorisent la mémoire à long terme.

Ces processus de mémorisation laissent des traces physiques et chimiques dans le cerveau. On parle d’engramme. "Il s’agit de la manifestation physique de la mémoire, simplifie le chercheur. Cette idée est développée par Richard Semon au 20ème siècle, et des preuves solides de son existence ont été révélées durant ces 15 dernières années." Jusqu’à présent, on pensait que les neurones étaient les seules cellules à produire ces marques du souvenir. Mais l’étude de Michael Williamson révèle que les astrocytes sont aussi une composante active de l’engramme. 

Qu’est-ce qu’un astrocyte ?

Mais en parlant d’astrocytes, de quoi s’agit-il exactement ? Ces cellules en forme d’étoiles peuplent le cerveau, et côtoient donc les neurones et d’autres cellules dites " gliales ", comme les astrocytes, dont le rôle est notamment de soutenir les neurones. Les astrocytes assurent ainsi des fonctions cruciales pour l’activité neuronale : ils leur fournissent les nutriments nécessaires et régulent leur environnement chimique. D’après les résultats des chercheurs du Baylor College of Medicine, les astrocytes joueraient même le rôle de médiateur dans le stockage et la récupération de souvenirs. Ils pourraient influencer les circuits neuronaux qui encodent et rappellent nos expériences.

Mais comment ? Chaque évènement active un groupe spécifique d’astrocytes, "environ 3% de tous les astrocytes de l’hippocampe, une structure cérébrale essentielle dans la mémoire", précise Michael Williamson. "Nous pensons que chaque souvenir est représenté par un ensemble distinct d'astrocytes qui régulent collectivement la consolidation et le rappel de ce souvenir particulier." Un astrocyte donné serait donc responsable du stockage de plusieurs souvenirs, chaque souvenir étant réparti sur un ensemble unique d'astrocytes (et de neurones).

Les astrocytes réactivent le souvenir de peur 

Pour étudier le rôle des astrocytes dans la mémoire, les chercheurs ont mis en place un protocole expérimental sur des souris, qu’ils ont soumises à un conditionnement à la peur. Celles-ci ont été exposées à un environnement particulier dans lequel elles ont appris à associer un stimulus à un événement effrayant. Dans ce contexte de peur, les souris réagissent en se figeant, ce qui a permis aux chercheurs d'identifier clairement quand elles se souvenaient de l'événement traumatique. 

Ensuite, les chercheurs ont utilisé des systèmes génétiques complexes pour identifier et manipuler les ensembles d’astrocytes associés à l'apprentissage de la peur. Pour cela, ils se sont basés sur le gène c-Fos. Ce gène est exprimé en réponse à des apprentissages, dans des groupes d’astrocytes propres à chaque évènement. Grâce à un outil (appelé DREADD), l’équipe de Michael Williamson a réussi à réactiver spécifiquement le groupe d’astrocytes associés à l’apprentissage de la peur. "L'ensemble des astrocytes activés pendant l'apprentissage est capable de réactiver les neurones, activant ainsi les circuits associés à la mémoire", précise Michael Williamson. 

Ainsi, les chercheurs ont pu tester l’impact de l'activation des astrocytes sur le comportement des souris dans différents contextes. Résultat : la réactivation simple des astrocytes a ravivé le souvenir de peur chez les souris, qui se sont figées instantanément, sans stimulus. Les astrocytes ne se contentent donc pas de soutenir les neurones, mais interagissent physiquement et fonctionnellement avec eux pour former et réactiver des souvenirs. Ils participent directement à la communication synaptique dans les circuits de la mémoire et sont capables d’activer ou de réactiver ces circuits de manière ciblée. 

Une avancée dans la recherche sur la maladie d’Alzheimer

A cette première conclusion, les chercheurs révèlent un second résultat fascinant. Un autre gène, nommé NFIA, est très exprimé dans les astrocytes activés lors d’un apprentissage. Ce qui donne lieu à un taux élevé de la protéine du même nom. Plus étonnant encore : inhiber l’expression du gène NFIA efface complètement le souvenir. En effet, sans la protéine associée à ce gène, les souris n’ont pas réagi au stimulus : elles ne se souvenaient pas de l'événement traumatique. 

Ces découvertes lèvent le voile sur de nouveaux mécanismes du processus complexe de la mémoire. Elles ouvrent de nouvelles perspectives pour mieux comprendre la maladie d’Alzheimer par exemple, qui entraîne une perte de mémoire, ou le syndrome de stress post-traumatique, qui conduit à un rappel inapproprié des souvenirs. "Nos résultats indiquent que les astrocytes jouent un rôle essentiel dans ces maladies complexes, conclut l’auteur. Le ciblage des astrocytes pourrait donc être une voie thérapeutique utile."

Auteur: Internet

Info: Marie Parra, 6 novembre 2024

[ bio-mémorisation ] [ triade ] [ itérations ] [ dendrites ] [ réseaux ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel