Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 2
Temps de recherche: 0.029s

décorporation

L’exportation des perceptions s’opère par la production de fibres de matière epsilon (énergétiques) qui partent de la masse epsilon associée au corps biologique tout en restant reliées à cette masse.

En sélectionnant la partie délocalisée de fibres pour produire ses perceptions, la personne a la sensation d’être ‘’ ailleurs’’ avec une intensité variable, de très faible (1 à 5%) jusqu’à totale (100%). Au stade maximum, l’explorateur ne perçoit plus du tout son corps biologique et a la sensation d’être localisé à l’extrémité du faisceau de fibres epsilon. Dans ce cas, s’il est dépourvu d’expérience de voyage hors du corps, il pensera en avoir vécu une.

C’est une méconnaissance extrêmement répandue qui donne l’illusion à la très grande majorité des praticiens du Marécage de vivre des sorties hors du corps : Chamanisme, Alchimie, trips sous psychotropes, pratiques énergétiques, Magie, etc. Dans 99,99999% des cas, l’expérience de ‘’ fusion avec le tout’’ est une expérience limitée au Marécage.

Dans le cas de l’exportation PSI* la personne reste totalement localisée dans le corps biologique, dans le cas du Voyage la personne n’est PLUS DU TOUT à l’intérieur du corps biologique.

De fortes caractéristiques marquent les différences entre les deux états, voici les principales qui concernent le VOYAGE seulement et aucunement la projection PSI :

- Observation d’un corps non-physique constitué de grains de ‘’lumière’’ vivants, enveloppe parfaitement visible, palpable et magnifique, sans aucun poids, aucune inertie, aucune limite de vitesse

- Présence de la corde d’argent fixée à la nuque du corps de lumière (dans 100% des cas)

- Conscience et mémoire beaucoup plus larges, plus claires, plus intenses, plus puissantes que dans le corps bio-énergétique

-  Immersion continue dans des états supérieurs++ : Joie, Liberté, Vie, Confiance, Amour, Exultation continue, Ivresse d’exister, Dieu, Lumière, Eternité, Curiosité, Infini, Emerveillement, Création,

- Possibilité de circuler dans des mondes vibratoires très différents et de sortir totalement des mondes physico-énergétiques (que je nomme le ‘’Marécage’’)

C’est dans le lit, en rejoignant ma bien-Aimée Anne que je commence à tâtonner, à faire n’importe quoi, au hasard (s’il existe).

Tout d’abord, je ressens avec frustration la grande limitation des facultés PSI de mon corps de primate terrestre. Plus je me souviens du corps de SS3, et des autres, plus ce handicap me pèse.

Puis j’installe dans le système neuronal du singe proto-humain l’idée de sortir de la bulle locale, la prison constituée des pensées, des croyances, des pseudo-connaissances, des prétendues sciences terrestres, à commencer par les illusions locales de type ‘’spirituel’’.

L’intention posée agit immédiatement.

Une partie du ‘’moi’’ incarné s’affranchit des limitations terrestres. L’esprit évoque alors mon quotidien d’il y a 40 000 ans, sur SS3. Le rappel de la mémoire, entre autres choses, me pousse vers l’endroit où j’aime souvent aller, dans les moments de pause, après le travail où lorsque je décide de prendre 50 ans de vacances (en temps terrestre).

De l’autre côté de la ‘’ ville ’’ par rapport à mon ‘’ appartement ’’ se trouve le lieu où les Visiteurs Cosmiques arrivent. Bien entendu il n’y a aucune piste d’atterrissage car TOUS les vaisseaux se posent verticalement. Cette zone est juste après l’anneau de la ville (cet anneau n’est pas une route), et par convention, les Cosmiques se garent ici.

Nous n’avons pas beaucoup de visites, alors je suis toujours intéressé par une nouvelle arrivée. Quand je le peux je viens là, parfois juste pour observer, d’autres fois pour communiquer avec les Enfants des Étoiles, quelle que soit leur espèce.

Prodigieuse diversité qui nourrit mon esprit avide de savoir, cette immense curiosité ne semble pas avoir de limites, elle se combine à un esprit supérieur, un mental avancé dont le QI serait de 500 ou 600 en comparaison de celui d’un primate terrestre, et de facultés PSI nominales pour mon espèce.

Je ressens alors la frustration d’avoir quitté ce lieu et de me trouver isolé sur une planète de Rêveurs. Mais j’ai choisi.

Je tente alors de renouer le lien avec un de mes derniers contacts avant mon départ définitif de SS3. Immédiatement, un nouveau souvenir émerge.

Cet être avait gardé son scaphandre parce que l’atmosphère de SS3 aurait tué son corps biologique. Par parenthèse, sur SS3 un humain terrestre perdrait connaissance en moins de 3 minutes puis mourrait.

Lui et moi avons souhaité nous revoir. Mais je suis parti.

Et c’est à ce moment précis de l’évocation que l’exportation PSI jaillit brutalement. Jusque là j’étais conscient d’être dans le lit aux côtés d’Anne, en train de farfouiller dans les souvenirs, et maintenant je suis projeté vers mon contact, sur SS3.

Sensation de délocalisation à plus de 90%.

Les choses vont très vite. Tout d’abord je prends contact avec l’être en question. C’est fulgurant. J’avais complètement oublié que le temps n’est pas le même pour les Voyageurs des Etoiles, et que dans certaines conditions, 40 000 années terrestres sont juste quelques jours dans un autre référentiel.

La connexion avec mon interlocuteur déclenche en une microseconde une réorientation des fibres epsilon. Il m’a donné l’adresse d’un lieu qu’il m’avait évoqué lors de notre premier contact.

Sensation de délocalisation intégrale, je ‘’suis’’ en ce lieu, celui dont il m’a ‘’parlé’’. Je ne perçois plus du tout le corps biologique humain terrestre alors que je m’y trouve encore, à 100%.

Tout d’abord je vois un immense bâtiment blanc fait de formes arrondies, dont une ‘’ casquette ’’ gigantesque surplombant ce qui ressemble à une ‘’ entrée ’’. Le ciel est bleu très clair. Je pousse les filaments vers l’intérieur de ce lieu. C’est beaucoup plus grand qu’un aéroport.

Je suis extrêmement surpris, je ne comprends pas ce que je vois.

A l’intérieur il n’y a pas non plus le moindre angle, tout est arrondi, courbe, mais ce n’est pas ce qui me trouble

Il y a des êtres ici, de différentes apparences, des sortes de grands couloirs, de très grandes salles, j’avance avec les fibres comme on explorerait avec un endoscope, une fibre optique. C’est exactement ça, mais on peut faire plus que voir, on peut aussi toucher, percevoir par plusieurs autres sens dont certains n’existent pas dans un corps humain terrestre.

Ce que je ne comprends pas, c’est COMMENT je peux voir ici.

Car TOUT est d’un blanc intense. Y compris les êtres qui se trouvent dans le bâtiment.

Je n’aurais jamais imaginé un tel blanc dans une dimension physique, car j’observe nécessairement un lieu du Marécage, quelque part dans un cosmos physique. Les fibres epsilon ne peuvent pas aller au-delà.

C’est à la limite des possibilités PSI. Ce blanc intense, uniforme, fait quasiment tout disparaitre. Je réfléchis… J’arrive à distinguer les formes par d’infimes différences d’intensité de ce blanc, car il n’y a aucune source apparente de lumière, et il n’y a aucune ombre.

J’essaie de scanner ce blanc. Avec les capacités du corps de lumière c’est facile, avec les facultés PSI beaucoup moins, normalement on arrive néanmoins à distinguer les pixels de couleurs qui donnent un rendu coloré uniforme, y compris pour le blanc.

Mais là, il n’est pas possible pour moi de voir de pixels.

Je réfléchis : ces pixels, s’ils existent, sont-ils d’une résolution trop fine pour le PSI ?

Ou bien ce blanc est-il autre chose que le blanc dont j’ai l’habitude dans les mondes du Marécage ?

Ce blanc est-il l’assemblage d’un plus grand nombre de couleurs que celles que peuvent voir un œil humain de la Terre ? Il y a de cela, peut-être.

Je circule un peu, je vais en avant. Mes repères ne sont constitués que par des minuscules différences d’intensité du blanc. Je croise des êtres de différentes formes, différentes tailles, certaines humanoïdes, d’autres pas. Rien ne m’indique que ma ‘’ présence ’’ énergétique soit détectée, mais je n’en suis absolument pas certain.

Il semble que cette lumière particulière ne trouble aucunement les Personnes qui circulent ici.

Au bout de 2 minutes passées à m’obstiner sur la vision, je conclus la chose suivante : que les concepteurs de ces lieux l’aient voulu ou pas, ce Blanc de Blanc neutralise la majeure partie des perceptions PSI, du moins celles qui sont actuellement les miennes. A la réflexion, j’imagine que la quasi-totalité des projecteurs PSI de la terre ne verraient que du blanc, aucune forme ne serait perceptible pour eux.

Je n’ai pu arriver à distinguer les formes qu’en recrutant une fraction de mes aptitudes PSI de SS3…

Je ramène les extensions au corps biologique et j’analyse ce que je viens de vivre.

Encore une chose nouvelle, c’est la 100 000ème fois. Je n’arrive pas à comprendre, juste à formuler des hypothèses.

Le lendemain, il y a eu quelque chose qui m’a neutralisé physiquement durant quasiment toute la journée. Je suis resté KO non-stop. Je me suis demandé si cela pouvait être une conséquence de ma visite PSI. J’estime que la probabilité que ce soit lié est de 0,001%

Grosso modo. 

Auteur: Auburn Marc

Info: Post Facebook du 22 juin 2024. *recense au sens large les perception extra-sensorielles

[ visée ] [ dessein ] [ résolution ] [ science-fiction ] [ distinguo ] [ voyage astral ] [ rêve lucide ] [ rève ] [ super conscience ] [ opéra cosmique ] [ extraterrestres ] [ synthèse additive ] [ frontières cognitives ] [ shc ] [ réincarnation ]

 
Commentaires: 1
Ajouté à la BD par miguel

Intelligence artificielle

Les logiciels de chatbot commencent à être confrontés à des limites fondamentales

Des résultats récents montrent que les grands modèles de langage ont du mal à effectuer des tâches de composition, ce qui suggère une limite stricte à leurs capacités.

Le 17 décembre 1962, Life International a publié une énigme logique composée de 15 phrases décrivant cinq maisons sur une rue. Chaque phrase était un indice, comme " L'Anglais vit dans la maison rouge " ou " Le lait est bu dans la maison du milieu ". Chaque maison était d'une couleur différente, avec des habitants de nationalités différentes, possédant des animaux différents, et ainsi de suite. Le titre de l'article posait la question : " Qui possède le zèbre ? " Des problèmes comme celui-ci se sont révélés être une mesure des capacités — ou plutôt des limites — des modèles d'apprentissage automatique actuels.

Également connu sous le nom d'énigme ou de casse-tête d'Einstein (attribution probablement apocryphe), ce problème teste un certain type de raisonnement en plusieurs étapes. Nouha Dziri, chercheuse scientifique à l'Allen Institute for AI, et ses collègues ont récemment soumis des modèles de langage basés sur des transformers ( LLMs ), comme ChatGPT, à ce type de tâches — et les ont largement trouvés insuffisants. " Ils pourraient ne pas être capables de raisonner au-delà de ce qu'ils ont vu dans les données d'entraînement pour des tâches difficiles ", a déclaré Dziri. " Ou du moins, ils font une approximation, et cette approximation peut être erronée. "

L'énigme d'Einstein nécessite de composer une solution globale à partir de solutions à des sous-problèmes, ce que les chercheurs appellent une tâche compositionnelle. L'équipe de Dziri a montré que les LLMs, qui ont été entraînés uniquement à prédire le mot suivant dans une séquence — ce qui est le cas de la plupart d'entre eux — sont fondamentalement limités dans leur capacité à résoudre des tâches de raisonnement compositionnel. D'autres chercheurs ont montré que les transformers, l'architecture de réseau neuronal utilisée par la plupart des LLMs, ont des limites mathématiques strictes lorsqu'il s'agit de résoudre de tels problèmes. Les scientifiques ont obtenu quelques succès en repoussant ces limites, mais ces solutions semblent de plus en plus être des correctifs à court terme. Si c'est le cas, cela signifie qu'il existe des limites computationnelles fondamentales aux capacités de ces formes d'IAs — ce qui pourrait signifier qu'il est temps d'envisager d'autres approches.

" Ce travail est vraiment motivé par l'idée d'aider la communauté à décider si les transformers sont vraiment l'architecture que nous voulons adopter pour un apprentissage universel ", a déclaré Andrew Wilson, expert en apprentissage automatique à l'Université de New York, qui n'a pas participé à cette étude.

Le succès attire l'examen

Ironiquement, les LLMs ne doivent s'en prendre qu'à eux-mêmes pour cette découverte de l'une de leurs limites. " La raison pour laquelle nous nous sommes tous demandé s'ils faisaient un vrai raisonnement est due à leurs capacités impressionnantes ", a déclaré Dziri. Ils ont impressionné sur des tâches impliquant le langage naturel, malgré la simplicité apparente de leur entraînement. Pendant la phase d'entraînement, un LLM est exposé à un fragment de phrase avec le dernier mot masqué (bien que techniquement, ce ne soit pas toujours un seul mot). Le modèle prédit les informations manquantes, puis " apprend " de ses erreurs.

Les plus grands LLMs — OpenAI's o1 et GPT-4, Google's Gemini, Anthropic's Claude — s'entraînent sur presque toutes les données disponibles sur Internet. En conséquence, les LLMs finissent par apprendre la syntaxe et une grande partie des connaissances sémantiques du langage écrit. Ces modèles " pré-entraînés " peuvent être encore entraînés, ou affinés, pour accomplir des tâches sophistiquées bien au-delà de la simple complétion de phrases, comme résumer un document complexe ou générer du code pour jouer à un jeu vidéo. Les résultats étaient si puissants que les modèles semblaient, à certains moments, capables de raisonner. Pourtant, ils échouaient aussi de manière à la fois évidente et surprenante.

" Sur certaines tâches, ils performent incroyablement bien ", a déclaré Dziri. " Sur d'autres, ils sont étonnamment stupides. "

Prenons la multiplication de base. Les LLMs standards, comme ChatGPT et GPT-4, échouent lamentablement. Début 2023, lorsque l'équipe de Dziri a demandé à GPT-4 de multiplier deux nombres à trois chiffres, il n'a réussi que 59 % du temps. Lorsqu'il a multiplié deux nombres à quatre chiffres, la précision est tombée à seulement 4 %.

L'équipe a également testé les LLMs sur des tâches comme l'énigme d'Einstein, où ils ont également eu un succès limité. GPT-4 a toujours donné la bonne réponse lorsque le puzzle impliquait deux maisons avec deux attributs par maison. Mais la précision est tombée à 10 % lorsque la complexité du puzzle est passée à quatre maisons avec quatre attributs par maison. Pour la version originale de Life International — cinq maisons, chacune avec cinq attributs — le taux de réussite était de 0 %.

L'équipe de Dziri a pensé que peut-être les LLMs n'avaient tout simplement pas vu assez d'exemples dans leurs données d'entraînement, alors ils ont affiné GPT-3 sur 1,8 million d'exemples de multiplication de deux nombres. Ensuite, lorsqu'ils lui ont présenté de nouveaux problèmes, le LLM les a réussis — mais seulement s'ils étaient suffisamment similaires à ce qu'il avait vu pendant l'entraînement. Par exemple, les données d'entraînement incluaient la multiplication de deux nombres à trois chiffres, et d'un nombre à deux chiffres avec un nombre à quatre chiffres, mais lorsque le modèle a été interrogé sur la multiplication d'un nombre à quatre chiffres avec un nombre à trois chiffres, il n'a réussi que 2 % du temps. " S'ils raisonnent vraiment et comprennent certaines tâches, ils devraient saisir l'algorithme implicite ", a déclaré Dziri. Ce n'est pas ce que son équipe a observé. " Cela soulève beaucoup de questions sur la façon dont les LLMs accomplissent les tâches et s'ils font un vrai raisonnement. "

L'équipe a observé le même schéma pour résoudre l'énigme d'Einstein : GPT-3 a échoué lorsqu'on lui a demandé de résoudre des versions plus grandes du puzzle par rapport à celles sur lesquelles il avait été affiné. " Il imite quelque chose qu'il a vu, mais il n'en a pas une compréhension complète ", a déclaré Dziri.

Limites dures

Alors que Dziri et ses co-auteurs finalisaient leurs résultats, une autre équipe adoptait une approche différente pour comprendre pourquoi les LLMs avaient du mal avec les tâches compositionnelles. Binghui Peng, alors doctorant à l'Université de Columbia, travaillait avec l'un de ses directeurs de thèse, Christos Papadimitriou, et des collègues pour comprendre pourquoi les LLMs " hallucinent ", c'est-à-dire génèrent des informations factuellement incorrectes. Peng, maintenant chercheur postdoctoral à l'Université de Stanford, soupçonnait que c'était parce que les transformers semblaient manquer de la " capacité de composition ".

Pour comprendre pourquoi, imaginez que nous donnons à un LLM deux informations : Le père de Frédéric Chopin était Nicolas Chopin, et Nicolas Chopin est né le 15 avril 1771. Si nous lui demandons ensuite : " Quelle est la date de naissance du père de Frédéric Chopin ? ", le LLM devrait répondre en composant, ou en assemblant, les différents faits. En effet, il devrait répondre à la question imbriquée suivante : " Quelle est la date de naissance de (Qui est le père de (Frédéric Chopin) ? " Si le LLM prédit les mauvais mots comme réponse, on dit qu'il a halluciné — dans ce cas, peut-être à cause de son échec à résoudre la tâche compositionnelle.

Peng voulait tester cette intuition. Son équipe a commencé par étudier les propriétés d'un transformer simple, avec une seule couche, qui apprend à " prêter attention " à l'ordre et à la position des mots d'une phrase lorsqu'il essaie de prédire le mot suivant. (Les LLMs modernes ont des dizaines de telles couches.) L'équipe a établi un lien entre la complexité de la couche de transformer et la " taille du domaine ", c'est-à-dire le nombre de bits nécessaires pour représenter les questions. En se concentrant sur ce modèle simple, ils ont prouvé une limite mathématique. " Si le nombre total de paramètres dans ce transformer à une couche est inférieur à la taille d'un domaine, alors les transformers ne peuvent pas résoudre la tâche compositionnelle ", a déclaré Peng. En d'autres termes, un LLM avec une seule couche de transformer était clairement et mathématiquement limité.

Bien que ce soit un résultat théorique fort, ses implications pratiques n'étaient pas claires, car les LLMs modernes sont bien plus complexes. " Il n'est pas facile d'étendre notre preuve ", a déclaré Peng. Son équipe a donc utilisé une approche différente pour étudier les capacités des transformers plus complexes : ils se sont tournés vers la théorie de la complexité computationnelle, qui étudie les problèmes en termes de ressources, comme le temps et la mémoire, nécessaires pour les résoudre.

Pousser les limites

Pour être clair, ce n'est pas la fin des LLMs. Wilson de NYU souligne que malgré ces limites, les chercheurs commencent à améliorer les transformers pour les aider à mieux gérer, entre autres, l'arithmétique. Par exemple, Tom Goldstein, informaticien à l'Université du Maryland, et ses collègues ont ajouté une astuce à la façon dont ils présentaient les nombres à un transformer entraîné à additionner, en intégrant des informations " positionnelles " supplémentaires dans chaque chiffre. En conséquence, le modèle pouvait être entraîné sur des nombres à 20 chiffres et additionner de manière fiable (avec 98 % de précision) des nombres à 100 chiffres, alors qu'un modèle entraîné sans cette astuce n'était précis qu'à environ 3 %. " Cela suggère qu'il y a peut-être des interventions basiques que l'on pourrait faire ", a déclaré Wilson. " Cela pourrait vraiment faire progresser ces problèmes sans avoir à repenser toute l'architecture. "

Une autre façon de surmonter les limites d'un LLM, au-delà de simplement augmenter la taille du modèle, est de fournir une solution étape par étape d'un problème dans l'invite, une technique connue sous le nom de chain-of-thought prompting. Des études empiriques ont montré que cette approche peut donner à un LLM comme GPT-4 une nouvelle capacité à résoudre des tâches plus variées. Il n'est pas tout à fait clair pourquoi, ce qui a poussé de nombreux chercheurs à étudier ce phénomène. " Nous étions curieux de savoir pourquoi c'est si puissant et pourquoi on peut faire tant de choses ", a déclaré Haotian Ye, doctorant à l'Université de Stanford.

Lorsque Ye était encore étudiant à l'Université de Pékin, lui et ses collègues ont modélisé le comportement des transformers avec et sans chain-of-thought prompting. Leur preuve, utilisant une autre branche de l'informatique appelée théorie de la complexité des circuits, a établi comment le chain-of-thought prompting transforme essentiellement un grand problème en une séquence de problèmes plus petits, permettant aux transformers de s'attaquer à des tâches compositionnelles plus complexes. " Cela signifie... qu'il peut résoudre certains problèmes qui se trouvent dans une classe computationnelle plus large ou plus difficile ", a déclaré Ye.

Mais Ye met en garde : leur résultat n'implique pas que les modèles du monde réel résoudront réellement de tels problèmes difficiles, même avec le chain-of-thought. Le travail s'est concentré sur ce qu'un modèle est théoriquement capable de faire ; les spécificités de la façon dont les modèles sont entraînés dictent comment ils peuvent atteindre cette limite supérieure.

En fin de compte, aussi impressionnants que soient ces résultats, ils ne contredisent pas les conclusions des équipes de Dziri et Peng. Les LLMs correspondent fondamentalement aux modèles qu'ils ont vus, et leurs capacités sont limitées par des frontières mathématiques. Les astuces d'incorporation et le chain-of-thought prompting étendent simplement leur capacité à faire des correspondances de modèles plus sophistiquées. Les résultats mathématiques impliquent que vous pouvez toujours trouver des tâches compositionnelles dont la complexité dépasse les capacités d'un système donné. Même certains modèles plus récents, comme les " modèles à espace d'états ", qui ont été présentés comme des alternatives plus puissantes aux transformers, montrent des limites similaires.

D'un côté, ces résultats ne changent rien pour la plupart des gens qui utilisent ces outils. " Le grand public ne se soucie pas de savoir s'ils raisonnent ou non ", a déclaré Dziri. Mais pour les personnes qui construisent ces modèles et essaient de comprendre leurs capacités, cela compte. " Nous devons vraiment comprendre ce qui se passe sous le capot ", a-t-elle déclaré. " Si nous comprenons comment ils accomplissent une tâche et comment ils raisonnent, nous pouvons probablement les améliorer. Mais si nous ne savons pas, c'est là que c'est vraiment difficile de faire quoi que ce soit. "




Auteur: Internet

Info: https://www.quantamagazine.org/chatbot-software-begins-to-face-fundamental-limitations-20250131/, Anil Ananthaswamy, 31 janv 2025

[ larges modèles de langage ] [ frontières cognitives ] [ limites architecturales ] [ données massives ]

 

Commentaires: 0

Ajouté à la BD par miguel