Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 8
Temps de recherche: 0.0363s

psychisme

Notre cerveau est tellement puissant que par moment il ne se supporte plus.

Auteur: Gaillard Raphaël

Info: Interview sur France Inter, janv 2024

[ mise en boucle ] [ soliloque ] [ déséquilibre ]

 

Commentaires: 0

Ajouté à la BD par miguel

obsession

[L'aliéné] réalise la métaphore, il se laisse fasciner par elle. Martyr d'une analogie trop sentie, trop subie. Il ne sait pas se retenir, ce que savent si bien les poètes de profession qui passent de l'une à l'autre. Lui, il est dans le profond caveau d'une seule.

Auteur: Michaux Henri

Info: Connaissance par les gouffres

[ mise en boucle ] [ rétroaction ] [ langage ]

 

Commentaires: 0

Ajouté à la BD par miguel

focalisation longue

Noms des minéraux et minéraux eux-mêmes ne diffèrent pas fondamentalement entre eux, car à la source du matériau et de l'empreinte on pourra déceler un nombre abyssal de fissures. Mots et rochers contiennent un langage qui suit une syntaxe de cassures et de séparations. Si vous regardez un mot suffisamment longtemps, vous le verrez s'ouvrir en une série de failles, pour devenir un ensemble de particules, chacune contenant son propre vide.

Auteur: Smithson Robert

Info: R. Smithson: The Collected Writings

[ miroir mouvant ] [ tiercités-priméités ] [ termes ] [ mise en boucle ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

informatique

<stan> putain le con...je suis en vacances la semaine prochaine...du coup j'ai foutu une règle pour ma messagerie, vous savez les réponses automatiques quoi, le message d'absence classique.
<stan> le pb, c'est que j'ai voulu tester si ca marchait...
<stan> donc j'me suis envoyé un message...
<stan> ...
<stan> putain la misère, j'envoie, je recois la réponse auto d'absence mais comme ce con il capte pas que c le message d'absence, il m'en revoit un, puis un, puis...merde ca s'arrete plus.

Auteur: Internet

Info:

[ dialogue-web ] [ humour ] [ mise en boucle ]

 

Commentaires: 0

étymologie

Nous avons décidé de nommer l'ensemble du domaine de la théorie du contrôle et de la communication, qu'il s'agisse de machine ou d'animaux, sous le nom de Cybernétique, que nous formons à partir du mot grec qui signifie timonier*. En choisissant ce terme, nous souhaitons reconnaître que le premier article important sur les mécanismes de rétroaction est un article sur les gouverneurs, publié par Clerk Maxwell en 1868, et que  gouverneur est dérivé du latin... Nous souhaitons également faire référence au fait que les moteurs de direction d'un navire sont en effet l'une des formes les plus anciennes et les mieux développées de mécanismes de rétroaction.

Auteur: Wiener Norbert

Info: In Cybernetics (1948), 19. *du grec ancien κυϐερνητική , kubernêtikê ("art de piloter, art de gouverner"), dérivé de κυβερνάω , kybernáó ("piloter"), lequel donne le latin gubernare, d'où gouverner en français.

[ feed-back ] [ cause-effet ] [ mise en boucle ]

 

Commentaires: 0

Ajouté à la BD par miguel

clairvoyance

Dans cette seconde hypothèse, c'est l'effort d'intelligence qui rendrait vulnérable à la dépression. La lucidité est la blessure la plus rapprochée du soleil : cette maxime de René Char, répétée à l'envi, en serait une possible illustration. Celui qui regarde le monde avec les yeux de l'intelligence est un être blessé. Il s'expose à la chute d'Icare en brûlant ses ailes à la chaleur du soleil. Pourquoi ne pas privilégier cette lecture des possibles liens de causalité entre dépression et trajectoire exceptionnelle, la seconde déterminant la première plutôt que l'inverse? Plus fondamentalement, nous pouvons nous interroger sur le passage de la corrélation à la causalité : l'existence d'un lien entre deux phénomènes (ce qui n'est pas même évident en l'occurrence pour ce qui est de la dépression et de la créativité) n'implique pas que l'un soit la cause de l'autre.

Auteur: Gaillard Raphaël

Info: Un coup de hache dans la tête

[ mise en boucle ] [ déclic ]

 

Commentaires: 0

Ajouté à la BD par miguel

esprits malins

Parfois ce sont des parasites énergétiques qui vont, soit provoquer un suicide, soit un meurtre, pour se nourrir des produits epsilon fabriqués par la souffrance. Les mayas avaient compris cela et en ont fait des applications "industrielles". Chaque fois que je pense à eux, je suis enchanté que ces gens là aient disparu avec leurs pratiques obscures. Il en reste des traces ça et là, dans le vaudou par exemple, et chaque fois qu'une croyance primitive aime verser le sang d'un humain ou d'un animal dans des rituels abjects....

Il y aurait beaucoup à dire sur la puissance des parasites sur les humains terrestres par exemple....

Toute religion qui ritualise le sang versé est une abomination. La religion chrétienne y échappe de justesse, avec la consommation SYMBOLIQUE du corps et du sang du Christ. Avant Jésus, les odieux rituels du sang versé étaient communs à TOUTES les religions dites "du livre".

Ces rituels ENTRETIENNENT UNE RELATION DIRECTE avec les parasites énergétiques que ces mêmes religions qualifient de DÉMONS.

Auteur: Auburn Marc

Info: Sur son fil FB vers 2020

[ idée fixe ] [ mise en boucle ] [ psychose ]

 

Commentaires: 0

Ajouté à la BD par miguel

système fermé

Des chercheurs prouvent que les modèles d’IA dégénèrent s’ils sont entraînés avec leurs propres résultats

À la fin c'est moche (Photo avec quelques exemples de clichés/portraits traités par IA qui perdent leur netteté et leur définition au cours du processus)

Utiliser des données générées par IA pour enrichir un modèle d’IA conduit progressivement à l’effondrement de la qualité de ses résultats.

Détruire un modèle d’IA sera peut-être une préoccupation d’activistes d’ici quelques années. Grâce à une étude publiée dans Nature, on connaît une méthode qui, au moins, semble fonctionner. Des chercheurs en intelligence artificielle de Cambridge, au Royaume-Uni, ont essayé de savoir ce qu’il se passait en entraînant des modèles d’IA avec les résultats issus de ces mêmes modèles. En d’autres termes, nourrir de l’IA générative avec de l’IA générative. Eh bien le résultat est sans appel : le modèle finit tôt ou tard pas s’effondrer.

L’expérimentation n’a rien d’un projet néo-luddite, mais s’apparente plutôt à une mise en garde pour Zakhar Shumaylov, l’un des co-auteurs de l’étude, à toute l’industrie et la recherche en IA : " Tout le sujet est de montrer que nous devons faire vraiment attention à ce que nous utilisons comme donnée pour enrichir les IA ", affirme-t-il.

L’expérience menée à Cambridge : générer des articles Wikipédia

L’équipe de Shumaylov a testé son hypothèse avec l’un des usages les plus fréquents des intelligences artificielles génératives : la génération de texte. Un premier modèle a été enrichi avec des articles de Wikipédia (comme peuvent l’être de nombreux modèles, de ChatGPT à Gemini). Les chercheurs ont ensuite demandé à ce modèle de générer des articles de style Wikipédia. Une tâche simple pour un modèle entraîné sur une bonne matière première, constituée d’articles de Wikipédia.

Mais voilà, ils ont ensuite ajouté les articles générés au modèle initial, mélangeant une source " pure " et authentique (les vrais articles Wikipédia) et une source générée (les articles générés par le modèle dans le style de Wikipédia). Et déjà, les choses ont empiré, avec une seule génération de modèle qui n’a que partiellement été entraînée avec des IA. 

Pourquoi cet appauvrissement dans le matériau original survient-il ? La raison principale vient de l’échantillon de texte source. Quand vous utilisez comme source un article original, notamment d’encyclopédie, vous vous retrouvez avec une collection de mots rares que l’IA va être susceptible d’utiliser. Mais avec une génération suivante d’échantillon, vous commencez à perdre la rareté des mots au profit de mots plus courants, qui sont mécaniquement plus nombreux. Jusqu’à finir sur une production textuelle pauvre, qui, en plus d’avoir perdu en vocabulaire, enchaîne de plus en plus les erreurs. C’est précisément ce que l’équipe de Shumailov a remarqué : " le modèle finit par n’apprendre que des erreurs ".

Un danger pour les moteurs de recherche par IA

Cette étude prouve que l’IA a besoin d’une donnée de qualité pour s’enrichir et garder un haut niveau d’exigence. Cela s’applique dans un cadre universitaire, mais également sur les outils grand public : c’est toute la difficulté, par exemple, d’un Google Gemini sur le web.

Cette expérience de Google, lancée aux États-Unis, vise à résumer les résultats présents sur le web et à les présenter sous la forme de réponses écrites directement dans le moteur de recherche. Ainsi, les internautes n’auraient plus besoin d’aller sur les sites web que Google vient résumer : leur réponse est dans Google. Mais que se passe-t-il si le corpus est de mauvaise qualité ou, pire, si le web devient petit à petit un repaire de textes générés par IA ? Gemini finira par s’enrichir sur des textes pauvres, apprenant sur des matériaux générés et donc mécaniquement moins intéressants.

C’est aussi ce que peut craindre OpenAI, qui vient de lancer en bêta très privée son concurrent à Gemini : SearchGPT. Le géant derrière ChatGPT espère concurrencer Google sur le sujet de l’avenir des moteurs de recherche, mais se heurtera aux mêmes écueils s’il ne fait pas attention à son corpus d’entraînement initial… et à ses enrichissements ultérieurs.

La proposition des chercheurs de Cambridge pour éviter cela, serait de parvenir à une sorte de filigrane (watermark), permettant avec certitude d’identifier un texte généré ou une image générée, afin de l’exclure de l’enrichissement des modèles.

Auteur: Internet

Info: Numérama, Julien Cadot, 26 juillet 2024

[ étiolement ] [ dégénérescence ] [ nivellement par le bas ] [ mise en boucle ]

 

Commentaires: 0

Ajouté à la BD par miguel