Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 4
Temps de recherche: 0.0288s
soignant-soigné
Devant l’instabilité des significations et des sentiments, on peut certes postuler un désordre mais pourquoi le prescrire indescriptible, impénétrable et définitivement opaque ? […] Pourquoi ne pas tenter de les lire d’emblée comme le patient, c’est-à-dire déployés à partir de la polarisation centrale, et tenter d’en rendre compte ?
Auteur:
Grivois Henri
Années: 1933
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: psychiatre, psychanalyste
Continent – Pays: Europe - France
Info:
Naître à la folie
[
singularité contextualisée
]
[
approche thérapeutique
]
[
psychose
]
homme-animal
En conclusion, les animaux qui génèrent réellement des séquences de cris qui semblent aléatoires semblent être exceptionnels, et chez de nombreuses espèces, il existe des règles (ou des contraintes) sur les séquences vocales que l'on peut raisonnablement qualifier de "syntaxe animale". Cependant, les types de règles qui régissent ces arrangements chez les primates sont très simples par rapport à la syntaxe linguistique humaine : ils peuvent généralement être capturés par des grammaires triviales à états finis, et seuls les "chants" sans proposition des oiseaux et des baleines nécessitent des grammaires plus complexes. Ainsi, les données actuelles confirment l'existence d'un large fossé entre la "syntaxe" animale et celle employée dans tout langage humain.
Auteur:
Fitch William Tecumseh Sherman
Années: 1963 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: H
Profession et précisions: biologiste évolutionniste et spécialiste des sciences cognitives américains
Continent – Pays: Amérique du nord - Usa
Info:
L'évolution du langage, p 185
[
langages
]
[
comparés
]
[
contextualisés
]
langage
- Trois mois qu'il s'enferme dans sa putain de véranda, dit-il, tout son vocabulaire doit y passer plusieurs fois par jour.
- Dis que ton père est analphabète...
- Mon père est un Américain de base, tu as oublié ce que c'était. Un type qui parle pour se faire comprendre, pas pour faire des phrases. Un homme qui n'a pas besoin de dire vous quand il sait dire tu. Un type qui est, qui a, qui dit et qui fait, il n'a pas besoin d'autres verbes. Un type qui ne dîne, ne déjeune et ne soupe jamais : il mange. Pour lui, le passé est ce qui arrivé avant le présent, et le futur ce qui arrivera après, à quoi bon compliquer ? As-tu déjà listé le nombre de choses que ton père est capable d'exprimer rien qu'avec le mot "fuck" ?
- Pas de cochonneries, s'il te plait.
- C'est bien autre chose que des cochonneries. "Fuck" dans sa bouche peut vouloir dire : "Mon Dieu, dans quelle panade me suis-je fourré !", ou encore : "Ce gars-là va me le payer cher un jour", mais aussi "J'adore ce film". Pourquoi un type comme lui aurait besoin d'écrire.
Auteur:
Benacquista Tonino
Années: 1961 - 20??
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: écrivain
Continent – Pays: Europe - France
Info:
Malavita (discussion entre les deux ados de la famille)
[
simplicité
]
[
contextualisé
]
[
clarté
]
[
routines
]
[
tics polyvalents
]
[
pulsions
]
homme-machine
Illustrer l'apprentissage par renforcement à partir de commentaires humains (RLHF*)
Les modèles de langage ont montré des capacités impressionnantes au cours des dernières années en générant des textes variés et convaincants à partir d'entrées humaines. Cependant, il est difficile de définir ce qu'est un "bon" texte, car c'est subjectif et ça dépend du contexte. Il existe de nombreuses applications telles que l'écriture d'histoires où l'on recherche la créativité, des textes informatifs qui doivent être véridiques, ou des extraits de code que l'on veut exécutables.
Rédiger une fonction de perte** pour capturer ces attributs semble impossible et la plupart des modèles de langage sont encore entraînés avec une simple perte de prédiction du prochain jeton (par exemple, l'entropie croisée). Pour compenser les lacunes de la perte elle-même, les gens définissent des métriques conçues pour mieux capturer les tropismes humains, telles que BLEU ou ROUGE. Bien qu'elles soient mieux adaptées que la fonction de perte elle-même pour mesurer les performances, ces mesures comparent simplement le texte généré à des références avec des règles simples et sont donc également limitées. Ne serait-il pas formidable d'utiliser le retour d'information humain sur le texte généré comme mesure de la performance ou d'aller encore plus loin et d'utiliser ce retour d'information comme perte pour optimiser le modèle ? C'est l'idée de l'apprentissage par renforcement à partir du feedback humain (RLHF)
Le RLHF a permis aux modèles de langage de commencer à aligner un modèle formé sur un corpus général de données textuelles sur celui de valeurs humaines complexes.
Le succès le plus récent de RLHF a été son utilisation dans ChatGPT. Compte tenu des capacités impressionnantes de ChatGPT, nous lui avons demandé de nous expliquer la RLHF :
- Peux-tu m'expliquer comment le RL (reinforcement learning) avec retour d'information humain usant un modèle linguistique comme si j'avais 5 ans.
- Bien sûr, imagine que j'ai un robot nommé Rufus qui veut apprendre à parler comme un humain. Rufus a un modèle linguistique qui l'aide a comprendre les mots et les phrases.
Tout d'abord Rufus va dire quelque chose en usant d'un modèle de langage, par exemple en disant : - je suis un robot
Ensuite un humain va écouter ce qu'il a dit et va donner un avis pour dire si la réponse ressemble à langage naturel d'humain. Il pourra dire, par exemple. C'est pas très bon Rufus, un humain ne dit pas de manière générale "je suis un robot" mais plutôt "j'suis un robot" ou "je suis une machine".
Rufus va prendre en compte ce retour et l'utuiliser pour améliorer son modèle de langage, il va essayer de redire la phrase en utilisant cette correction et va dire "j'suis un robot".
Ensuite l'humain va continuer de donner des retours de ce genre et petit à petit Rufus va commencer à s'exprimer comme un humain le fait en général.
Ici Chatgtp se débrouille étonnamment bien, mais ne couvre pas tout. Nous nous chargeons de combler ces lacunes ! (La suite sur le site en Info)
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Sur guithub : https://huggingface.co/blog/rlhf, Nathan Lambert, Louis Castricato guest , Leandro von Werra, Alex Havrilla guest. Le 9 décembre 2022 *Reinforcement Learning from Human Feedback ... **Courbe de perte ? (loss function) À la base, une fonction de perte est très simple : c'est une méthode permettant d'évaluer dans quelle mesure votre algorithme modélise votre ensemble de données. Si vos prédictions sont totalement erronées, votre fonction de perte affichera un chiffre élevé. Si elles sont assez bonnes, elle affichera un chiffre plus bas. C'est une pénalité pour mauvaise prédiction. En d'autres termes, la perte (loss) est un nombre qui indique à quel point la prédiction du modèle est mauvaise sur un seul exemple. Si la prédiction du modèle est parfaite, la perte est nulle ; elle affichera le chiffre zéro.
[
apprentissage automatique
]
[
idiome consensuel
]
[
anti-poésie
]
[
objectivation linguistique
]
[
polysémie contextualisée
]
[
mathématisation
]