Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 7
Temps de recherche: 0.0255s

potentialités

La possibilité qu'a l'homme de choisir ce qui passera ou non, du monde des projets au monde des faits et du donné, représente une forme naturelle de maîtrise du temps.

 

Auteur: Mourariev Valerian

Info: La Maîtrise du temps

[ responsabilité ] [ pouvoir humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

paradoxe

Ce n’est pas par vain scrupule d’idéaliste que l’anti-fasciste hésite à se faire fasciste contre les fascistes, le pacifiste, guerrier contre les guerriers : à quoi bon lutter si on abolit dans la lutte toutes les raisons pour lesquelles on avait choisi de lutter ?

Auteur: Beauvoir Simone de

Info:

[ humaine aporie ] [ malédiction du pouvoir ]

 

Commentaires: 0

Ajouté à la BD par miguel

frustration

Pour un homme de plus en plus riche et de plus en plus puissant, les limites naturelles deviennent d'insupportables contraintes. Limites naturelles du corps physique - c'est sa finitude sous tous ses modes (fatigue, accident, maladie, vieillissement, et mort pour finir). Bornes sociales de l'être en relation - dans la famille ou dans l'ordre politique. Tout ce qui pourra transgresser ces limites et dépasser ces bornes sera automatiquement compris comme une liberté gagnée. Désormais le corps et l'esprit actuels d'Homo sapiens sont considérés comme des prisons dont il convient par tous les moyens de sortir.

Auteur: Godin Christian

Info: La haine de la nature

[ richesse ] [ pouvoir ] [ être humain ] [ motivation ] [ écologie ]

 

Commentaires: 0

syntonisation

Les ondes alpha du cerveau humain sont comprises entre 6 et 8 hertz. La fréquence de résonance des ondes dans la cavité humaine est comprise entre 6 et 8 hertz. Tous les systèmes biologiques fonctionnent dans la même gamme de fréquences. Les ondes alpha du cerveau humain fonctionnent dans cette gamme et la résonance électrique de la terre qui est comprise entre 6 et 8 hertz. Ainsi, l'ensemble de notre système biologique - cerveau et planète elle-même - opère sur les mêmes fréquences. Qui saura contrôler électroniquement ce système de résonances pourra contrôler directement l'ensemble du système mental de l'humanité.

Auteur: Tesla Nikola

Info:

[ Gaïa ] [ prise de pouvoir ] [ humains résonateurs ]

 
Commentaires: 1
Ajouté à la BD par miguel

hiérarchies implicites

Je pourrais découvrir comment il y a, dans les plus délicats rapports entre les hommes, une continuelle pratique de fascisme, où celui qui impose croit seulement aimer et celui qui subit croit, en subissant, faire tout juste le minimum, pour ne pas offenser. Je pourrais peut-être montrer comment il y a, dans cela, la plus subtile, mais aussi la plus cruelle, des tyrannies, et la plus inextricable des servitudes ; lesquelles, toutes les deux, tant qu'on les admettra, pousseront à admettre toutes les autres tyrannies et toutes les autres servitudes des hommes pris séparément, des classes et des peuples entre eux.

Auteur: Vittorini Elio

Info: Dans "Les hommes et les autres", trad. Michel Arnaud, éd. Gallimard, 1947, pages 155-156

[ croyances ] [ pouvoir ] [ rapports humains ] [ concurrences ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

habitude

Le mystère – remarquait Max Frisch – (et l’Autre en est bien un) est une énigme excitante, mais on a tendance à se lasser de cette excitation "Ainsi donc, on se crée pour soi-même une image. C’est là un acte dépourvu d’amour, la trahison" [Sketchbook 1946-49]. Créer une image de l’Autre conduit à lui substituer cette image ; l’Autre est maintenant précis – de façon apaisante et réconfortante. Il ne reste plus rien au sujet de quoi s’exciter. Je sais ce dont l’Autre a besoin, je sais où commence et où s’achève ma responsabilité. A présent, tout ce que l’Autre pourra faire sera noté et utilisé contre lui. Ce qui était perçu comme une surprise excitante ressemble maintenant plutôt à de la perversion ; ce que l’on adorait comme créativité exaltante, on le ressent à présent comme un pernicieux manque de sérieux. Thanatos a pris la relève d’Eros, et l’excitation de l’incompréhensible s’est changé en l’ennui du compris.

Auteur: Bauman Zygmunt

Info: Dans "La vie en miettes", page 341

[ introjection ] [ raccourci de pensée ] [ hainamoration ] [ prise de pouvoir ] [ proximité ] [ rapports humains ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel