Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 4
Temps de recherche: 0.0393s

Intelligence artificielle

- Lorsque vous avez réfléchi à la manière dont les ordinateurs apprennent, les choses se sont-elles déroulées comme vous le pensiez quand vous avez commencé à travailler dans ce domaine de l'IA ? 

- Oui, jusqu’à très récemment, en fait. […]. Et tout se déroulait comme prévu. Puis, très soudainement, j’ai réalisé récemment que les intelligences numériques que nous construisions sur les ordinateurs apprenaient en fait mieux que ne le fait le cerveau, cela m’a fait changer d’avis. Alors que je pensais depuis une cinquantaine d’années que nous allions créer de meilleures intelligences numériques en les rendant plus proches du cerveau, j’ai soudain pris conscience que nous pourrions disposer de quelque chose de très différent, qui serait déjà meilleur.



 

Auteur: Hinton Geoffrey

Info: Godfather of AI” Geoffrey Hinton Warns of the “Existential Threat, May 9th 2023

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

La temporalité algorithmique est inconcevable pour notre entendement. La connaissance du Go par l'humanité s'est accumulée sur des milliers d'années et s'est transmise par la culture orale, les livres et autres proverbes. Pour devenir un joueur de Go de niveau international, il faut dédier son existence à son étude pendant de longues années.

AlphaGo Zero n'a eu besoin que de quelques jours pour absorber cet héritage et balayer les années de travail pour l'acquérir. En sus, l'IA a développé des pratiques nouvelles et parfois contradictoires avec le savoir que nous avions sur l'art de jouer au Go. Force est de constater que le facteur limitant d'AlphaGO est d'avoir été contraint d'étudier à partir de l'Homme. Dès lors qu'AlphaGo Zero n'a joué que contre lui-même, l'IA n'a plus été inhibé dans son apprentissage par le facteur humain.

Auteur: Bertolucci Marius

Info: L'Homme diminué par l'IA

[ vitesse ] [ homme-machine ] [ force brute cybernétique ] [ dépassement ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

Tout est une question d’évolutivité. La plupart des algorithmes d’apprentissage actuels ont été découverts il y a plus de vingt-cinq ans. Pourquoi a-t-il fallu autant de temps pour qu’ils aient un impact sur le monde réel ? Avec les ordinateurs et les données étiquetées dont disposaient les chercheurs dans les années 1980, il n’était possible de démontrer la preuve de principe que sur des problèmes jouets. Malgré quelques résultats prometteurs, nous ne savions pas dans quelle mesure l’apprentissage et les performances du réseau évolueraient à mesure que le nombre d’unités et de connexions augmentait pour correspondre à la complexité des problèmes du monde réel. La plupart des algorithmes d’IA évoluent mal et ne sont jamais allés au-delà de la résolution de ces problèmes jouets. Nous savons maintenant que l’apprentissage par réseau neuronal évolue bien et que les performances continuent d’augmenter avec la taille du réseau et le nombre de couches. Backprop, en particulier, évolue extrêmement bien. Devrions-nous être surpris ? Le cortex cérébral est une invention des mammifères qui s’est multipliée chez les primates et surtout chez les humains. Et à mesure qu’il s’est développé, davantage de capacités sont devenues disponibles et davantage de couches ont été ajoutées dans les zones d’association pour les représentations d’ordre supérieur. Il existe peu de systèmes complexes qui évoluent aussi bien. Internet est l’un des rares systèmes conçus dont la taille a également été multipliée par un facteur d'un million. Internet a évolué une fois que les protocoles de communication des paquets ont été établis, tout comme le code génétique de l’ADN a permis aux cellules d’évoluer. La formation de nombreux réseaux d’apprentissage profond avec le même ensemble de données donne lieu à un grand nombre de réseaux différents qui ont à peu près le même niveau moyen de performance. 


Auteur: Sejnowski Terrence Joseph

Info: The Deep Learning Revolution

[ apprentissage profond ] [ cybernétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel