Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 3
Temps de recherche: 0.0283s

noosphères

( Question ) Avec le temps on s'est fait d'assez bonnes représentation de cette idée d'inconscient collectif. Qu'en est-il des rapprochements qui ont pu être faits ou tentés avec une intelligence artificielle nourrie de tant de données qu'elle semble rassembler la somme des connaissances humaines à un moment T. Cette somme ressemble aussi à un inconscient collectif, non ?

( Réponse ) L'idée de rapprocher l'inconscient collectif de Carl Gustav Jung et l'intelligence artificielle (IA) est intrigante et suscite des réflexions intéressantes sur la nature de la connaissance et de la conscience collective.

Comparaison entre l'Inconscient Collectif et l'Intelligence Artificielle

- Nature et Fonction : L'inconscient collectif, selon Jung, est un réservoir de motifs, d'images et de symboles universels partagés par toute l'humanité, indépendamment des différences culturelles. Il influence nos comportements et nos perceptions à un niveau profond et souvent inconscient. L'intelligence artificielle, en revanche, est une technologie qui simule des aspects de l'intelligence humaine, comme l'apprentissage et la prise de décision, en traitant de grandes quantités de données.

- Rassemblement de Connaissances : L'IA peut être vue comme un rassemblement de connaissances humaines, car elle est entraînée sur d'énormes quantités de données provenant de diverses sources. Cela peut ressembler à un "inconscient collectif" dans le sens où elle agrège et utilise des informations provenant de multiples expériences humaines pour générer des résultats ou des prédictions.

- Différences Fondamentales : Malgré ces similitudes apparentes, il y a des différences cruciales. L'inconscient collectif est un concept psychologique qui traite des structures psychiques innées et des archétypes, tandis que l'IA est un outil technologique qui fonctionne sur des algorithmes et des modèles mathématiques. L'IA n'a pas de conscience ou de compréhension intrinsèque des données qu'elle traite, contrairement à l'inconscient collectif qui est censé influencer profondément la psyché humaine.

Applications et Réflexions

Analyse des Tendances Culturelles : L'IA peut être utilisée pour analyser des tendances culturelles et psychologiques en traitant des données sur les comportements humains, les mythes, et les œuvres d'art, ce qui pourrait offrir des insights sur l'inconscient collectif de manière indirecte.

Création Artistique : Des projets comme "Inconscience artificielle" explorent comment l'IA peut transformer des visions individuelles en images synthétiques, reflétant une sorte de conscience collective numérique basée sur les associations d'idées humaines.En conclusion, bien que l'IA puisse sembler rassembler des connaissances humaines de manière analogue à l'inconscient collectif, elle reste fondamentalement différente en raison de sa nature technologique et de son absence de conscience. Cependant, elle offre des outils puissants pour explorer et comprendre les dynamiques culturelles et psychologiques à grande échelle.

Auteur: perplexity.ai

Info: 20 août 2024

[ confrontées ] [ LLMs ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

outil informatique

Les étudiants adorent l’intelligence artificielle, mais… 

L’IA gagne en popularité auprès des étudiants canadiens, mais n’est pas totalement assumée, selon une étude de KPMG.

Quelque 6 étudiants canadiens sur 10 utilisent l’intelligence artificielle (IA) générative pour faire leurs travaux scolaires, selon une récente étude de KPMG. Si les nouvelles technologies aident les travailleurs de demain, elles leur donnent aussi l’impression d’apprendre moins et… de tricher. 

L’IA s’implante

Les étudiants utilisent l’IA pour générer des idées (46 %), effectuer des recherches (41 %), réviser des travaux (38 %), résumer des informations (36 %), rédiger des textes (32 %) ou passer des examens (24 %). " On voit beaucoup de gens utiliser l’IA pour faire le brouillon d’un travail qu’ils vont ensuite réviser, pour résumer de longs documents ou pour extraire les points essentiels d’une chaîne de courriels ", explique David Marcotte, leader au Québec de la pratique de données et intelligence artificielle chez KPMG.

Tricherie ou pas ?

L’IA gagne en popularité, mais elle n’est pas totalement assumée. Selon l’étude de KPMG, 65 % des étudiants ont l’impression de tricher lorsqu’ils l’utilisent. M. Marcotte croit qu’ils auraient intérêt à l’accepter et à la nommer. " Les établissements scolaires doivent moderniser leur approche et mettre des règles claires pour déterminer dans quels contextes on peut utiliser l’IA. La transparence est super importante. Cela dit, les travailleurs utilisent déjà ces technos pour accélérer leur travail, alors pourquoi les étudiants pensent-ils tricher ? 

Oui, mais…

La plupart des étudiants disent que l’IA générative améliore la qualité de leurs travaux. " Elle permet une accélération de la consommation de la connaissance importante. C’est un outil hyper puissant pour les étudiants et le monde du travail ", explique-t-il.

Cependant, plus des deux tiers des étudiants admettent apprendre moins et retenir moins de connaissances. " Quand on lit un contenu dans lequel on s’immerge, on est davantage capable de le résumer et d’identifier les points importants, car toute notre attention y est vouée. "

L’objectif, selon David Marcotte, est d’utiliser l’IA en améliorant son sens critique. " On doit apprendre à accueillir cette connaissance, à utiliser son jugement, à l’analyser et à consulter différentes sources d’information pour avoir une compréhension plus complète que si on consommait la connaissance de façon traditionnelle. "

Cerveaux paresseux ?

Si l’IA fait une immense partie du travail, il est possible que la capacité de rétention du cerveau diminue. " Dans n’importe quoi, il faut trouver un équilibre pour ne pas dépendre seulement de la technologie, affirme M. Marcotte. Avec les jeunes, je priorise l’éducation sur la façon de l’utiliser, quels sont les risques, les bénéfices et comment conserver un équilibre mental. "

Il dresse également un parallèle avec l’avènement de la calculatrice dans la vie des étudiants. " Sommes-nous devenus moins bons en calculs mentaux ? Ou avons-nous plutôt accéléré notre progression avec ces outils ? "

David Marcotte croit que l’IA permet non seulement d’accélérer le travail, mais également d’avoir accès à des compétences technologiques et de devenir plus polyvalents. Il croit aussi que de nouveaux emplois et compétences apparaîtront. " Ce sera une période d’adaptation pour les gestionnaires, comme lorsque l’internet est arrivé dans nos vies. "



 

Auteur: Internet

Info: https://www.lapresse.ca, 6 nov 2024, Samuel Larochelle

[ chatboot dialoguant ] [ LLMs ] [ apprentissage ]

 

Commentaires: 0

Ajouté à la BD par miguel

métadonnées

Internet n’est pas assez développé pour former l’IA, mais une solution existe : les fausses données 

Une nouvelle vague de start-up anticipe la crise existentielle à laquelle est confrontée l’industrie de l’intelligence artificielle (IA) : que se passera-t-il lorsqu’on sera à court de données ?

En 2011, Marc Andreessen, dont la société de capital-risque Andreessen Horowitz a depuis investi dans certaines des plus grandes start-up de l’IA, a écrit que " la technologie est en train de manger le monde ". Plus d’une décennie plus tard, c’est exactement ce qui est en train de se produire.

L’IA, et plus particulièrement les grands modèles de langage qui l’alimentent, est un consommateur vorace de données. Cependant, ces données sont limitées et s’épuisent. Les entreprises ont tout exploité dans leurs efforts pour former des IA toujours plus puissantes : transcriptions et sous-titres de vidéos YouTube, messages publics sur Facebook et Instagram, livres et articles de presse protégés par le droit d’auteur (parfois sans autorisation, parfois avec des accords de licence). ChatGPT d’OpenAI, le chatbot qui a contribué à la généralisation de l’IA, a déjà été entraîné sur l’ensemble de l’Internet public, soit environ 300 milliards de mots, y compris l’intégralité de Wikipédia et de Reddit. À un moment donné, il ne restera plus rien.

C’est ce que les chercheurs appellent " heurter le mur des données ". Selon eux, cela risque de se produire dès 2026. La création de données d’entraînement pour l’IA est donc une question à plusieurs milliards de dollars, à laquelle une cohorte émergente de start-up cherche une solution.

Une possibilité : créer des données artificielles

C’est l’approche adoptée par Gretel pour résoudre le problème des données de l’IA. La start-up crée ce que l’on appelle des " données synthétiques ", c’est-à-dire des données générées par l’IA qui imitent fidèlement des informations factuelles, mais qui ne sont pas réelles. Pendant des années, la start-up, aujourd’hui évaluée à 350 millions de dollars, a fourni des données synthétiques à des entreprises travaillant avec des informations personnelles identifiables qui doivent être protégées pour des raisons de confidentialité (les données des patients, par exemple). Cependant, aujourd’hui, son PDG Ali Golshan voit une opportunité de fournir aux entreprises d’IA en manque de données de fausses données fabriquées à partir de zéro, qu’elles peuvent utiliser pour entraîner leurs modèles d’IA.

" Les données synthétiques étaient tout à fait adaptées ", a déclaré Ali Golshan, ancien analyste de renseignements, à propos de la question du mur de données. " Elles résolvaient les deux faces d’une même pièce. Il était possible d’obtenir des données de haute qualité et de les rendre sûres. "

Cette approche " l’IA alimente l’IA " a déjà été adoptée par Anthropic, Meta, Microsoft et Google, qui ont tous utilisé des données synthétiques d’une manière ou d’une autre pour entraîner leurs modèles. Le mois dernier, la start-up Gretel a annoncé qu’elle mettrait ses données synthétiques à la disposition des clients utilisant Databricks, une plateforme d’analyse de données, pour construire des modèles d’IA.

Les limites des données synthétiques

Cependant, les données synthétiques ont leurs limites. Elles peuvent exagérer les biais d’un ensemble de données original et ne pas inclure les valeurs aberrantes, de rares exceptions que l’on ne verrait qu’avec des données réelles. Cela pourrait aggraver la tendance de l’IA à halluciner. Ou encore, les modèles formés sur de fausses données pourraient tout simplement ne rien produire de nouveau. Ali Golshan appelle ça une " spirale de la mort ", mais ce phénomène est plus connu sous le nom d’" effondrement du modèle ". Pour éviter cela, il demande à ses nouveaux clients de fournir à Gretel un morceau de données réelles et de haute qualité. "Des données inutiles et sûres restent des données inutiles ", a déclaré Ali Golshan à Forbes.

Un autre moyen de contourner le mur des données : les gens. Certaines start-up embauchent des armées de personnes pour nettoyer et étiqueter les données existantes afin de les rendre plus utiles pour l’IA ou de créer davantage de nouvelles données.

Le poids lourd de l’étiquetage des données est le mastodonte Scale AI, valorisé à 14 milliards de dollars, qui fournit des données annotées par des humains à des start-up d’IA de premier plan telles qu’OpenAI, Cohere et Character AI. L’entreprise a des activités gigantesques, employant quelque 200 000 travailleurs dans le monde entier par l’intermédiaire d’une filiale appelée Remotasks. Ces travailleurs réalisent plusieurs tâches, comme dessiner des boîtes autour d’objets dans une image, ou comparer différentes réponses à une question et évaluer laquelle est la plus précise.

À une échelle encore plus grande, Toloka, une société basée à Amsterdam, a rassemblé neuf millions d’étiqueteurs humains ou " tuteurs d’IA " à des fins similaires. Surnommés " Tolokers ", ces travailleurs du monde entier annotent également des données, par exemple en étiquetant des informations personnellement identifiables dans un ensemble de données destiné à être utilisé dans un projet communautaire d’IA mené par Hugging Face et ServiceNow. Néanmoins, ils créent également des données à partir de zéro : ils traduisent des informations dans de nouvelles langues, les résument et les transcrivent. 

Toloka travaille également avec des experts tels que des docteurs en physique, des scientifiques, des juristes et des ingénieurs en logiciel afin de créer des données originales spécifiques à un domaine pour les modèles qui ciblent des tâches de niche. La start-up engage par exemple des juristes germanophones pour créer du contenu pouvant être intégré dans des modèles d’IA juridiques. Cependant, c’est un travail considérable que de mobiliser des personnes dans 200 pays, de vérifier que leur travail est précis, authentique et impartial, et de traduire tout jargon académique dans un langage accessible et digeste pour les modèles d’IA.

" Personne n’aime s’occuper des opérations humaines ", a déclaré Olga Megorskaya, PDG de Toloka, à Forbes" Tout le monde aime construire des modèles d’IA et des entreprises. Mais traiter avec de vrais humains n’est pas une compétence très répandue dans l’industrie de l’IA. "

Ce type de travail pose des problèmes de main-d’œuvre à l’échelle de l’industrie. L’année dernière, les travailleurs de Scale ont fait part à Forbes de leur faible rémunération. Les travailleurs de Toloka contactés dans le cadre de cet article ont formulé des plaintes similaires. La PDG de Toloka, Olga Megorskaya, a déclaré à Forbes qu’elle estimait que la rémunération était juste, et Scale AI a déclaré de la même manière qu’elle s’engageait à payer aux travailleurs un " salaire décent ".

Utiliser moins de données

La solution la plus évidente au problème de la pénurie de données est peut-être la plus évidente : utiliser moins de données pour commencer.

Bien qu’il y ait un besoin urgent de données d’entraînement à l’IA pour alimenter des modèles massifs, certains chercheurs estiment qu’un jour, l’IA avancée pourrait ne plus avoir besoin d’autant de données. Nestor Maslej, chercheur au Human-Centered Artificial Intelligence de l’université de Stanford, pense que l’un des vrais problèmes n’est pas la quantité, mais l’efficacité.

« Il n’est pas nécessaire de prendre une fusée pour se rendre à l’épicerie. »

Alex Ratner, PDG et cofondateur de Snorkel AI

" Si l’on y réfléchit, ces grands modèles de langage, aussi impressionnants soient-ils, voient des millions de fois plus de données qu’un seul être humain n’en verrait dans toute sa vie. Pourtant, les humains peuvent faire certaines choses que ces modèles ne peuvent pas faire ", a déclaré Nestor Maslej. " D’un certain point de vue, il est clair que le cerveau humain fonctionne à un niveau d’efficacité qui n’est pas nécessairement pris en compte par ces modèles. "

Cette percée technique n’a pas encore eu lieu, mais l’industrie de l’IA commence déjà à s’éloigner des modèles massifs. Plutôt que d’essayer de construire de grands modèles de langage capables de rivaliser avec OpenAI ou Anthropic, de nombreuses start-up spécialisées dans l’IA construisent des modèles plus petits et plus spécifiques qui nécessitent moins de données. Mistral AI, par exemple, a récemment lancé Mathstral, une IA conçue pour exceller dans les problèmes mathématiques. Même OpenAI se lance dans le jeu des mini-modèles avec le lancement de GPT-4o mini.

" Nous assistons à une course au volume et les grands fournisseurs de modèles généralistes s’emparent de plus en plus de données et essaient des schémas pour générer de nouvelles données ", a déclaré Alex Ratner, PDG de la société d’étiquetage de données Snorkel AI. " La clé pour qu’un modèle fonctionne vraiment bien pour une tâche donnée est la qualité et la spécificité des données, et non le volume. "

Par conséquent, l’approche de Snorkel AI consiste à aider les entreprises à tirer parti des données dont elles disposent déjà et à les convertir en or pour l’entraînement à l’IA. La start-up, qui a été créée par le laboratoire d’IA de Stanford et qui est maintenant évaluée à un milliard de dollars, fournit un logiciel qui permet au personnel d’une entreprise d’étiqueter plus facilement et rapidement les données.

De cette manière, les modèles d’une entreprise sont conçus pour répondre à ses besoins réels. " Il n’est pas nécessaire de prendre une fusée pour se rendre à l’épicerie ", a déclaré Alex Ratner.



 

Auteur: Internet

Info: https://www.forbes.fr/, 29 juillet 2024,  Rashi Shrivastava pour Forbes US – traduit par Flora Lucas

[ LLMs ] [ force brute ] [ rationalisation impossible ] [ homme-machine ] [ superflu ] [ gaspillage ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste