Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 5201
Temps de recherche: 0.0503s
prospective technologique
9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019
1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.
2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.
3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.
4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.
5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.
6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.
7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."
8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.
9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
zero hedge, 1 mars 2019
paliers évolutionnaires
Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre
Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.
À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.
La première extinction de l’histoire de la Terre
Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.
Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.
Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.
Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.
Un "coup de pouce" à l’évolution ?
Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.
Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).
Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.
En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.
Une anoxie dont la cause reste à éclaircir
Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible.
Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.
Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.
En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.science-et-vie.com, 7 déc 2022 Fleur Brosseau
[
stases
]
[
Gaïa
]
élément irréductible de l'anneau des entiers relatifs
Comment les nombres premiers révèlent la structure cachée des mathématiques
1, 2, 3, 4, 5 — les mathématiques commencent par compter. Viennent ensuite l’addition, puis la multiplication. À première vue, elles semblent assez similaires. Après tout, la multiplication n’est qu’une simple addition répétée : 7 × 5 est une façon plus courte d’écrire 5 + 5 + 5 + 5 + 5 + 5 + 5.
Mais si vous regardez à l'intérieur des nombres pour voir de quoi ils sont faits, cette similitude initiale s'effondre. Essayez de partitionner n'importe quel nombre entier en parties plus petites en utilisant l'addition, et vous aurez un riche éventail d'options. Par exemple, 11 = 5 + 6 = 4 + 7 = 3 + 3 + 3 + 2. (Il existe 56 façons de diviser 11.) Au fur et à mesure que les nombres deviennent plus grands, le nombre de partitions augmente régulièrement . Mais si vous essayez plutôt de diviser les nombres en utilisant la multiplication, une image très différente émerge. Il existe de nombreuses façons de diviser 30 : il y a 3 × 10, 5 × 6 et 2 × 15. Mais 31 ne peut pas du tout être divisé. Il est premier. Ses seuls facteurs sont lui-même et 1.
Cette distinction entre addition et multiplication est l'un des passages les plus doux vers le désert des mathématiques abstraites. La définition des nombres premiers implique la multiplication. Mais les nombres premiers forment également des motifs additifs à la texture mystérieuse.
Beaucoup de ces modèles ont motivé les plus grands problèmes mathématiques en suspens. Par exemple, les mathématiciens soupçonnent qu'il existe une infinité de nombres premiers jumeaux — des nombres premiers (multiplicatifs) qui diffèrent de 2 (additifs), comme 29 et 31 ou 41 et 43. Mais personne n'a pu le démontrer avec certitude. De même, les mathématiciens pensent que tout nombre pair supérieur à 2 peut s'écrire comme la somme de deux nombres premiers, un problème appelé la conjecture de Goldbach. Cela aussi reste à prouver.
Mais de nombreux autres faits sont bien établis. Il existe une infinité de nombres premiers. Les mathématiciens continuent d' apporter de nouvelles preuves de ce fait, même si c'est l'un des résultats les plus anciens des mathématiques. On sait aussi que les nombres premiers se raréfient le long de la droite numérique. En 1896, Jacques Hadamard et Charles-Jean de la Vallée Poussin ont prouvé indépendamment le théorème des nombres premiers, qui établit une très bonne estimation de leur rareté. Ce théorème est l'un des résultats fondamentaux de la théorie analytique des nombres, une branche des mathématiques qui relie l'étude des nombres entiers à celle des fonctions à évolution régulière.
Quoi de neuf et d'intéressant
À première vue, les nombres entiers et les fonctions n’ont pas grand-chose à voir les uns avec les autres. Pourtant, le lien qui les unit est profond. L’un de ses aspects les plus fascinants est l’hypothèse de Riemann, sans doute la question ouverte la plus importante (et la plus difficile à résoudre) des mathématiques modernes.
En apparence, l'hypothèse n'a rien à voir avec les nombres premiers : elle concerne le comportement d'une somme infinie qui n'implique pas directement de nombres premiers. Mais si elle est vraie, les mathématiciens auront un moyen de rendre compte des écarts par rapport aux prédictions du théorème des nombres premiers. Les nombres premiers semblent être dispersés au hasard parmi les entiers, mais l'hypothèse de Riemann fournit une sorte de clé gnomique qui explique pourquoi ils apparaissent à ce moment-là.
En mai, James Maynard et Larry Guth ont prouvé une nouvelle limite sur les exceptions possibles à l'hypothèse. (Les physiciens ont aussi des idées sur la façon de s'y prendre.) L'année dernière, trois étudiants de Maynard ont prouvé un nouveau résultat sur la façon dont les nombres premiers sont distribués dans différents types de compartiments mathématiques. D'autres axes de travail examinent encore la façon dont les nombres premiers sont distribués dans des intervalles plus courts .
On sait depuis longtemps que les nombres premiers forment des amas, parfois ils laissent de grands espaces entre eux, parfois de petits. En 2013, Yitang Zhang, alors mathématicien inconnu, a prouvé qu'il existe un nombre infini de nombres premiers séparés par moins de 70 millions de nombres. Ce fut la première étape importante vers la démonstration qu'il existe un nombre infini de nombres premiers jumeaux : 70 millions, bien que ce soit un nombre important, est fini.
Quelques mois plus tard, une collaboration incluant Maynard a montré qu'il était possible de faire un peu mieux : ils ont réduit l'écart de 70 millions à 600 .
Tout aussi intéressante pour les mathématiciens est la question de savoir à quelle distance peuvent se trouver les nombres premiers. (Même si certains nombres premiers sont très proches les uns des autres, d'autres paires de nombres premiers adjacents sont très éloignées.) L'espacement moyen tend vers l'infini pour les grands nombres, mais les mathématiciens tentent de caractériser la vitesse à laquelle les écarts peuvent se creuser .
Les nombres premiers créent de nombreux modèles au-delà de la simple façon dont ils sont distribués. À l'exception de 2, tous les nombres premiers sont impairs. Cela signifie que certains, comme 5, laissent un reste de 1 lorsqu'ils sont divisés par 4, tandis que d'autres, comme 11, laissent un reste de 3. Il s'avère que ces deux types différents de nombres premiers ont des comportements fondamentalement différents, un fait appelé réciprocité quadratique , qui a été prouvé pour la première fois par Carl Gauss au 19e siècle. La réciprocité est un outil de base pour les mathématiciens d'aujourd'hui. Par exemple, elle a joué un rôle clé dans une preuve l'été dernier sur la façon dont les cercles peuvent être regroupés.
La notion de nombre premier, ou indivisible, ne se limite pas aux nombres. Des expressions appelées polynômes, comme x ⁵ + 3 x ² + 1, peuvent également être premières. En 2018, deux mathématiciens ont montré que presque tous les polynômes d'une classe particulière sont premiers.
Au premier abord, il n'est pas évident de comprendre à quel point les nombres premiers sont spéciaux. En comptant, on a l'impression que 7 et 11 sont indivisibles, alors que les autres nombres ne le sont pas. Mais le simple fait de compter crée des structures subtiles et complexes qui permettent à chacun d'entrevoir la grandeur inexorable de la vérité mathématique.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://us1.campaign-archive.com/?u=0d6ddf7dc1a0b7297c8e06618&id=1afb830f9a, Konstantin Kakaes, 19 aout 2024
[
tour d'horizon
]
chronos
Comment les physiciens explorent et repensent le temps
Le temps est inextricablement lié à ce qui pourrait être l’objectif le plus fondamental de la physique : la prédiction. Qu'ils étudient des boulets de canon, des électrons ou l'univers entier, les physiciens visent à recueillir des informations sur le passé ou le présent et à les projeter vers l'avant pour avoir un aperçu de l'avenir. Le temps est, comme l’a dit Frank Wilczek, lauréat du prix Nobel, dans un récent épisode du podcast The Joy of Why de Quanta, " la variable maîtresse sous laquelle le monde se déroule ". Outre la prédiction, les physiciens sont confrontés au défi de comprendre le temps comme un phénomène physique à part entière. Ils développent des explications de plus en plus précises sur la caractéristique la plus évidente du temps dans notre vie quotidienne : son écoulement inexorable. Et des expériences récentes montrent des façons plus exotiques dont le temps peut se comporter selon les lois de la mécanique quantique et de la relativité générale. Alors que les chercheurs approfondissent leur compréhension du temps dans ces deux théories chères, ils se heurtent à des énigmes qui semblent surgir de niveaux de réalité plus obscurs et plus fondamentaux. Einstein a dit en plaisantant que le temps est ce que mesurent les horloges. C'est une réponse rapide. Mais alors que les physiciens manipulent des horloges de plus en plus sophistiquées, on leur rappelle fréquemment que mesurer quelque chose est très différent de le comprendre.
Quoi de neuf et remarquable
Une réalisation majeure a été de comprendre pourquoi le temps ne s'écoule qu'en avant, alors que la plupart des faits physiques les plus simples peuvent être faits et défaits avec la même facilité. La réponse générale semble provenir des statistiques des systèmes complexes et de la tendance de ces systèmes à passer de configurations rares et ordonnées à des configurations désordonnées plus courantes, qui ont une entropie plus élevée. Les physiciens ont ainsi défini une " flèche du temps " classique dans les années 1800, et dans les temps modernes, les physiciens ont remanié cette flèche probabiliste en termes d’intrication quantique croissante. En 2021, ma collègue Natalie Wolchover a fait état d’une nouvelle description des horloges comme de machine qui ont besoin du désordre pour fonctionner sans problème, resserrant ainsi le lien entre emps et entropie.
Simultanément, les expérimentateurs se sont fait un plaisir d'exposer les bizarres courbures et crépitements du temps que nous ne connaissons pas, mais qui sont autorisés par les lois contre-intuitives de la relativité générale et de la mécanique quantique. En ce qui concerne la relativité, Katie McCormick a décrit en 2021 une expérience mesurant la façon dont le champ gravitationnel de la Terre ralentit le tic-tac du temps sur des distances aussi courtes qu'un millimètre. En ce qui concerne la mécanique quantique, j'ai rapporté l'année dernière comment des physiciens ont réussi à faire en sorte que des particules de lumière fassent l'expérience d'un écoulement simultané du temps vers l'avant et vers l'arrière.
C'est lorsque les physiciens sont confrontés à la formidable tâche de fusionner la théorie quantique avec la relativité générale que tout ça devient confus ; chaque théorie a sa propre conception du temps, mais les deux notions n’ont presque rien en commun.
En mécanique quantique, le temps fonctionne plus ou moins comme on peut s'y attendre : vous commencez par un état initial et utilisez une équation pour le faire avancer de manière rigide jusqu'à un état ultérieur. Des manigances quantiques peuvent se produire en raison des façons particulières dont les états quantiques peuvent se combiner, mais le concept familier du changement se produisant avec le tic-tac d’une horloge maîtresse reste intact.
En relativité générale, cependant, une telle horloge maîtresse n’existe pas. Einstein a cousu le temps dans un tissu espace-temps qui se plie et ondule, ralentissant certaines horloges et en accélérant d’autres. Dans ce tableau géométrique, le temps devient une dimension au même titre que les trois dimensions de l'espace, bien qu'il s'agisse d'une dimension bizarroïde qui ne permet de voyager que dans une seule direction.
Et dans ce contexte, les physiciens dépouillent souvent le temps de sa nature à sens unique. Bon nombre des découvertes fondamentales de Hawking sur les trous noirs – cicatrices dans le tissu spatio-temporel créées par l’effondrement violent d’étoiles géantes – sont nées de la mesure du temps avec une horloge qui marquait des nombres imaginaires, un traitement mathématique qui simplifie certaines équations gravitationnelles et considère le temps comme apparié à l'espace. Ses conclusions sont désormais considérées comme incontournables, malgré la nature non physique de l’astuce mathématique qu’il a utilisée pour y parvenir.
Plus récemment, des physiciens ont utilisé cette même astuce du temps imaginaire pour affirmer que notre univers est l'univers le plus typique, comme je l'ai rapporté en 2022. Ils se demandent encore pourquoi l'astuce semble fonctionner et ce que signifie son utilité. "Il se peut qu'il y ait ici quelque chose de profond que nous n'avons pas tout à fait compris", a écrit le célèbre physicien Anthony Zee à propos du jeu imaginaire du temps dans son manuel de théorie quantique des champs.
Mais qu’en est-il du temps réel et à sens unique dans notre univers ? Comment les physiciens peuvent-ils concilier les deux images du temps alors qu’ils se dirigent sur la pointe des pieds vers une théorie de la gravité quantique qui unit la théorie quantique à la relativité générale ? C’est l’un des problèmes les plus difficiles de la physique moderne. Même si personne ne connaît la réponse, les propositions intrigantes abondent.
Une suggestion, comme je l’ai signalé en 2022, est d’assouplir le fonctionnement restrictif du temps en mécanique quantique en permettant à l’univers de générer apparemment une variété d’avenirs à mesure qu’il grandit – une solution désagréable pour de nombreux physiciens. Natalie Wolchover a écrit sur la suspicion croissante selon laquelle le passage du temps résulte de l'enchevêtrement de particules quantiques, tout comme la température émerge de la bousculade des molécules. En 2020, elle a également évoqué une idée encore plus originale : que la physique soit reformulée en termes de nombres imprécis et abandonne ses ambitions de faire des prévisions parfaites de l’avenir.
Tout ce que les horloges mesurent continue de s’avérer insaisissable et mystérieux.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.quantamagazine.org/ - Charlie Wood, 1 avril 2024
déresponsabilisation industrielle
Un documentaire consacré aux désastres de Tchernobyl et de Fukushima a été présenté par Arte le 26 avril dernier, lançant une pernicieuse invitation à "vivre avec" la contamination radioactive, "défi" que prétendent, en ces jours sombres, relever les missionnaires de l’accommodation à la vie en zones contaminées par la radioactivité.
L’"Initiative de Dialogue pour la réhabilitation des conditions de vie après l’accident de Fukushima", présentée dans ce film, a été pilotée par de supposés, et néanmoins dangereux experts à l’œuvre à Tchernobyl hier, à Fukushima aujourd’hui, et en France demain.
[...] Un des principaux objectifs − atteint − de ces programmes, a été d’évincer du terrain de Tchernobyl les initiatives de protection sanitaire développées par des médecins et des physiciens après l’accident de la centrale, et de ne pas ralentir, en conséquence, la détérioration continue de la santé des populations, faute d’apporter une véritable prophylaxie.
Les faits de traîtrise de Gilles Hériard-Dubreuil à l’encontre des spécialistes de santé du Belarus ne semblent toutefois pas avoir dissuadé la députée européenne Europe Écologie-Les Verts Michèle Rivasi et l’avocate Corinne Lepage, "antinucléaires" déclarées, de collaborer avec ce dernier, de le nommer "secrétaire" et "expert qualifié" de leur association européenne Nuclear Transparency Watch, qu’elles ont créée et qu’elles président depuis 2013, appelant à rien moins qu’"une implication systématique des citoyens et de la société civile dans la préparation et la réponse aux situations d’urgence nucléaire en Europe", situations dont on aura suffisamment compris qu’elles ne tarderont plus à "survenir".
[...]
Voici leurs cinq recettes, qui, pour être bien concoctées, n’en sont pas moins empoisonnées de cette mort qui enverra les gens moisir à plat.
1. Inciter chacun à rester vivre dans les zones contaminées, tout en "optimisant" son exposition à la radioactivité à proportion du coût économique et social de sa protection. Ainsi, maximisent-ils le nombre de personnes contraintes de suivre un protocole de contrôle et de mesure permettant de survivre dans la contamination à moindre coût. À défaut de les soigner.
2. Considérer la réalité radioactive comme un problème psychologique. Il s’agit de transformer une réalité scientifique et sociale – la contamination radioactive et ses dégâts –, en phénomène faisant l’objet d’un "ressenti" individuel, lui-même tributaire de l’état mental, ou psychologique, de chacun.
Le rapport à la radioactivité ne relèverait ainsi que d’une gestion personnalisée de l’angoisse. À dire d’experts, ce ne serait alors plus la situation de contamination qui serait irrationnelle, mais la perception qu’on en aurait.
3. Recourir à un jargon d’"authenticité", pontifiant et illusoirement concret dans lequel les appels à l’autonomie, à la dignité, à la communauté et à l’humain ne font qu’emprunter à la théologie de pâles reflets de transcendance, afin de mieux assujettir l’individu au fonctionnement, ici du tout radioactif, ailleurs du tout sécurisé.
Or, conforter les gens dans le délire selon lequel ils sont des sujets autonomes dans la "gestion de leur contamination", alors qu’ils savent bien qu’il leur est seulement impossible de ne pas se plier aux rapports techno-sociaux dont ils sont prisonniers, c’est vouer à l’échec toute possibilité d’échappée.
On conditionne les populations à la cogestion du désastre, en les encourageant à stimuler, et a minima à simuler, les réflexes et les comportements induits par les modifications du monde environnant. Cette recherche de l’adaptation parfaite passe par l’intériorisation de toutes les formes de pressions que la contamination radioactive fait naître.
4. Promouvoir la résilience, nouvel horizon de l’homme adaptable, censé ne compter que sur lui-même et ses insondables capacités de "rebond". Au nom d’un relativisme pragmatique, d’un primat de "la vie quotidienne", ces médiateurs du désastre insufflent la défiance, voire la décrédibilisation, des connaissances scientifiques les moins contestables, distillent le doute et propagent l’ignorance sur les effets sanitaires de l’exposition durable aux dites "faibles doses" de rayonnement ionisant, tout en déplorant "la montée de la défiance des populations vis-à-vis des différentes sortes d’autorités."
Résilience aidant, c’est à nous qu’ils assignent ensuite la tâche de recoller les morceaux de ce qu’ils contribuent à détruire. Ils préconisent de remplacer les normes de protection par de simples recommandations destinées à faciliter l’action des individus. "Les gens passent ainsi de la résignation à la créativité", s’enthousiasme Jacques Lochard.
Ainsi, chacun n’aurait plus qu’à mobiliser ses propres réserves de résistance à l’irrésistible et devenir "partie prenante" de sa propre irradiation. On reconnaît là le choix de l’État japonais : maintenir les populations sur place et diminuer d’autant, à court terme du moins, le coût d’un accident nucléaire.
5. Banaliser la radioactivité, cet obstacle que l’on apprend à contourner au quotidien dans la recherche de "solutions" immédiates, ponctuelles et individuelles. La radioactivité ne poserait alors problème que dans la seule mesure où les pratiques de vie des habitants les amèneraient à la "croiser" sur le chemin de l’école, du travail, ou de la promenade.
Au Japon, se mène désormais une chasse quotidienne aux hotspots de contamination radioactive, réduits à des incidents facilement résolus en grattant le sol et en stockant la terre dans des sacs poubelle, ou en installant des rideaux de plomb aux fenêtres des chambres d’enfants afin d’"éviter la contamination venant de la forêt."
[...]
Ces aménageurs de la vie mutilée, relayés par Arte et tant d’autres représentants d’instances étatiques ou associatives, telles que Nuclear Transparency Watch de Mmes Rivasi et Lepage, et M. Hériard-Dubreuil, défendent haut et fort l’irrationalité selon laquelle il existerait un entre-deux de la contamination, où l’exposition au rayonnement ne serait dangereuse qu’en principe, mais s’avèrerait inoffensive dans la réalité. Véritable irrationalité, cette extrême violence du "vivre avec" est une insulte aux survivants.
Il s’agirait donc d’endiguer l’horreur de la contamination en la coulant dans les formes pseudo-rationnelles d’un "tous ensemble, nous vaincrons la radioactivité" ? C’est à quoi se vouent ces prêcheurs de soumission en expliquant, sans foi ni loi, qu’on peut échapper au danger en s’y confrontant, qu’on peut gratter la terre, mais en croisant les doigts.
[...] Proclamant qu’il faut "gérer" sa peur, ils prétendent réduire à néant toute possibilité de mise en cause de la déraison nucléaire, enjoignant à chacun d’en tirer au contraire parti, plutôt que de se hasarder à en rechercher les responsables.
Il fallait dire ce qu’est l’objectif de ces rédempteurs du "vivre avec", qui n’en paieront pas le prix, eux qui ont choisi d’emplir les hôpitaux de malades plutôt que de rendre inhabitées des terres inhabitables.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
3 août 2016, https://sciences-critiques.fr/tchernobyl-fukushima-les-amenageurs-de-la-vie-mutilee/
[
sacrifice différé
]
[
minimisation des conséquences
]
[
propagande cynique
]
palier évolutif
Découverte d’une nouvelle forme de vie née de la fusion d’une bactérie avec une algue
Ayant eu lieu il y a 100 millions d’années, il s’agit seulement du troisième cas connu de ce phénomène.
(Image - La forme de vie née de la fusion entre l'algue Braarudosphaera bigelowii et la cyanobactérie UCYN-A."
Des chercheurs ont découvert une forme de vie de nature extrêmement rare née de la fusion d’une algue avec une bactérie fixatrice d’azote il y a 100 millions d’années. Appelé endosymbiose primaire, le phénomène se produit lorsqu’un organisme en engloutit un autre pour faire de celui-ci un organite, à l’instar des mitochondries et des chloroplastes. Il s’agit du troisième cas recensé d’endosymbiose. Il pourrait ouvrir la voie à une production plus durable d’azote pour l’agriculture.
Au cours des 4 milliards d’années de vie sur Terre, seulement deux cas d’endosymbiose primaire étaient connus jusqu’ici. La première s’est produite il y a 2,2 milliards d’années, lorsqu’une archée a absorbé une bactérie pour l’intégrer dans son arsenal métabolique en la convertissant en mitochondrie. Cette étape constitue une phase majeure dans l’évolution de tous les organismes sur Terre, leur permettant notamment d’évoluer vers des formes plus complexes.
(Photo : Des mitochondries dans une cellule.)
La seconde endosymbiose primaire connue s’est produite il y a 1,6 milliard d’années, lorsque des organismes unicellulaires ont absorbé des cyanobactéries capables de convertir la lumière en énergie (photosynthèse). Ces bactéries sont devenues les chloroplastes que les plantes chlorophylliennes utilisent encore à ce jour pour convertir la lumière du Soleil en énergie.
D’un autre côté, on pensait que seules les bactéries pouvaient extraire l’azote atmosphérique et le convertir en une forme utilisable (en ammoniac) pour le métabolisme cellulaire. Les plantes pouvant fixer l’azote (comme les légumineuses) effectuent ce processus en hébergeant ces bactéries au niveau de leurs nodules racinaires.
La découverte de l’équipe du Berkeley Lab bouleverse cette notion avec le premier organite capable de fixer de l’azote et intégré dans une cellule eucaryote (une algue marine). " Il est très rare que des organites résultent de ce genre de choses ( endosymbiose primaire ) ", explique Tyler Coale de l’Université de Californie à Santa Cruz, dans un communiqué du Berkeley Lab. " La première fois que cela s’est produit à notre connaissance, cela a donné naissance à toute vie complexe. Tout ce qui est plus compliqué qu’une cellule bactérienne doit son existence à cet événement ", a-t-il déclaré, en faisant référence aux origines des mitochondries. Le nouvel organite, décrit dans deux études publiées dans les revues Cell Press et Science, est baptisé " nitroplaste ".
Un organite à part entière
La découverte de l’organite a nécessité plusieurs décennies de travail. En 1998, les chercheurs ont identifié une courte séquence d’ADN qui semblait provenir d’une cyanobactérie fixatrice d’azote (UCYN-A) abondante dans le Pacifique. D’un autre côté, une autre équipe de l’Université de Kochi (au Japon) a identifié une algue marine (Braarudosphaera bigelowii) qui semblait être l’hôte symbiotique de la bactérie. En effet, l’ADN de cette dernière a été découvert en importante quantité dans les cellules de l’algue.
Alors que les chercheurs considéraient l’UCYN-A comme un simple endosymbiote de l’algue, les deux nouvelles études suggèrent qu’elle a co-évolué avec son hôte de sorte à devenir un organite à part entière. En effet, après plus de 300 expéditions, l’équipe japonaise est parvenue à isoler et cultiver l’algue en laboratoire. Cela a permis de montrer que le rapport de taille entre les UCYN-A et leurs algues hôtes est similaire d’une espèce à l’autre.
D’autre part, les chercheurs ont utilisé un modèle informatique pour analyser la croissance de la cellule hôte et de la bactérie par le biais des échanges de nutriments. Ils ont constaté que leurs métabolismes sont parfaitement synchronisés, ce qui leur permettrait de coordonner leur croissance. " C’est exactement ce qui se passe avec les organites ", explique Jonathan Zehr, de l’Université de Californie à Santa Cruz et coauteur des deux études. " Si vous regardez les mitochondries et le chloroplaste, c’est la même chose : ils évoluent avec la cellule ", ajoute-t-il.
Les experts ont également montré que la bactérie UCYN-A repose sur sa cellule hôte pour sa réplication protéique et sa multiplication. Pour ce faire, ils ont utilisé une technique d’imagerie à rayons X et une tomographie permettant d’observer les processus cellulaires en temps réel. " Nous avons montré grâce à l’imagerie à rayons X que le processus de réplication et de division de l’hôte algal et de l’endosymbiote est synchronisé ", indique Carolyn Larabell, du Berkeley Lab.
(Illustrations montrant les algues à différents stades de division cellulaire. UCYN-A, l’entité fixatrice d’azote désormais considérée comme un organite, est visible en cyan ; le noyau des algues est représenté en bleu, les mitochondries en vert et les chloroplastes en violet.)
Une quantification des protéines des deux organismes a aussi été réalisée. Il a été constaté qu’environ la moitié des protéines de l’UCYN-A est synthétisée par sa cellule hôte, qui les marque avec une séquence protéinique spécifique. Ce marquage permet ensuite à la cellule de les envoyer au nitroplaste, qui les importe et les utilise pour son propre métabolisme. " C’est l’une des caractéristiques de quelque chose qui passe d’un endosymbionte à un organite ", explique Zehr. " Ils commencent à éjecter des morceaux d’ADN, et leurs génomes deviennent de plus en plus petits, et ils commencent à dépendre de la cellule mère pour que ces produits génétiques soient transportés dans la cellule ".
Un potentiel pour une production d’azote plus durable
Les chercheurs estiment que les nitroplastes ont évolué il y a environ 100 millions d’années. Comme l’UCYN-A est présente dans presque tous les océans du monde, elle est probablement impliquée dans le cycle de l’azote atmosphérique. Cette découverte pourrait avoir d’importantes implications pour l’agriculture, le procédé industriel utilisé actuellement pour convertir l’azote atmosphérique en ammoniac (procédé Haber-Bosch) étant très énergivore. Ce dernier permet notamment d’assurer 50 % de la production alimentaire mondiale et est responsable d’environ 1,4 % des émissions carbone.
Toutefois, de nombreuses questions restent sans réponse concernant le nitroplaste et son hôte algal. En prochaine étape, les chercheurs prévoient ainsi de déterminer s’il est présent dans d’autres cellules ainsi que les effets que cela pourrait avoir. Cela pourrait permettre d’intégrer directement la fixation de l’azote dans les plantes de sorte à améliorer les récoltes.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano·19 avril 2024
[
symbiogénétique
]
dictature modèle
Mort de Navalny: entre hommage et répression sévère en Russie
(photo) Des Russes rendent hommage à Navalny, Moscou.keystone
Alexeï Navalny était sans doute le plus connu des opposants de Poutine. Les Russes se remettent de la mort de celui que certains considèrent comme un héros. Mais lui rendre hommage n'est pas évident dans ce pays à la répression sévère: même déposer des fleurs peut valoir la prison.
" Je veux au moins lui rendre un dernier hommage», dit une femme âgée enroulée dans une écharpe chamarrée près de la pierre de Solovki, samedi à Moscou. Un flot sans fin de personnes traverse le passage souterrain de la Loubianka. La police tente de diriger le flux – et de capturer chaque visage dans leurs vidéos. Femmes et hommes, jeunes et vieux, et même des familles entières viennent déposer leurs fleurs sur la montagne de bouquets près du bloc de pierre du monument.
Certains veulent s'arrêter un instant, peut-être pour rendre un hommage silencieux. " Jeune femme, continuez à avancer, ne vous arrêtez pas ", hurle un policier dans le mégaphone. " Dégagez le chemin ", crie un autre en indiquant à un couple âgé de quitter le périmètre.
Dans la nuit, les fleurs et les bougies sont enlevées, toujours sous la surveillance de la police. Des milliers de personnes – en larmes pour les unes, en silence pour les autres – ont déposé ces offrandes pour rendre hommage à Alexeï Navalny, mort en détention derrière le cercle polaire: leur idole. Cet homme de 47 ans s'est battu pour rendre possible la contestation dans un pays où exprimer une position contradictoire était devenu impossible – et il a payé cet affront de sa vie.
Mais les fleurs, elles, sont à nouveau là le lendemain. Des œillets et des roses fraîches, rouges, blanches, jaunes, accompagnées d'un ruban noir ou de petits messages. Des montagnes de fleurs sont érigées à Moscou et à Saint-Pétersbourg, à Novossibirsk et à Samara, à Tcheliabinsk et à Tomsk et à Oulan-Oudé.
(photo) Un homme qui a déposé des fleurs en l'honneur de Navalny est arrêté, comme 400 autres en l'espace de deux jours.
La police saisit parfois brutalement les supporters de Navalny avant de les jeter dans les fourgons stationnés au bord de la route. Selon l'organisation russe de défense des droits de l'homme OWD-Info, plus de 400 personnes auraient été arrêtées à travers la Russie alors qu'elles déposaient des fleurs durant le week-end. Certaines d'entre elles ont déjà reçu leur sentence: quinze jours de détention.
(photo) Des fleurs sur le monument du Goulag
Près de la pierre Solovki à Moscou, quelqu'un a écrit " n'ayez pas peur " au marqueur bleu sur une feuille de papier quadrillé posée à côté de la mer de fleurs. En face trône le bloc ocre-brun de la Loubianka, l'imposant siège des services secrets russes (FSB).
Autrefois, lorsque le service s'appelait encore Tchéka puis KGB, c'est ici que les bourreaux prononçaient les sentences qui expédieraient des millions de personnes au Goulag. Le monument Solovki et son lourd bloc de pierre rappellent ainsi les crimes du stalinisme.
Septante ans après la mort de Staline, rien n'a changé en Russie. La colonie pénitentiaire de Charp, dans laquelle Navalny est mort – du " syndrome de la mort subite ", comme l'ont annoncé avec le plus grand sérieux les agents pénitentiaires à sa mère et à son avocat – date de l'époque du Goulag.
Un soulèvement populaire reste trop dangereux
C'est Navalny qui a montré au peuple russe ce qu'est la politique. Il leur a fait sentir ce qui fait d'un homme un citoyen. Mais il a perdu ce combat contre un Etat qui joue au chat et à la souris – et qui continue ce jeu avec son cadavre.
Celui-ci serait, selon le journal russophone Novaïa Gazeta Europe, à l'hôpital régional de Salekhard. Un témoin affirme que le corps présentait des bleus qui pourraient être dus à des convulsions. Navalny serait apparemment mort d'un arrêt cardiaque, mais on ne sait pas pourquoi son cœur a cessé de battre.
En ligne aussi, les Russes expriment leurs pensées pour celui qui était la figure de proue de l'opposition russe. Sur son canal Telegram, un Moscovite estime:
" Un soulèvement populaire secouerait le Kremlin. Il faudrait au moins 100 000 personnes "
Mais est-ce que lui-même y participerait? " Non, c'est trop dangereux ". Ceux qui auraient eu le courage de résister se sont exilés par centaines de milliers. Des lois de plus en plus répressives ôtent à ceux qui sont restés dans le pays toute possibilité d'influer sur la politique. Il n'y a pas d'exutoire, pas de parti qui puisse être une alternative. Il n'y a pas d'opposition.
Les pseudo-opposants parlementaires acquiescent à tout, se courbent, et font au final partie de ce régime qui utilise tout son pouvoir pour faire taire les critiques. La persécution politique de Navalny a montré jusqu'où l'Etat russe était prêt à aller. Sa mort, qui n'est pas simplement un décès, mais bel et bien un assassinat politique, le montre également.
" On ne nous laisse même pas faire notre deuil en paix. Regarde, à Amsterdam, les gens peuvent se réunir et pleurer ensemble. Mais ici? Ce type nous chasse avec sa matraque. Et nous partons, bien sûr. "
Un homme âgé à sa voisine près de la pierre de Solovki à Moscou.
Deux amies plus jeunes, qui se sont arrêtées après avoir déposé des fleurs au musée d'à côté et regardent désormais le bloc de pierre au loin, concluent: " Résister ? Sans Navalny ? Qui va le faire ? Nous n'avons pas tous son courage. "
Est-ce que Ioulia Navalnaïa, son épouse, ou Daria Navalnaïa, sa fille, ont ce courage? Elles ont porté les idées d'Alexeï Navalny dans le monde, surtout après son empoisonnement et pendant sa détention, elles ont fait tout ce qu'elles pouvaient pour obtenir sa libération.
Ioulia Navalnaïa a évoqué la mort de son mari vendredi dernier lors de la conférence sur la sécurité à Munich.
L'apparition de Ioulia Navalnaïa à la conférence sur la sécurité de Munich, peu après l'annonce par les autorités russes de la mort de son mari, était à la fois oppressante et impressionnante. L'ancienne banquière se battra pour que sa mort soit élucidée, comme elle l'a toujours fait. D'autres devront assumer l'héritage politique de Navalny – s'ils parviennent à sortir de leur torpeur.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.watson.ch/ - Inna hartwich, moscou / ch media, 19.02.2024, Traduit et adapté de l'allemand par Léa Krejci
[
autocratie
]
[
pouvoir intransigeant
]
[
contradicteur exemplaire
]
femmes-hommes
Orgasmes masculin et féminins
L'orgasme féminin est la manifestation physique de l'extase qui emporte, du plaisir absolu, corps, coeur et tête à la fois. Cet orgasme "total" demande un concours de circonstances très favorables, différentes pour chaque femme, et se produit donc assez rarement. Quand la communion entre les partenaires est proche de la perfection ou quand la femme est en parfaite harmonie avec elle-même, on appelle ce moment magique "la petite mort" parce que la femme a atteint un tel degré d'excitation et de plaisir qu'elle a le sentiment d'arriver à un point de non-retour et a quasi l'impression qu'elle va mourir, ou perdre conscience. C'est pourquoi il faut que, avec le temps, la femme arrive à dominer la peur et à se laisser aller au seul plaisir. Cet orgasme est si intense qu'une femme n'en aura généralement qu'un et devra prendre le temps de "récupérer" si elle souhaite qu'un autre se produise. A un degré moindre, d'autres types d'orgasmes sont possibles qui sont aussi très satisfaisants et qui, eux, peuvent se suivre assez rapidement. Le corps est alors saisi d'une réaction due à un plaisir sexuel très fort. Ce plaisir peut venir du corps seulement ou de la tête seulement ou des deux à la fois. Cette réaction se propage dans l'ensemble du corps mais se ressent en particulier dans le ventre et dans le sexe.
Il faut aussi savoir que dans un rapport de couple, le besoin de la femme en orgasme est moins impérieux, moins fort. Il n'est donc pas nécessaire que pour qu'un rapport sexuel soit réussi, une femme ait absolument un orgasme. Beaucoup d'hommes cherchent ainsi, à tout prix, à déclencher celui de leur compagne, et beaucoup de femmes en font une exigence... c'est se fixer une performance : le résultat risque d'être décevant. Une femme peut ressentir une intense volupté, un énorme plaisir, même si son orgasme ne se déclenche pas.
L'orgasme féminin est compliqué : à la suite d'une stimulation - génitale ou autre - le cerveau envoie un message qui traverse la colonne vertébrale et provoque une série de contractions rythmiques de la région interne du premier tiers du vagin, de l'utérus et de la région anale mettant trois groupes musculaires en jeu. L'orgasme se produit au terme de la phase de plateau : quand l'excitation s'intensifie et que la tension sexuelle et musculaire augmente. Le premier tiers du vagin se gonfle et resserre l'ouverture, les deux tiers du fond du vagin s'arrondissent. Le clitoris se presse contre l'os du pubis, et les petites lèvres deviennent plus foncées et plus épaisses. Si rien ne vient perturber le processus physiologique (téléphone, bébé qui pleure...), l'orgasme peut alors se produire, ne durant souvent que quelques secondes : il peut y avoir de 2 à 3 contractions musculaires, distantes l'une de l'autre de moins d'une seconde.
Les différents types d'orgasme féminin : Clitoridien ou vaginal ?... Le clitoris et le vagin sont deux zones de stimulation capables de provoquer le plaisir orgasmique. L'orgasme clitoridien est plus aigu. Grâce à la masturbation, la femme peut y parvenir en quelques minutes. La stimulation du clitoris tend à produire des orgasmes plus intenses. La sensation éprouvée est très puissante. Cet orgasme met en jeu les muscles pelviens et abdominaux. L'orgasme vaginal est, selon Freud, l'orgasme "adulte et supérieur", (contrairement à l'orgasme clitoridien, "infantile et inférieur"). Comme les parois internes du vagin ont des terminaisons nerveuses, un tiers des femmes affirment qu'elles peuvent avoir un orgasme de cette façon. La stimulation du point G pourrait conduire à un orgasme profond. Des sensations de vagues de chaleur inondent alors tout le corps. Il semble en fait qu'il n'y ait pas d'orgasme en fait strictement clitoridien. Mais la stimulation vaginale à elle seule ne suffit pas non plus, pour la plupart des femmes, à produire un orgasme. Une femme n'est pas clitoridienne ou vaginale, mais les deux à la fois. Selon Masters et Johnson, il n'y a en fait qu'un type d'orgasme, provoqué par la stimulation du clitoris et se traduisant par des contractions du vagin. Pour d'autres, il faudrait un orgasme clitoridien préalable pour parvenir à un orgasme vaginal. C'est en fait la stimulation prolongée du clitoris qui finit par provoquer des contractions de la plate-forme vaginale. Ce réflexe clitoris vaginal provoque un orgasme superficiel. L'orgasme dit profond se traduit par des contractions utérines régulières, et procure un sentiment de détente. Les deux types d'orgasmes peuvent se produire de façon simultanée ou successivement.
Les orgasmes multiples : Si la stimulation et l'intérêt sexuel se prolongent par l'orgasme, certaines femmes (une sur dix) peuvent avoir une série d'orgasmes les uns à la suite des autres. Comme les femmes mettent plus de temps à atteindre l'orgasme, elles restent plus longtemps dans la phase de plateau, et peuvent replonger dedans. Contrairement à l'homme, elles ne connaissent pas de période réfractaire et peuvent donc prolonger le plaisir beaucoup plus longtemps. Elles peuvent ainsi avoir 5, 10, voire 20 orgasmes au cours d'un même rapport sexuel. Mais les orgasmes multiples ne sont pas pour autant liés à la satisfaction sexuelle. En avoir ne devrait pas être un but en soi : en fait, beaucoup de femmes trouvent même que la stimulation des parties génitales après l'orgasme n'est pas agréable, voire douloureuse.
En conclusion ce n'est pas la durée de la pénétration, forme trop simple de sexualité, qui permet à la femme de parvenir à l'orgasme. Elle est quasi jamais suffisante pour provoquer l'orgasme. Les femmes ont besoin d'un stimulation directe de leur clitoris, buccales, masturbatoires, certaines doivent même avoir une stimulation des seins. Ne pas parvenir à l'orgasme à chaque rapport sexuel n'est pas synonyme d'échec. 40 % des femmes qui ne parviennent pas à l'orgasme à chaque rapport se disent pourtant tout à fait satisfaites de leur sexualité. La satisfaction sexuelle d'une femme ne dépend pas du nombre de ses orgasmes. Les orgasmes multiples, et les orgasmes simultanés ne devraient pas être le but à atteindre. Le contrôle et la volonté d'être synchros empêchent au contraire de vous abandonner au plaisir. Les femmes peuvent avoir un orgasme sans éprouver de plaisir. Sachez aussi que l'orgasme rend la peau éclatante, améliore le tonus de tout le corps, et a aussi des effets positifs sur le plan cardiovasculaire. Un dernier scoop : L'orgasme aurait une fonction plus utilitaire que le simple plaisir. Une femme éprouverait le désir d'avoir un orgasme à chaque fois que son corps juge que cela peut optimiser ses chances de fécondation. Schopenhauer aurait parlé de ruse de l'espèce. La sexualité ne viserait qu'à transmettre notre capital génétique. D'ailleurs, les femmes qui ont un orgasme expulsent moins de spermatozoïdes dans la demi-heure qui suit l'insémination. Les spermatozoïdes sont ainsi plus nombreux à passer du vagin au canal cervical et à l'utérus.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
http://www.affection.org/sexualite/orgasme.html
[
mâles-femelles
]
[
vus-scientifiquement
]
multinationales
Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique ?
Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec "seulement" 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir.
Ces mastodontes de l’économie numérique représenteraient à eux seuls, près de 60% de nos usages numériques quotidiens. A l’heure où la France commence à prendre sérieusement conscience des enjeux de l’économie numérique, ces géants numériques ont une sacré longueur d’avance dans cette nouvelle révolution industrielle. Est-il trop tard ? Sans doute. Mais la France et l’Europe n’ont pas dit leur dernier mot.
- Qui sont vraiment ces GAFAM et NATU ? Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Cette dernière qui était censée prolonger numériquement l’économie traditionnelle commence en réalité en train de la vampiriser sérieusement. Ce qu’on a appelé l’ubérisation de l’économie en référence à la société américaine Uber qui détruit progressivement le modèle de fonctionnement des taxis pour s’approprier d’énormes parts de marché. Google est un peu la matrice du système car il touche à tout : il fournit gratuitement à chacun la boîte à outils pour naviguer dans les mondes numériques et se finance en revendant les précieuses données qu’il récolte. Apple vend une partie du matériel nécessaire pour évoluer dans ce monde numérique, mais également de la musique et des films dont il a révolutionné la distribution. Facebook est le réseau social mondial qui permet à chacun de suivre la vie et les activités des autres.
Notons qu’avec Google, Facebook est devenu une régie publicitaire mondiale qui permet de cibler de façon chirurgicale des publicités avec une audience potentielle qui se chiffre en milliard d’individus. Amazon est en passe de devenir le distributeur mondial de l’économie numérique, menaçant des géants comme Wall Mart aux Etats Unis et peut-être Carrefour ou Auchan demain. - Et les nouveaux venus ? Netflix ? Air BNB ? Telsa ? Uber ? Netflix est la plus grosse plateforme de diffusion de films et séries. Il est également producteur et en ligne va sans doute faire exploser le modèle de la télévision. Air BNB est en train d’appliquer la même punition au secteur hôtelier en permettant à chacun de louer une chambre ou une maison d’un simple clic. Ou presque. Tesla révolutionne l’énergie avec la production de voiture et de batteries électriques d’une nouvelle génération et possède aussi SpaceX, un lanceur de fusée. Quand à Uber, il révolutionne la mobilité avec les taxis. Mais pas que…
Cela sous-entend que ces acteurs ne se cantonnent pas à leur "coeur de métier" comme on dit ? Tout à fait. Ils sont si puissant financièrement qu’ils investissent dans de très nombreux domaines. N’oublions pas que Youtube qui diffuse 4 milliard de vidéos par jour appartient à Google et que Facebook en revendique près de 3 milliards chaque jour. Les audiences des plus grandes chaines de télé se comptent plutôt en millions. Amazon est connu pour être une librairie en ligne mais vend aujourd’hui presque tout sur sa plateforme, même de la micro main d’oeuvre avec sa plateforme Mechanical Turk. Google investit dans presque tout, de la médecine prédictive aux satellites, en passant par les lunettes connectées et les voitures (Google car). Et quand les chauffeurs taxis s’excitent sur Uber pop, on oublie qu’Uber s’occupe aussi de la location de voitures et de la livraison de colis. Selon le cabinet d’études FaberNovel, les Gafam se positionnent directement ou non sur les 7 industries clefs de la transformation numérique : les télécoms et l’IT, la santé, la distribution, les énergies, les média et le divertissement, la finance ainsi que le voyage et les loisirs.
Cette concentration de pouvoir technologique et financier n’est-elle pas un risque pour l’économie ? On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Ces géants disposent de nombreux atouts. Ils ont des réserves de cash gigantesques, ils ont une vision à 360 degrés de ce qui se passe aujourd’hui dans l’innovation, ils attirent les plus grands talents et se positionnent sur les nouveaux marchés issus de la transformation numérique comme l’internet des objets, la robotique, voitures, les drones…. Ils diversifient leurs activités et deviennent des prédateurs redoutables de l’économie traditionnelle.
Quelques chiffres donnent le vertige. Google contrôle 90 % de la recherche dans le monde. Apple 45 % du trafic Web issu des smartphones. Facebook 75 % des pages vues sur les réseaux sociaux aux Etats-Unis. Et si demain une pépite émerge, il est presqu’assuré que cette dernière tombera dans l’escarcelle d’un de ces géants. - Que peuvent faire les autres pays ? Il y a toujours 2 types d’attitudes devant un tel défi. Attaquer ou défendre. Ou les deux. Et sur plusieurs terrains. L’innovation et la recherche bien sûr, en essayant d’inventer non seulement des concurrents à ces mastodontes, mais aussi en explorant d’autres domaines prometteurs. L’Europe pré-technocratique avait réussi à faire des Airbus et des fusées Ariane. Elle hébergent encore de grands leaders industriels de la santé, du commerce et de la distribution. Mais ses modèles datent du 20ème siècle et clairement, le virage du numérique n’a pas été pris à temps. Inventeur du Minitel dans les années 80, la France aurait pu prendre une avance stratégique dans ce domaine mais cela aurait sans doute du se jouer au niveau européen.
Contrairement à la Chine (avec Baidu et Alibaba) ou à la Russie (Yandex, Rutube), l’Europe n’a malheureusement rien lancé de significatif dans ce domaine. - Justement n’est-ce pas au niveau continental que des leviers existent ? Certainement. S’il est difficile de mettre en place des consortium numériques à l’échelle européenne, par exemple pour concurrencer les GAFAM dans leurs fonctions stratégiques, des leviers législatifs, juridiques et fiscaux sont en revanche déjà utilisés pour attaquer les géants américains qui sont rarement respectueux des règles locales. Amazon, qui concentrait ses revenus au Luxembourg va devoir payer des impôts dans chaque pays dans lequel il évolue. Google a été condamné pour avoir favorisé ses propres services de shopping a du se plier aux exigences de la CNIL française pour mettre en place un droit à l’oubli. Mais cela sonne comme des gouttes d’eau dans l’océan et surtout cela concerne essentiellement des mesures défensives, comme si la bataille était déjà perdue. Internet,
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
http://www.econum.fr/gafa, 20 septembre 2015
[
transnationales
]
[
puissance
]
[
domination
]
[
pouvoirs comprador
]
analyse holistique
Un type de raisonnement que l'AI ne peut remplacer
L'ingénieur en logiciel et philosophe William J. Littlefield II fait remarquer dans un essai récent qu'il existe trois types de raisonnement. Dont deux d'entre eux que nous avons probablement tous appris à l'école : le raisonnement déductif et inductif. Les ordinateurs peuvent très bien faire les deux.
Le raisonnement déductif : Les chiens sont des chiens. Tuffy est un chien. Tuffy est donc un chien.
Les premiers ordinateurs, dit Littlefield, utilisaient généralement le raisonnement déductif (qu'il considère comme un raisonnement "descendant"). Ce qui permet à de puissants ordinateurs de battre les humains à des jeux comme les échecs et le Go en calculant beaucoup plus de mouvements logiques à la fois qu'un humain ne peut le faire.
Le raisonnement inductif, en revanche, est un raisonnement "ascendant", qui va d'une série de faits pertinents à une conclusion, par exemple :
Un club a organisé 60 compétitions de natation, 20 dans chaque lieu ci-dessous :
Lorsque le Club organise des compétitions de natation à Sandy Point, nous obtenons en moyenne 80 % de votes d'approbation.
Lorsque le Club organise des compétitions de natation à Stony Point, nous obtenons en moyenne 60 % des suffrages.
Lorsque le Club organise des compétitions de natation à Rocky Point, nous obtenons une approbation moyenne de 40 %.
Conclusion : Les membres du club préfèrent les plages de sable fin aux autres types de plages.
Ici aussi l'avènement de nouvelles méthodes comme les réseaux neuronaux a permis à de puissants ordinateurs d'assembler une grande quantité d'information afin de permettre un tel raisonnement inductif (Big Data).
Cependant, le Flop IBM de Watson en médecine (supposée aider à soigner le cancer on vit l'AI incapable de discerner les infos pertinentes dans une grande masse de données) suggère que dans les situations où - contrairement aux échecs - il n'y a pas vraiment de "règles", les machines ont beaucoup de difficulté à décider quelles données choisir. Peut-être qu'un jour une encore plus grande masse de données résoudra ce problème. Nous verrons bien.
Mais, selon Littlefield, le troisième type de raisonnement, le raisonnement abductif, fonctionne un peu différemment :
"Contrairement à l'induction ou à la déduction, où nous commençons par des cas pour tirer des conclusions sur une règle, ou vice versa, avec l'abduction, nous générons une hypothèse pour expliquer la relation entre une situation et une règle. De façon plus concise, dans le raisonnement abductif, nous faisons une supposition éclairée." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"
Le raisonnement abductif, décrit à l'origine par un philosophe américain Charles Sanders Peirce (1839-1914), est parfois appelé "inférence vers la meilleure explication", comme dans l'exemple qui suit :
"Un matin, vous entrez dans la cuisine et trouvez une assiette et une tasse sur la table, avec de la chapelure et une noix de beurre dessus, le tout accompagné d'un pot de confiture, un paquet de sucre et un carton vide de lait. Vous en concluez que l'un de vos colocataires s'est levé la nuit pour se préparer une collation de minuit et qu'il était trop fatigué pour débarrasser la table. C'est ce qui, à votre avis, explique le mieux la scène à laquelle vous êtes confronté. Certes, il se peut que quelqu'un ait cambriolé la maison et ait pris le temps de manger un morceau pendant sur le tas, ou qu'un colocataire ait arrangé les choses sur la table sans prendre de collation de minuit, mais juste pour vous faire croire que quelqu'un a pris une collation de minuit. Mais ces hypothèses vous semblent présenter des explications beaucoup plus fantaisistes des données que celle à laquelle vous faites référence." Igor Douven, "Abduction" à l'Encyclopédie Stanford de Philosophie
Notez que la conclusion n'est pas une déduction stricte qu'il n'y a pas non plus suffisamment de preuves pour une induction. Nous choisissons simplement l'explication la plus simple qui tient compte de tous les faits, en gardant à l'esprit la possibilité que de nouvelles preuves nous obligent à reconsidérer notre opinion.
Pourquoi les ordinateurs ne peuvent-ils pas faire ça ? Littlefield dit qu'ils resteraient coincés dans une boucle sans fin :
Une part de ce qui rend l'enlèvement difficile, c'est que nous devons déduire certaines hypothèses probables à partir d'un ensemble vraiment infini d'explications....
"La raison pour laquelle c'est important, c'est que lorsque nous sommes confrontés à des problèmes complexes, une partie de la façon dont nous les résolvons consiste à bricoler. Nous jouons en essayant plusieurs approches, en gardant notre propre système de valeurs fluide pendant que nous cherchons des solutions potentielles. Plus précisément, nous générons des hypothèses. Où 'un ordinateur peut être coincé dans une boucle sans fin, itérant sur des explications infinies, nous utilisons nos systèmes de valeurs pour déduire rapidement quelles explications sont à la fois valables et probables. Peirce savait que le raisonnement abductif était au cœur de la façon dont nous nous attaquons à de nouveaux problèmes ; il pensait en particulier que c'était la façon dont les scientifiques découvrent les choses. Ils observent des phénomènes inattendus et génèrent des hypothèses qui expliquent pourquoi ils se produisent." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"
En d'autres termes, le raisonnement abductif n'est pas à proprement parler une forme de calcul, mais plutôt une supposition éclairée - une évaluation des probabilités fondée sur l'expérience. Il joue un rôle important dans la création d'hypothèses dans les sciences :
"Par exemple, un élève peut avoir remarqué que le pain semble se moisir plus rapidement dans la boîte à pain que dans le réfrigérateur. Le raisonnement abductif amène le jeune chercheur à supposer que la température détermine le taux de croissance des moisissures, comme l'hypothèse qui correspondrait le mieux aux données probantes, si elle est vraie.
Ce processus de raisonnement abductif est vrai qu'il s'agisse d'une expérience scolaire ou d'une thèse de troisième cycle sur l'astrophysique avancée. La pensée abductive permet aux chercheurs de maximiser leur temps et leurs ressources en se concentrant sur une ligne d'expérimentation réaliste.
L'enlèvement est considéré comme le point de départ du processus de recherche, donnant une explication rationnelle, permettant au raisonnement déductif de dicter le plan expérimental exact." Maryn Shuttleworth, "Abductive Reasining" Chez Explorable.com
Comme on peut le voir, le raisonnement abductif fait appel à une certaine créativité parce que l'hypothèse suggérée doit être développée comme une idée et non seulement additionnée à partir d'informations existantes. Et la créativité n'est pas quelque chose que les ordinateurs font vraiment.
C'est l'une des raisons invoquées par le philosophe Jay Richards dans The Human Advantage : L'avenir du travail américain à l'ère des machines intelligentes, comme quoi l'IA ne mettra pas la plupart des humains au chômage. Au contraire, elle changera la nature des emplois, généralement en récompensant la créativité, la flexibilité et une variété d'autres caractéristiques qui ne peuvent être calculées ou automatisées.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://mindmatters.ai/2019/10/a-type-of-reasoning-ai-cant-replace/, 10 Oct. 2019
[
optimisme
]
[
informatique
]