Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Nuage de corrélats : pour l'activer, cochez seulement catégorie et tag dans la recherche avancée à gauche.
Résultat(s): 97421
Temps de recherche: 0.1079s

plaisanteries salaces

Depuis longtemps, les yeux d’Irena étaient vides de désir mais, par la force de l’habitude, restaient toujours grands ouverts sur Gustaf et le mettaient dans l’embarras. Pour brouiller les pistes et masquer son repli érotique, il se complaisait dans des anecdotes aimablement grivoises, dans des allusions plaisamment équivoques, prononcées à voix haute et en riant. La mère était son meilleur allié, toujours prête à le seconder par des drôleries graveleuses qu’elle proférait d’une façon outrée, parodique, dans son anglais puéril. En les écoutant, Irena avait l’impression que l’érotisme s’était transformé à jamais en une pitrerie d’enfants.

Auteur: Kundera Milan

Info: L'ignorance, éditions Gallimard, 2023, page 114

[ spectacle bouffon ] [ désérotisation ] [ tue l'amour ] [ dissimulation ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

parole

Une conversation continue berce les couples, son courant mélodieux jette un voile sur les désirs déclinants du corps. Quand la conversation s'interrompt, l'absence d'amour physique surgit tel un spectre.

Auteur: Kundera Milan

Info: L'ignorance, éditions Gallimard, 2023, page 113

[ discussion ] [ hommes-femmes ] [ palliatif ] [ silence ] [ tandem ]

 
Commentaires: 1
Ajouté à la BD par Coli Masson

écriture

Rien de mieux que lorsqu'un truc nous frappe et qu'on se dit " OUI, c'est ça ".

En 1990, alors que je rentrais seule vers Londres et que je regardais par la fenêtre du train, j'eus l'idée de toute la série Harry Pottercomme par magie.

J'écrivais presque sans interruption depuis l'âge de six ans, mais je n'avais jamais été aussi enthousiaste. À ma grande frustration, je n'avais pas de stylo en état de marche, et j'étais trop timide pour en demander un… Pas de quoi écrire avec moi, et je pense que c'était sans doute une bonne chose. Je suis restée assise à réfléchir durant quatre heures (train retardé), tandis que tous les détails bouillonnaient dans mon esprit, et que ce garçon maigre, aux cheveux noirs et à lunettes, qui ignorait être un sorcier, devenait de plus en plus réel à mes yeux. Peut-être que si j'avais ralenti le rythme de mes idées pour les coucher sur le papier, j'en aurais étouffé certaines (même si je me demande parfois, distraitement, combien de ce que j'avais imaginé pendant ce voyage été oublié). J'ai commencé à écrire L'École des Sorciers le soir même…

Auteur: Rowling Joanne K.

Info:

[ épiphanie ] [ déclic ] [ entame ] [ genèse ]

 
Commentaires: 2
Ajouté à la BD par miguel

mathématicienne

Positionnement de Maryam Mirzakhani comme " pur esprit " dans l'espace Gaïa-anthropique

Définition préalable : Le " pur esprit " désigne une personne dont l'activité intellectuelle transcende les contingences matérielles, focalisée sur des abstractions structurantes. Cette notion s'applique idéalement à Mirzakhani, dont les travaux mathématiques purs explorent des architectures géométriques universelles.

1. Dans le cadre de l'hypothèse Gaïa – où la Terre est envisagée comme un système autorégulé intégrant biosphère et processus géochimiques –, Mirzakhani incarnerait une méta-couverture cognitive :

- Architecte des formes cachées : Ses travaux sur les espaces de modules (classifiant les déformations des surfaces de Riemann) fournissent un langage mathématique pour décrire les patterns sous-jacents aux interactions biosphère-géosphère. Ces structures abstraites pourraient modéliser les boucles de rétroaction du système Terre, analogues aux géodésiques qu'elle étudiait.

- Stabilisatrice symbolique : Son théorème avec Eskin sur la régularité des trajectoires dynamiques (" baguette magique ") offrirait une métaphore des mécanismes homéostatiques de Gaïa, où des comportements apparemment chaotiques convergent vers des états d'équilibre.

2. En tant qu'interface avec la culture anthropique Mirzakhani opérerait comme pont entre abstraction et incarnation :

Aspect Gaïen                            Corrélat mirzakhanien

Boucles de rétroaction               Dynamique des espaces de Teichmüller

Émergence de complexité         Croissance polynomiale des volumes

Résilience systémique               Ergodicité des flots géométriques

Son approche, détachée des applications immédiates (pur esprit), révèle pourtant des schémas universels structurant tant les surfaces mathématiques que les écosystèmes. Elle personnifierait ainsi la couche noosphérique de Vernadsky – sphère de la pensée consciente –, où l'intelligence humaine participe à la compréhension des lois autorégulatrices de Gaïa.

3. Limites et paradoxes

- Décalage épistémologique : Si Gaïa postule une imbrication matérielle du vivant et de son milieu, le " pur esprit " mirzakhanien évolue dans des espaces conceptuels désincarnés.

- Résolution : Ce paradoxe s'estompe si l'on considère ses travaux comme méta-langage permettant de formaliser les interactions Gaïennes, à l'image des modèles Daisyworld lovelockiens, mais à un niveau d'abstraction supérieur.

En synthèse, Maryam Mirzakhani occuperait une position transversale dans l'espace Gaïa-anthropique : à la fois observatrice des structures profondes et participante indirecte à leur révélation, par l'élaboration d'un cadre mathématique unifiant complexité biologique et ordre géométrique.



 



 

Auteur: perplexity.ai

Info: 12 juin 2025. En réponse à la question : si tu devais considérer Maryam comme un "pur esprit" où la situerais-tu dans l'espace Gaïa-anthropique, et avec quel rôle ?

[ portrait ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Plus vaste est le temps que nous avons laissé derrière nous, plus irrésistible est la voix qui nous invite au retour. C’est tendance a l’air d’une évidence, et pourtant elle est fausse. L’homme vieillit, la fin approche, chaque moment devient de plus en plus cher et Il n’y a plus de temps à perdre avec des souvenirs. Il faut comprendre le paradoxe mathématique de la nostalgie : elle est le plus puissante dans la première jeunesse quand le volume de la vie passée tout à fait insignifiant.

Auteur: Kundera Milan

Info: L'ignorance, éditions Gallimard, 2023, page 90

[ vieillissement ] [ intensité ] [ extrémités ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

vieillissement

Ils se serrent la main et se regardent. Ce sont des regards d’immense intensité et ils savent bien de quoi il s’agit : ils enregistrent, rapidement, discrètement, le frère sur le frère, leurs cheveux, leurs rides, leurs dents ; chacun sait ce qu’il recherche dans le visage d’en face et chacun sait que l’autre recherche la même chose dans le sien. Ils en ont honte, car ce qu’ils recherchent, c’est la distance probable qui sépare l’autre de la mort ou bien, pour le dire plus brutalement, ils recherchent dans l’autre la mort qui transparaît. Ils veulent terminer au plus vite cette scrutation morbide et se hâtent de trouver une phrase qui leur ferait oublier ces quelques secondes funestes, une apostrophe, une question, une blague…

Auteur: Kundera Milan

Info: L'ignorance, éditions Gallimard, 2023, pages 67-68

[ frère-sur-frère ] [ retrouvailles ] [ gêne ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

étymologie

Le retour, en grec, se dit nostos. Algos signifie souffrance. La nostalgie est donc la souffrance causée par le désir inassouvi de retourner. […] En espagnol, añoranza vient du verbe añorar (avoir de la nostalgie) qui vient du catalan enyorar, dérivé, lui du mot latin ignorare (ignorer). Sous cet éclairage étymologique, la nostalgie apparaît comme la souffrance de l’ignorance. Tu es loin, et je ne sais pas ce que tu deviens. Mon pays est loin, et je ne sais pas ce qui s’y passe.

Auteur: Kundera Milan

Info: L'ignorance, éditions Gallimard, 2023, pages 10-11

[ signification ] [ état d'âme ] [ spleen ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

homme-machine

" L’IA ne se heurte pas à un mur. Mais les LLMs si " : Gary Marcus à propos de la dernière recherche d’Apple

Les capacités de raisonnement des modèles actuels peuvent s’effondrer complètement au-delà d’un certain niveau de difficulté. Ces modèles semblent " abandonner " l’effort de raisonnement quand la tâche devient trop dure — même s’ils disposent des ressources nécessaires.

- Un article publié ce week-end par Apple parle d'une quantification des capacités de raisonnement des LLMs qui semblent s’effondrer au-delà d’un certain niveau de complexité des tâchesPlusieurs observateurs parlent d’un coup dur, un mur de complexité auquel se heurte la génération actuelle des grands modèles de langage (LLMs). Qu’en pensez-vous ?

(GM) - Il ne s’agit pas d’un simple coup dur, mais d’une mise au tapis, d’autant que cet article n’est pas un coup isolé. Il fait suite à une autre recherche publiée l’année dernière par plusieurs des mêmes auteurs qui montrait déjà qu’il est impossible de construire des agents fiables sans raisonnement formel et abstrait suffisamment développé.

- Pourriez-vous résumer brièvement l’argument de l’article ?

(GM) - Apple a testé les capacités de " raisonnement " des intelligences artificielles actuelles, telles que ChatGPT, Claude ou DeepSeek. Si tous ces modèles semblent intelligents au premier abord, ils échouent totalement dès que la complexité augmente. La force globale de l’argumentation est indéniable — même s’il y a une faiblesse intéressante dans le nouvel argumentaire, la conclusion est sans appel. 

Aucun des modèles fondés sur des LLMs ne fait preuve d’un raisonnement véritable. Il ne s’agit que de systèmes extrêmement coûteux de reconnaissance de motifs qui s’effondrent dès qu’on les confronte à des situations en dehors de leur zone d’entraînement.

- S’agit-il d’une impasse structurelle des LLMs pour certaines applications ?

(GM) - En effet, toutes les recherches sérieuses montrent désormais que les grands modèles de langage ne raisonnent pas de la même manière que les humains. Ils peuvent " réfléchir davantage " — mais seulement jusqu’à un certain point. 

Au-delà d’un certain seuil, ils abandonnent rapidement, même s’ils disposent encore de ressources de calcul en quantité plus que suffisante.

Même lorsqu’on leur fournit l’algorithme exact à suivre — les règles pour résoudre une tâche complexe —, ces modèles ont tendance à très mal l’exécuter. Cela met en lumière une distinction essentielle : exécuter ne signifie pas comprendre. 

Le problème ne réside pas dans un manque de créativité, mais dans une défaillance logique fondamentale. Les modèles ont tendance à " trop réfléchir " à des problèmes simples et à tester de mauvaises réponses même après avoir trouvé la bonne. Et face à des problèmes plus difficiles, ils réfléchissent moins. Il en résulte un gaspillage de ressources de calcul d’un côté et un abandon prématuré de l’autre.

- Comment cette nouvelle étude — qui prolonge l’analyse critique du paradigme actuel que nous publions déjà en 2023 dans nos pages — s’inscrit-elle, selon vous, dans le débat sur la capacité des LLMs à généraliser à des situations radicalement nouvelles ?

(GM) -  D’une part, cette recherche fait écho et amplifie l’argument sur la distribution d’entraînement que je développe depuis 1998 : les réseaux neuronaux, sous diverses formes, peuvent généraliser à l’intérieur de la distribution de données sur laquelle ils ont été entraînés, mais leurs généralisations ont tendance à s’effondrer en dehors de cette distribution. 

C’était le cœur d’un article que j’avais publié en 1998, dans lequel je critiquais les perceptrons multicouches (multilayer perceptrons) — les ancêtres des modèles de langage actuels — en montrant leurs échecs hors distribution sur des tâches simples de calcul et de prédiction de phrases.

Ce fut également l’axe central de mon premier livre, The Algebraic Mind (2001), qui élargissait cette critique, ainsi que de mon premier article dans Science (1999), où j’ai démontré, à travers une expérience, que des nourrissons de sept mois pouvaient extrapoler d’une manière que les réseaux neuronaux de l’époque étaient incapables de répliquer. C’était aussi la motivation principale de Deep Learning : Critical Appraisal (2018), puis de Deep Learning is Hitting a Wall (2022). J’ai identifié cette limite l’an dernier encore comme la faiblesse la plus importante — et la plus importante à comprendre — des LLMs. 

Cela fait donc un certain temps que je travaille sur ce sujet…

- L’article s’appuie également sur le travail de Subbarao Kambhampati, chercheur en informatique de l’Arizona State University.

(GM) - Oui, et je veux le souligner. Cette recherche ne fait pas simplement écho aux arguments que Rao développe depuis plusieurs années, mais les renforce.

Il s’agit des critiques sur les modèles dits de " raisonnement " et les fameuses "  chaînes de pensée " (CoT) qu’ils produisent qui semblent bien moins solides qu’on ne le prétend.

Pour ceux qui ne sont pas familiers du concept, une " chaîne de pensée " est, grossièrement, ce que le système prétend avoir " raisonné " pour arriver à une réponse, dans les cas où il effectue plusieurs étapes de réflexion. Les " modèles de raisonnement " désignent quant à eux la nouvelle génération de tentatives pour contourner les limites structurelles des LLMs, en les forçant à " raisonner " dans le temps, via une technique appelée inference-time compute (calcul au moment de l’inférence). 

Rao n’a jamais été convaincu par cet argument. 

Il a écrit une série d’articles brillants montrant, entre autres, que les chaînes de pensée générées par les LLMs ne correspondent pas toujours à ce que ces modèles font réellement. Récemment, par exemple, il a observé que nous avons tendance à sur-anthropomorphiser les traces de raisonnement des LLMs, en parlant de " pensée " là où ce terme ne paraît pas adéquat.

Un autre de ses articles récents montre que même lorsque les chaînes de raisonnement semblent correctes, les réponses finales, elles, ne le sont pas forcément.

Rao a d’ailleurs sans doute été le premier à démontrer que l’un de ces " modèles de raisonnement " — en l’occurrence o1 — souffrait du genre de problème que le rapport d’Apple documente aujourd’hui. Je conseille à tout le monde de lire son travail.

- Le papier d’Apple reprend la critique de Rao et la vôtre en se concentrant notamment sur un problème classique assez simple : la tour de Hanoï. De quoi s’agit-il ?

(GM) -  Il s’agit d’un jeu classique composé de trois tiges et de plusieurs disques de tailles différentes. L’objectif est de déplacer tous les disques de la tige de gauche vers celle de droite, en respectant une règle essentielle : il est interdit de placer un disque plus grand sur un disque plus petit.

Si vous ne connaissez pas encore ce jeu, il faut un tout petit moment pour comprendre son fonctionnement.

Avec un peu de pratique, un enfant de sept ans intelligent et patient peut y arriver — et pour un ordinateur, c’est un exercice qui ne présente aucune difficulté. N’importe quel étudiant en première année d’informatique devrait être capable de réaliser un programme qui pourrait systématiquement résoudre le jeu.

Or les modèles les plus récents comme Claude peinent déjà à résoudre le problème avec 7 disques — atteignant moins de 80 % de précision — et sont pratiquement incapables de réussir avec 8 disques.

Apple a constaté que même le très apprécié o3-min (high) ne faisait pas mieux et a observé des résultats similaires sur plusieurs autres tâches.

Il est véritablement embarrassant que les LLMs ne parviennent toujours pas à résoudre de façon fiable un problème aussi trivial que la tour de Hanoï. Et ce, alors qu’il existe de nombreuses bibliothèques de code source disponibles gratuitement sur le web !

- Qu’est-ce que cela dit de l’intelligence des LLMs ?

(GM) -  Si l’on ne peut pas utiliser un système d’IA à plusieurs milliards de dollars pour résoudre un problème que Herbert Simon — l’un des véritables " pères fondateurs " de l’IA — a résolu dès 1957 et que des étudiants de première année en intelligence artificielle résolvent sans problème alors la probabilité que des modèles comme Claude ou o3 atteignent un jour l’intelligence artificielle générale (AGI) paraît — au mieux — très éloignée.

L’un des coauteurs de la recherche, Iman Mirzadeh, a attiré mon attention sur la section 4.4 de l’article

Les chercheurs avaient fourni l’algorithme de solution au modèle qui n’avait plus qu’à suivre les étapes pour résoudre le problème. Or même dans ce contexte, ses performances ne s’étaient pas améliorées. Il a commenté ce paradoxe ainsi : " Notre argument n’est donc pas : ‘Les humains n’ont pas de limites, mais les modèles de raisonnement linguistique (LRMs) en ont, donc ils ne sont pas intelligents’. Mais plutôt : ‘ce que l’on observe de leur raisonnement ne ressemble ni à un processus logique, ni à une forme d’intelligence’ ".

- Vous dites avoir remarqué un point critique dans l’article, lequel ?

(GM) - Il s’agit d’une faiblesse qui a été bien exposée par un compte anonyme sur X — ce qui, en général, n’est pas une source réputée pour ses bons arguments… 

Elle est la suivante : les humains ordinaires présentent eux aussi un certain nombre de limites, qui ressemblent à celles mises en évidence par l’équipe d’Apple pour les LLMs. Beaucoup de personnes — pas toutes — se trompent en essayant de résoudre des versions de la tour de Hanoï avec 8 disques.

Mais justement, nous avons une réponse à cette faille. Nous avons inventé les ordinateurs — et avant les calculatrices — précisément pour résoudre de manière fiable des problèmes complexes, fastidieux ou de plus ou moins grande ampleur, comme la Tour de Hanoi.

L’objectif de l’AGI ne devrait pas être de répliquer parfaitement l’humain, mais — comme je l’ai souvent moi-même dit — de combiner le meilleur des deux mondes : l’adaptabilité humaine avec la force brute et la fiabilité computationnelle.

- Vous pensez qu’avec les LLMs, on risque de combiner le pire des deux mondes ?

(GM) - La vision que j’ai toujours eue de l’AGI est celle d’un système qui allie les forces humaines et celles de la machine, tout en dépassant les faiblesses humaines. Une AGI incapable de faire une addition correcte ne m’intéresse pas. Et je ne voudrais certainement pas confier l’infrastructure mondiale ou l’avenir de l’humanité à un tel système.

Nous ne voulons pas d’une AGI qui oublie de retenir une unité dans une addition élémentaire sous prétexte que les humains font parfois la même erreur — bonne chance dans ce cas pour obtenir un véritable " alignement " ou " sécurité " sans fiabilité !

Au passage, les modèles comme o3 commettent bien plus souvent des erreurs dues à l’hallucination et peinent lourdement à dessiner des schémas fiables. Ils partagent certaines faiblesses humaines, mais ils sont simplement moins bons sur plusieurs aspects. Et si les humains échouent, c’est souvent par manque de mémoire ; les LLMs, eux, disposent de gigaoctets de mémoire, ils n’ont donc aucune excuse.

- L’enthousiasme autour des LLMs vous semble-t-il détourner l’IA de son véritable potentiel scientifique — celui, notamment, d’une alliance entre raisonnement causal et puissance de calcul ?

(GM) - Ce qui est évident c’est que nous n’allons pas " extraire le cône de lumière " de la Terre ou " résoudre la physique " quoi que puissent signifier ces déclarations prétentieuses de Sam Altman avec des systèmes incapables de jouer à la Tour de Hanoï avec 8 disques.

Quand on me demande pourquoi — contrairement à ce qu’on dit — j’aime l’IA, et pourquoi je pense que l’IA — mais pas l’IA générative — pourrait, à terme, bénéficier profondément à l’humanité, je cite toujours le potentiel de progrès scientifiques et technologiques que nous pourrions accomplir si l’on parvenait à combiner les capacités de raisonnement causal de nos meilleurs scientifiques avec la puissance de calcul brut des ordinateurs numériques modernes.

Quelles seront les conséquences de cette progressive prise de conscience des limites de l’actuelle génération de modèles ?

(GM) - Ce que montre le papier d’Apple, de manière fondamentale — quelle que soit la façon dont on définit l’AGI —, c’est que les LLMs ne sont pas un substitut aux bons algorithmes conventionnels bien spécifiés.

Les LLMs ne savent pas jouer aux échecs aussi bien que les algorithmes classiques, ne peuvent pas replier des protéines aussi efficacement que certains hybrides neurosymboliques spécialisés, ne gèrent pas les bases de données aussi bien que les moteurs conçus pour cela… Dans le meilleur des cas — qui n’est pas toujours atteint —, ils peuvent écrire du code Python, en s’appuyant sur des blocs de code symboliques externes pour compenser leurs propres faiblesses — mais même cela n’est pas fiable.

La principale conséquence pour les entreprises et la société que je vois est la suivante : on ne peut pas simplement " brancher " o3 ou Claude sur un problème complexe et s’attendre à ce que cela fonctionne de manière robuste.

- Ne cherche-t-on pas à se rassurer ?  L’usage des LLMs n’a jamais été aussi grand. Plus de personnes utilisent désormais ChatGPT que Wikipedia

(GM) - Comme le montre le dernier article d’Apple, les LLMs peuvent très bien réussir sur un jeu de tests simple — comme la Tour de Hanoï à 4 disques —, et vous donner l’illusion d’avoir appris une solution généralisable, alors que ce n’est pas du tout le cas.

Au moins pour la prochaine décennie, les LLMs — avec ou sans " raisonnement " au moment de l’inférence — continueront d’être utiles, notamment pour le code, le brainstorming et la rédaction de textes. Et comme, me le disait récemment Rao : " Le fait que les LLMs/LRMs n’apprennent pas de manière fiable un seul algorithme sous-jacent n’est pas un obstacle absolu à leur utilisation. Je vois les LRMs comme des systèmes qui apprennent à approximer le déroulement d’un algorithme en allongeant progressivement le raisonnement à l’inférence. " Dans certains contextes, cela suffit. Dans d’autres, non.

Mais toute personne qui pense que les LLMs représentent un chemin direct vers une AGI capable de transformer radicalement la société pour le bien commun se berce d’illusions.

- Cela ne signifie pas que les réseaux neuronaux sont morts, ni que le deep learning est arrivé à sa fin.

(GM) -Les LLMs ne sont qu’une forme possible de deep learning, et peut-être que d’autres — en particulier ceux qui collaborent mieux avec des représentations symboliques — s’en sortiront mieux à l’avenir. Le temps le dira.

Mais cette approche actuelle a des limites qui deviennent chaque jour plus évidentes.

L’IA ne se heurte pas à un mur. 

Mais les LLMs, probablement si — ou du moins ils atteignent un point de rendements décroissants. 

Nous avons besoin de nouvelles approches, et de diversifier les voies qui sont explorées activement.

 



 

Auteur: Internet

Info: https://legrandcontinent.eu/, 10 juin 2025, Gary Marcus interviewé par Victor Storchan

[ spécialisation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

émergence

"[…] Méfiez-vous du registre de la pensée qui s’appelle évolutionniste. |

[...] Ce que j’essaie pour l’instant d’articuler devant vous, c’est quelque chose qui vous montre la nécessité d’un point de création ex nihilo pour, qu’en sorte, en naisse, ce qui dans la pulsion est à proprement parler historique. " Au commencement était le Verbe "

Ce qui veut dire : le signifiant. Sans le signifiant, au commencement, il est impossible d’articuler la pulsion comme historique, et c’est ceci qui suffit à introduire la dimension de l’ex nihilo dans la structure du champ analytique comme tel.

La seconde raison pourra vous paraître paradoxale, mais c’est pourtant une raison qui - en tout cas à mes yeux, dans le registre de ce que j’ai déployé devant vous - est essentielle, c’est que la perspective créationniste comme telle est la seule qui permette d’entrevoir comme possible, pour une pensée qui se déroule, qui se développe, l’élimination radicale de Dieu comme tel. Paradoxalement c’est dans la perspective créationniste - et c’est la seule - que peut s’envisager l’élimination toujours renaissante de l’intention créatrice comme supportée par une personne.

Elle est concevable - pour autant que dans le domaine du commencement absolu désigné comme celui qui marque la distinction, l’origination de la chaîne signifiante comme un ordre distinct - elle est concevable dans la pensée évolutionniste, simplement Dieu - pour n’être nommable nulle part - est littéralement omniprésent. Une évolution qui s’oblige elle-même à déduire le mouvement ascendant qui va arriver jusqu’au sommet de la conscience et de la pensée, d’un processus continu, et implique forcément que cette conscience et cette pensée étaient à l’origine. C’est seulement dans une perspective qui comporte la distinction du mémorable et du mémorisé comme tels, comme étant une dimension qui doive être distinguée, c’est seulement dans celle-là que nous ne nous trouvons pas faire perpétuellement cette implication de " l’être dans l’étant ", qui est au fond de la pensée évolutionniste.

En d’autres termes, ce que je suis en train de vous dire, ça n’est pas qu’il est impossible de faire sortir ce qu’on appelle " la pensée " quand on l’identifie à la conscience, d’une évolution de la matière, ce n’est pas cela qui est difficile. Ce qui est difficile à faire sortir d’une évolution de la matière, c’est tout simplement l’homo faber, la production comme telle, le producteur comme tel. C’est en tant que la production est un domaine original, et un domaine de création ex nihilo, pour autant qu’il introduit dans le monde naturel l’organisation du signifiant, c’est pour autant qu’il en est ainsi que nous pouvons effectivement trouver la pensée - et non pas un sens idéaliste comme vous le voyez, mais la pensée dans sa manifestation, sa présentification dans le monde - nous ne pouvons la trouver que dans les intervalles du signifiant. "

Auteur: Lacan Jacques

Info: Le séminaire, 4 mai 1960

[ pulsion de mort ] [ tabula rasa ] [ néant ] [ recommencement ] [ transduction ] [ langage ]

 
Commentaires: 6
Ajouté à la BD par miguel

gestion de crise

Des milliers de tonnes de césium, d’iode, de plomb, de zirconium, de cadmium, de béryllium, de bore et une quantité inconnue de plutonium (dans les réacteurs de type RBMK à uranium-graphite du type de Tchernobyl on enrichissait du plutonium militaire qui servait à la production des bombes atomiques) étaient déjà retombées sur notre terre. Au total, quatre cent cinquante types de radionucléides différents. Leur quantité était égale à trois cent cinquante bombes de Hiroshima. Il fallait parler de physique, des lois de la physique. Et eux, ils parlaient d’ennemis. Ils cherchaient des ennemis !

[…] Un physicien quelconque osait donner des leçons au Comité central ? Non, ce n’étaient pas des criminels, mais des ignorants. Un complot de l’ignorance et du corporatisme. […] On devait justement promouvoir Sliounkov à un poste important, à Moscou. C’était cela. Je pense qu’il a dû recevoir un coup de fil du Kremlin, de Gorbatchev : Surtout pas de bagues, ne semez pas la panique, il y a déjà assez de bruit autour de cela en Occident. Les règles du jeu étaient simples : si vous ne répondez pas aux exigences de vos supérieurs, vous ne serez pas promu, on ne vous accordera pas le séjour souhaité dans une villégiature privilégiée ou la datcha que vous voulez… […]

Dans les instructions de sécurité nucléaire, on prescrit la distribution préventive de doses d’iode pour l’ensemble de la population en cas de menace d’accident ou d’attaque atomique. En cas de menace ! Et là, trois mille microröntgens à l’heure... Mais les responsables ne se faisaient pas du souci pour les gens, ils s’en faisaient pour leur pouvoir. Nous vivons dans un pays de pouvoir et non un pays d’êtres humains. L’État bénéficie d’une priorité absolue. Et la valeur de la vie humaine est réduite à zéro. On aurait pourtant bien pu trouver des moyens d’agir ! Sans rien annoncer et sans semer la panique... Simplement en introduisant des préparations à l’iode dans les réservoirs d’eau potable, en les ajoutant dans le lait. Les gens auraient peut-être senti que l’eau et le lait avaient un goût légèrement différent, mais cela se serait arrêté là. La ville était en possession de sept cents kilogrammes de ces préparations qui sont restées dans les entrepôts... Nos responsables avaient plus peur de la colère de leurs supérieurs que de l’atome. Chacun attendait un coup de fil, un ordre, mais n’entreprenait rien de lui-même. Moi, j’avais toujours un dosimètre dans ma serviette. Lorsqu’on ne me laissait pas entrer quelque part (les grands chefs finissaient par en avoir marre de moi !), j’apposais le dosimètre sur la thyroïde des secrétaires ou des membres du personnel qui attendaient dans l’antichambre. Ils s’effrayaient et, parfois, ils me laissaient entrer.

— Mais à quoi bon ces crises d’hystérie, professeur ? me disait-on alors. Vous n’êtes pas le seul à prendre soin du peuple biélorusse. De toute manière, l’homme doit bien mourir de quelque chose : le tabac, les accidents de la route, le suicide...

[...]

Je sais bien que les chefs, eux, prenaient de l’iode. Lorsque les gars de notre Institut les examinaient, ils avaient tous la thyroïde en parfait état. Cela n’est pas possible sans iode. Et ils ont envoyé leurs enfants bien loin, en catimini. Lorsqu’ils se rendaient en inspection dans les régions contaminées, ils portaient des masques et des vêtements de protection. Tout ce dont les autres ne disposaient pas. Et aujourd’hui on sait même qu’un troupeau de vaches spécial paissait aux environs de Minsk. Chaque animal était numéroté et affecté à une famille donnée. À titre personnel. Il y avait aussi des terres spéciales, des serres spéciales... Un contrôle spécial... C’est le plus dégoûtant... (Après un silence.) Et personne n’a encore répondu de cela...

Auteur: Alexievitch Svetlana

Info: Témoignage de Vassili Borissovitch Nesterenko, ancien directeur de l’Institut de l’énergie nucléaire de l’Académie des sciences de Biélorussie dans La supplication, Editions Jean-Claude Lattès, 1998, traduit du russe par Galia Ackerman et Pierre Lorrain, pages 213-216

[ intérêts politiques ] [ désinformation ] [ privilégiés ] [ radioactivité ] [ inaction étatique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson