Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 1
Temps de recherche: 0.0268s

essor calculatoire

Comment les informaticiens améliorent la matrice

À l'été 1925, le jeune physicien Werner Heisenberg se rendit sur l'île isolée d'Helgoland pour échapper à un violent rhume des foins. Dix jours plus tard, il en revenait avec une équation aujourd'hui centrale en physique quantique. Bien qu'elle prédisait correctement les résultats expérimentaux, elle posait un problème : elle impliquait des règles étranges pour manipuler des tableaux de nombres. Heisenberg lui-même ne savait comment interpréter ces calculs, jusqu'à ce que son mentor, Max Born, y reconnaisse des objets mathématiques alors méconnus : les matrices.

Un siècle plus tard, les matrices sont omniprésentes. Elles ont d'innombrables applications, de la physique fondamentale aux graphismes informatiques, en passant par l'intelligence artificielle. Et la quête d'algorithmes de multiplication matricielle plus efficaces reste l'un des problèmes les plus emblématiques en informatique.

Les matrices, cœur de l'algèbre linéaire

Issues de l'algèbre linéaire (qui étudie les équations à multiples variables), les matrices sont des tableaux bidimensionnels représentant des transformations appliquées à des vecteurs (listes de nombres décrivant une propriété, comme l'orientation d'un objet ou l'état d'une particule quantique). En physique, elles modélisent l'évolution des états quantiques ; en IA, elles déterminent comment des modèles comme ChatGPT génèrent leurs réponses.

Multiplier deux matrices (pour combiner leurs transformations) suit des règles précises, mais la méthode standard devient lentissime pour les grandes matrices utilisées en IA. Depuis 50 ans, les chercheurs cherchent des algorithmes plus astucieux.

Les avancées clés

- 1969
 : Le mathématicien Volker Strassen réduit la multiplication de matrices 2x2 à 7 multiplications au lieu de 8. Une économie qui change tout à grande échelle.

- 2021-2022 : Des progrès majeurs sont réalisés, notamment via une méthode améliorant les calculs pour des blocs de taille 4x4 ou 5x5.

- AlphaTensor : En 2022, Google DeepMind utilise l'IA pour découvrir automatiquement des algorithmes plus efficaces dans certains cas.

Au-delà des matrices

Certains chercheurs explorent des alternatives, comme des méthodes aléatoires, légèrement plus rapides dans certains scénarios. Comme le souligne l'informaticien Renfei Zhou : "Nous en sommes encore aux balbutiements de la compréhension de ce problème ancestral.

Points à retenir

- Les matrices sont partout (IA, physique, graphismes).

- Leur multiplication est un goulot d'étranglement informatique.

- L'IA aide désormais à optimiser ces calculs.

- La recherche reste dynamique, avec des surprises potentielles.



 

Auteur: Internet

Info: Quanta magazine. 30 juin 2025. Ben Brubaker - How Computer Scientists Are Building a Better Matrix

[ hyper-complexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste