Sommaire
Lors d’un échange récent au Search Central Live Deep Dive (Asie), Gary Illyes de Google a confirmé l’utilisation d’une technologie interne « similaire à MUVERA ». Moins loquace sur les Graph Foundation Models (GFMs), il a toutefois laissé entendre qu’ils ne seraient pas encore déployés côté Search. Décryptage.
MUVERA, un nouveau cap dans le retrieval vectoriel
Dévoilé récemment par Google dans une publication de blog accompagnée d’un papier scientifique, MUVERA (Multi‑Vector Retrieval via Fixed‑Dimensional Encodings) marque une avancée majeure dans les méthodes de recherche vectorielle à grande échelle.
En résumé :
- MUVERA compresse les ensembles de vecteurs multi-dimensionnels (issus des embeddings) en un seul vecteur fixe (FDE – Fixed Dimensional Encoding).
- Ce vecteur est ensuite utilisé dans une recherche de type MIPS (Maximum Inner Product Search), un standard en retrieval dense.
- Les résultats sont réaffinés par une similarité multi-vectorielle précise (méthode Chamfer), pour retrouver la qualité du modèle initial.
- MUVERA améliore à la fois la vitesse, la précision et réduit le nombre de documents candidats à traiter. C’est plus rapide que PLAID (l’ancien benchmark) tout en améliorant le rappel.
En clair, MUVERA rend possible un compromis performant entre efficacité computationnelle et pertinence sémantique, à l’échelle des milliards de documents que gère Google.
Gary Illyes : « On utilise quelque chose de similaire »
Interrogé par José Manuel Morgal lors de l’événement, Gary Illyes a d’abord ironisé : « C’est quoi MUVERA ? » Puis il a reconnu que Google utilisait une méthode comparable, sans l’appeler ainsi.
Ce flou n’est pas nouveau chez Google : les technologies utilisées en Search sont rarement désignées par leurs noms de publication scientifique. On pense à SMITH, Pathways, ou MUM — souvent évoquées, mais parfois implémentées sous d’autres formes.
Google exploite donc bien les principes de MUVERA pour accélérer et affiner ses systèmes de récupération d’information. Cela confirme une bascule vers des moteurs hybrides, qui combinent vectorisation et structure symbolique.
Et les Graph Foundation Models ?
Google a récemment annoncé un autre progrès majeur : le Graph Foundation Model (GFM). Il s’agit d’un modèle fondation capable de comprendre des bases de données relationnelles comme des graphes : les lignes deviennent des nœuds et les relations entre tables deviennent des arêtes.
À la différence des GNN (Graph Neural Networks) classiques :
- GFM ne nécessite pas de réentraîner un modèle pour chaque nouvelle base,
- Il s’adapte à la variété structurelle des données,
- Il améliore drastiquement certaines tâches, comme la détection de spam dans les annonces (jusqu’à 40x de gain de précision).
Cependant, à la question de savoir si GFM est déjà utilisé dans la recherche web, Gary Illyes a exprimé des doutes : il ne semblait pas au courant d’un déploiement effectif dans Search, ni même de l’article du blog Google Research.
GFM est sans doute en phase de test dans des environnements fermés (ads, sécurité, etc.), mais pas encore intégré dans l’algorithme de recherche principal.
Pourquoi tout ceci est important pour le SEO
1. La vectorisation change la logique d’appariement
MUVERA confirme que Google n’indexe plus seulement des documents, mais des représentations vectorielles compressées, capables de synthétiser plusieurs dimensions sémantiques dans un seul vecteur.
Cela modifie la logique même du SEO :
- Les documents ne sont plus évalués uniquement en fonction de leurs mots, mais de leur proximité dans un espace latent partagé avec la requête.
- La granularité change : ce sont les chunks (blocs vectorisés), et non les pages entières, qui sont sélectionnés dès la première passe de retrieval.
- L’optimisation ne consiste plus à « faire apparaître un mot-clé », mais à structurer le contenu pour générer des représentations stables, pertinentes et discriminantes dans l’espace vectoriel.
2. Une architecture de recherche en couches hiérarchisées
Avec MUVERA, Google combine recherche dense (MIPS) et réévaluation fine via similarité multi-vectorielle (Chamfer). Cette architecture implique trois couches distinctes :
- Filtrage initial ultra-rapide, où seuls les blocs vectorisés jugés proches dans l’espace latent sont retenus.
- Reranking coûteux mais précis, qui mobilise des métriques complexes, sur un volume restreint de candidats.
- Modulation finale par des signaux de fiabilité et d’autorité, comme le lien, l’historique ou la fraîcheur.
Avant même d’être évalué sur sa popularité, un contenu doit d’abord réussir à « ressortir » dans l’espace sémantique calculé par les modèles de Google. Autrement dit, Google juge d’abord la pertinence sémantique globale, pas la correspondance mot à mot.
3. Des graphes pour modéliser l’information structurée
Les Graph Foundation Models annoncent une autre rupture : l’analyse non plus linéaire mais relationnelle des données. Même si GFM n’est pas encore en production Search, son principe éclaire plusieurs tendances déjà à l’œuvre :
- Google tend à modéliser les sites comme des graphes d’entités et de relations, pas comme des suites de pages.
- La qualité d’un lien n’est plus uniquement dans son texte d’ancre, mais dans la structure globale qu’il contribue à former (maillage, centralité et transitivité).
- Les données structurées ne servent plus seulement à enrichir une fiche, mais à signaler la cohérence logique d’un réseau d’information.
Les signaux actuels (MUVERA et GFM notamment) suggèrent que Google accorde une importance croissante aux relations entre contenus, fondées sur des entités communes, des concepts partagés ou des complémentarités sémantiques.
Structurer un site comme un réseau cohérent de contenus interconnectés — plutôt qu’un simple plan en silos — semble mieux correspondre à la façon dont les modèles interprètent l’information aujourd’hui.