Accueil PPC Google Research : les LLM écriront les publicités mot par mot en temps réel

Google Research : les LLM écriront les publicités mot par mot en temps réel

par Jordan Belly
Google publicité

Une recherche conjointe Google Research et Université de Chicago présente un modèle révolutionnaire d’enchères publicitaires : les annonceurs enchérissent pour influencer chaque mot généré par l’IA. Cela transforme radicalement la création publicitaire automatisée.

Analyse basée sur la publication de Pavel Israelsky du 30 juin 2025, s’appuyant sur les travaux « Mechanism Design for Large Language Models« .

Le modèle « Token Auction » expliqué

Contrairement aux Google Ads traditionnels où les annonceurs enchérissent sur des mots-clés pour placer des créations pré-écrites, le Token Auction inverse le paradigme. Les annonceurs n’enchérissent plus pour des emplacements, mais pour façonner les mots que le LLM va générer.

Le mécanisme fonctionne ainsi :

  1. Chaque annonceur soumet une enchère unique.
  2. Il fournit un modèle de langage représentant la voix, le ton et les préférences de sa marque.
  3. Le système génère la réponse token par token, pondérant l’influence de chaque modèle selon l’enchère.
  4. Plutôt que de choisir un gagnant, le système mélange les influences des multiples annonceurs.

Deux stratégies d’agrégation

Les chercheurs explorent deux méthodes pour agréger les modèles concurrents :

  • Agrégation linéaire : une moyenne pondérée maintenant la compatibilité incitative et la responsiveness des enchères.
  • Agrégation log-linéaire : une méthode plus complexe pouvant briser l’alignement incitatif dans certaines conditions.

Cette distinction technique détermine comment les enchères se traduisent en influence réelle sur le contenu généré.

Redéfinition des préférences de marque

Dans ce framework, les annonceurs ne soumettent plus de copies d’annonces statiques. Ils « enseignent » à un LLM à parler avec la voix de leur marque. Ce modèle agit comme une représentation dynamique de ce que la marque dirait dans n’importe quel contexte donné.

Il ne s’agit plus de créer un titre accrocheur unique, mais d’ingénier un système probabiliste qui produit de manière fiable un langage aligné sur la marque dans des conversations temps réel.

Préservation de la confidentialité

Le système proposé maintient un découplage technique. Le modèle génératif principal n’accède pas directement à la logique interne des LLM de chaque annonceur. Chaque annonceur calcule privément les probabilités des tokens suivants et les soumet au système d’enchères.

Les marques peuvent ainsi participer sans révéler leurs modèles propriétaires, tandis que le moteur central reste efficace et modulaire.

Modèle économique : payer pour l’influence réelle

Inspiré des enchères Vickrey, l’annonceur ne paie que lorsque son influence modifie effectivement le token généré par rapport à ce qui aurait été sélectionné autrement.

La mesure de cette influence utilise la distance de variation totale (TVD), une métrique statistique qui quantifie l’écart entre le résultat final et le défaut, causé par l’input d’un annonceur donné.

Simulation avec Gemma 7B

Les chercheurs ont testé le modèle avec Gemma 7B, un LLM open-source, en utilisant deux annonceurs fictifs : un formel, un décontracté. Chaque annonceur a soumis des préférences stylistiques différentes, et les résultats montrent une corrélation claire entre enchères plus élevées et influence renforcée sur le ton et la formulation.

Pour la requête « What’s a good weekend activity? », ajuster le ratio d’enchères entre les deux annonceurs décalait prévisiblement le texte généré vers un ton ou l’autre.

Workflow futur possible

Le processus pourrait ressembler à :

  1. Une marque fine-tune son propre LLM reflétant son style de communication.
  2. Le gestionnaire de campagne définit les objectifs et place une enchère.
  3. Quand une requête utilisateur déclenche une réponse générative, l’enchère évalue token par token quels annonceurs ont des modèles pertinents.
  4. La réponse finale est écrite collaborativement par le système, façonnée par les marques qui influencent son langage.
  5. Le dashboard montre des heatmaps au niveau token, scores d’influence et coût par impression générée.

Google teste déjà les annonces IA

En mai 2025, Google a commencé à tester les annonces de recherche et shopping dans AI Overviews et AI Mode. Ces messages sponsorisés apparaissent maintenant dans les résultats génératifs sur mobile et desktop.

Selon The Verge, plus d’annonces sont désormais intégrées dans les réponses IA que jamais auparavant. Elles restent traditionnelles en format (étiquetées, cliquables, visuellement distinctes), mais la direction est claire : les annonces migrent vers le contenu.

Évolution parallèle chez Meta

Meta a annoncé que d’ici fin 2026, elle vise à déployer des campagnes publicitaires entièrement automatisées où les entreprises n’écriront même plus les annonces. L’annonceur fournit simplement un objectif, et le système gère la création, le ciblage, les tests et l’optimisation.

Transition vers la publicité générative

Les évolutions chez Google et Meta révèlent une transition :

  • Des annonces pré-écrites vers les réponses générées par IA.
  • De l’optimisation manuelle vers l’influence probabiliste temps réel.
  • Des taux de clic vers la présence de marque au niveau token.

Cette évolution s’inscrit dans la logique plus large du passage du SEO traditionnel vers l’optimisation pour l’IA, où la visibilité se joue désormais dans la génération de contenu plutôt que dans son classement.

À découvrir également