Google a retouché sa documentation sur les limites de taille des fichiers crawlés, après des incompréhensions côté SEO. Le texte rappelle la limite par défaut à 15 Mo, tout en précisant que Googlebot peut avoir un plafond plus bas (ex. 2 Mo) et que les limites peuvent varier selon le type de fichier (PDF vs HTML).
Google a apporté une nouvelle précision à sa documentation sur les limites de taille des fichiers crawlés par ses robots, après des échanges et une confusion dans la communauté SEO.
Ce que dit la version actuelle du document
Le passage “File size limits” indique désormais que, par défaut, les crawlers et fetchers Google n’explorent que les 15 premiers Mo d’un fichier, et que le contenu au-delà est ignoré.
Le texte ajoute que certains projets peuvent fixer des limites différentes selon les robots et les types de fichiers, avec un exemple explicite : Googlebot peut avoir une limite plus faible (ex. 2 Mo), ou une limite plus élevée pour les PDF que pour le HTML.
Ce qui a changé par rapport à la version précédente
La version précédente mentionnait déjà la limite par défaut (15 Mo) et la possibilité de limites différentes selon le type de fichier, mais sans citer Googlebot ni donner d’exemple chiffré (2 Mo).