Je ne comprends pas.
Que l'on s'attache à rechercher une performance
pour le rendu des données (le HTML, du JSON-LD...), ceci afin d'exposer ces données le plus rapidement possible aux moteurs de recherche, là, ok, je comprends : il s'agit ici de générer la page le plus rapidement possible et dans ce cas, la rapidité du serveur, l'optimisation du poids des ressources de la page et quelques autres subtilités seront des critères importants pour le SEO (en plus de tout ce que l'on peut faire par ailleurs comme la sémantique du HTML et la structuration des données bien sûr).
Mais que vient faire l'apparence du site là-dedans ? Je parle ici de ce que voit l'utilisateur grâce au CSS, où via des manipulations JavaScript
sur des données déjà existantes dans la page. Dans mon post précédent, lorsque je parlais de performance, je parlais
du rendu de la mise en forme de la page, pas de la génération du rendu des données.
Alors oui, les moteurs les plus évolués commenceraient à lire un peu de JS... parait-il. J'entends ça depuis 10 ans. Ça reste à prouver car, pour l'instant, pour des applications full React, ne s'appuyant pas sur un framework backend (tel que Next.js, capable de fournir du contenu HTML pour chaque URL), ce n'est pas glorieux pour le SEO. Quand au CSS... j'entendais à une époque que, peut-être, le contenu caché en `display: none` n'était pas correctement référencé... Là encore on a des preuves ? Et si le contenu caché faisait parti d'un composant accordéon ou onglets ? Vous croyez que Google et consort n'y auraient pas pensé et auraient préférés s'embêter à déréférencer du contenu alors qu'ils ont d'autres chats à fouetter ? Ils faudrait déjà qu'ils arrivent enfin à correctement analyser du HTML de base***.
On en dit des choses dans le monde du web... Quand j'ai commencé en 2008/2009 on disait aussi que le sélecteur "*" n'était pas performants, les articles à ce sujet tournaient en boucle sur les blogs d'intégrateurs... 10 ans plus tard : nop.
__________________
*** deux points :
1/ Oui, je reconnais que je suis provoc' sur ce coup : en réalité le problème n'est pas tant que les moteurs n'arrivent pas à analyser correctement le HTML que le fait qu'ils soient obligés de tenir compte des (très) mauvaises pratiques de nombre de sites webs (sans doute statistiquement les plus nombreux). C'est un paramètre qui rentre forcément en compte dans la balance. Les GAFAM connaissent leurs intérêts : ce qu'ils veulent, c'est fournir du contenu de qualité à leurs utilisateurs. Alors bien sûr qu'ils poussent aux meilleures pratiques ils savent bien que, trop souvent,
"contenu de qualité" ne rime pas forcément avec "contenu optimisé pour le SEO". Ils sont donc obligés de faire avec et ne pas trop déclasser un contenu de qualité mal référencé. Par contre leurs utilisateurs veulent du contenu qui s'affichent rapidement et là c'est une autre histoire.
2/ Et non, je ne suis pas tout à fait provoc' pour rien : en effet, il ne faut pas s'imaginer que les moteurs de recherche soient si au top que cela. Dix ans après l'introduction de HTML5 la balise <figure> n'était toujours pas prise en compte (Par exemple, le contenu d'un <figcaption> en dessous de son image était rattaché à l'image suivante, sans aucune prise en compte de la structure du HTML, comme du vulgaire texte qui aurait comme règle de devoir toujours précéder son image. Je ne sais pas où nous en sommes aujourd'hui, je n'ai pas refais de test).
À ce jour, en 2023, la balise <section> ne structure toujours pas la hiérarchie des titres de la page en cours (sauf pour les styles) : en clair, si on met une balise <h1> dans une section en se disant "je peux le faire, après tout je suis en HTML5 et c'est la norme"... et bien on a tout faux (et sur les blogs d'intégrateurs, qu'est-ce qu'on nous raconte ?
).
On avait aussi des problèmes avec les contenus de details/summary, certains d'entre eux ont été réglés récement. J'en passe et des meilleures. Bref, pas terrible tout ça...
Modifié par Olivier C (30 Nov 2023 - 23:48)