5568 sujets

Sémantique web et HTML

bonjour a tous


voila , je suis en plein redisigning de mon site qui date de 1998 et le design n'en est pas loin non plus !
ce site site est tres bien referenceer sur nos mots clefs dans google ; yahoo , et msn ... et cela depuis longtemps.
j'ai decider de passer en css pour alleger le poids des pages
j'arrive donc a passer de 58 ko a 20ko( sans les images ), le contenu texe, et les noms des pages sont exactement les memes voir un un peu plus de texte ...

Je me pose la question est ce que je prend un risque de disparaitre car de ce que j'ai cru comprendre les moteurs interpretent votre code source pour en extraire les contenu , donc mes nouvelles pages risqueraient t'elles de perturber les moteurs ?

J'en doute un peu car ca serait contraire au web qui evolue sans cesse et les techniques de creation aussi.
Si quelqu'un a deja eu une experience la dessus ou une reponse ... si il y'a des pieges à eviter..merci
Bonjour,

Le passage aux CSS à autant d'influence sur le référencement que les techniques de méditation transcendantale sur la croissance des poireaux en alaska, à peut de choses près.

En revanche, si cela s'accompagne d'une normalisation des langages, d'un travail appronfondis sur la sémantique du balisage (titre, paragraphe, emphase...), du contenu, de l'intitulé et l'organisation des liens, ce ne peut-être que positif...

Jean-pierre
Pour moi c'était inclut dans le pack : l'introduction de balise sémantique. C'est vrai que si il remplace tout par des div c'est moins cool...

Mais même indépendament de ca, rafraichir un site est toujours bon pour le référencement.
Le passage en css va aleger la taille des pages, le poid des mots va en être renforcé.
Ca va supprimer le "bruit" de l'ancienne mise en page, certaines pages risques de sortir du 'duplicate content'
Si il ajoute du contenu, c'est tout bon

Donc je maintiens ma déclaration Smiley lol
Modifié par Roger (17 Jan 2006 - 14:49)
Bonjour,

Notre ami Jean-Pierre se trompe lourdement sur un point bien précis : j'ai vu des poireaux-vinaigrette blanchir et reverdir, une fois au Tibet, selon l'humeur d'un Daïla-Lama qui méditait pas lloin de là. Cela devait être lié étroitement aux conditions météorologiques locales. Si, si, Jean-Pierre. Je t'assure.

Mais en dehors de ce genre de cas d'espèce rappelé ici uniquement pour mémoire, effectivement, le passage d'un design ancien à un design XHTML CSS n'aura aucune influence sur la tonsure du Daïla-Lama en question. Google et autres outils similaires sont conçus pour indexer coûte que coûte le Web existant, code à la papa et code moderne confondus. C'est tout simplement leur fond de commerce, et ils sont agnostiques sur les questions du type "tablô ou pas".

Ce qui jouera en revanche, c'est, comme dixit encore notre incontournable jpg, le travail éventuellement effectué à l'occasion sur la pertinence des contenus, des structures de celui-ci et de la structure globale de navigation.

Pour le "bruit" et le "duplicate content", on plonge en plein Harry Potter. Comme pour le poireau-vinaigrette Smiley cligne
Modifié par Laurent Denis (17 Jan 2006 - 14:45)
oui, j'edite, 'suis un peu dyslexique Smiley biggol

[et je reste sur ma position sinon Smiley ravi ]
Modifié par Roger (17 Jan 2006 - 14:46)
tout a fait d accord avec Roger..
c est du tout bon les css pour le réf ça aide qd elles sont bien exploitées en externe...tu redefinis tes H et t en profite pour repenser ton site au niveau sémantique, des titles et mots clés....tu alléges tes pages, tu mets les bonnes infos pour les moteurs le plus haut ds tes pages, tu fais le menage ds tes métas car tres peu servent aujourd hui ....tu met tout cela dans le mixer et Google passera à table et s en occupera...ensuite ca dépend si tu t tattaques a un domaine concurrentiel ou pas..
les CSS aident mais le mieux c est qd meme de s interesser a ta strategie en terme de référencement et voir sur quel mots tu veux te placer et construire tes pages en fonction de cela...
sans oublier l essentiel le contenu ...une bonne structure optimisée pour le réf et un tres bon contenu ...
sam/
Bon, allons-y au premier degré :
- site tablô travaillé pour son référencement ou site XHTML-CSS brut : le premier apparait le plus souvent avant le second dans Google
- site tablô flash DHTML ou site XHTML CSS: c'est généralement l'inverse, le second ayant plus de contenu que le second.
- site tablô travaillé pour son référencement ou site XHTML CSS travaillé pour le référencement : facteurs multiples interdisant toute généralisation.

Bref, tout cela n'a rien de significatif.
Bon je fait un effort pour expliciter aussi alors pour la phrase avec le mot "bruit" Smiley lol

Pour appliquer au non son filtre négatif "duplicate content", google détermine la similarité entre deux pages en terme de pourcentage (et surement qu'il ajoute un ou deux autres facteurs mysteres, genre pt'etre la place dans l'arbo).

Quand on fait une mise en page en tableau, il y a déjà des portions d'html en commun ce qui fait grimper le pourcentage de similarité entre deux pages.

Deux pages un peu trop smimilaire par le passé peuvent sortir du "duplicate content" en passant en css selon moi.

ps : harry potter c'était un coup bas Smiley bawling
Modifié par Roger (17 Jan 2006 - 18:06)
Bonjour,

Cette iddée, CSS = meilleur référencement et sa petite soeur (Xhtml=whaooou) sont nées des rumeurs selon lesquelles Google aurait optimisé ses robots pour favoriser les sites normalisés.

C'était le troll favoris des forums en 2004 même si ce n'est peut-être pas absolument faux (et débrouillez vous avec ça Smiley smile Smiley smile )

Mais c'est un débat sans issue : on ne référence pas de la technologie, on référence du contenu, point barre.

Après que le contenu soit soutenu par des technologies normalisées ne peut qu'être favorable, c'est une évidence, mais ce n'est pas la conséquence de la technologie elle-même, c'est juste la conséquence de la qualité du travail de l'auteur... Smiley smile Smiley smile

a écrit :
Quand on fait une mise en page en tableau, il y a déjà des portions d'html en commun ce qui fait grimper le pourcentage de similarité entre deux pages.


Grosse erreur, c'est absolument l'inverse, la part de code Html en commun dans un site normalisé est bien supérieure à celle de la mise en page par tableaux et sa technologie évoluée de rustines "mais pourquoi ça marche pas sur cette page bon dieu...".

Nonobstant le fait que je ne vois pas ce que viens faire le code html dans le duplicate content qui sanctionne deux contenus identiques accédés sous des uri différentes d'un même domaine.

Jean-pierre

Ps: Pour les poireaux-vinaigrette je savais pas, sincèrement, en revanche je commence à comprendre la forme insolente des brocolis de ce début d'année... Smiley cligne
jpv a écrit :
Nonobstant le fait que je ne vois pas ce que viens faire le code html dans le duplicate content qui sanctionne deux contenus identiques accédés sous des uri différentes d'un même domaine.


ça, c'est un vrai coup bas, ou je ne m'y connais pas Smiley cligne
jpv a écrit :

Nonobstant le fait que je ne vois pas ce que viens faire le code html dans le duplicate content qui sanctionne deux contenus identiques accédés sous des uri différentes d'un même domaine.


Il y a avoir que c'est comme ca que google le calcule avec l'html...
regarde moi toutes ses pages similaires
Modifié par Roger (18 Jan 2006 - 10:50)
Bon on se prend un peu la tête sur un détail mais bon sur le lien que j'ai mis au dessus, en bas de la page, il y a écrit :

a écrit :
In order to show you the most relevant results, we have omitted some entries very similar to the 4 already displayed.


Nous sommes d'accord que le contenu réel est différent, les gens racontent pas toujours les mêmes choses sur chacun des topics.

C'est donc la structure html qui fait considérer ses pages comme similaires par google.
re bonjour un attaque "gastro - ique " hier ma fait quitter le bureau en sautant les escaliers 4 par 4 ,j'ai pas pu suivre la conversation hier mais
en effet j'ai decider de passer en css , car ca me permet d'alleger condidireablement le poids de mes pages de 58 ko a 20ko en moyenne et de les standardiser un par types de produits , cependant pour le refencement on s'en sort tres bien car le site est tres bien positionner sur google aec nos mots clés principaux et cela depuis un bail.
ma peur c'est qu'en changant le code source , google pense qu'il sagit d'un nouveau site et nous vire du classement, cela serait une catstrophe pour moi.
j'ai debuter le css y'a pas si lontemps et je me confronte a pas mal de probleme d'affichage sur les browser mais je m'en sort quand meme!

pour le contenu du texte il est tres riche je m'inquiete pas !

ma question est changer la technologies de creation d'un site peut il perturber les moteurs de recherches si le contenu reste le meme et le noms des pages aussi ?
j'ai déjà donnée mon avis mais
au passage essayez de conserver les même url, c'est ca l'identificateur réel
Modifié par Roger (19 Jan 2006 - 17:30)