Bonjour,
Ignorerais-tu la puissance des Regexp ?
Aussi facile de détecter une telle marge négative qu'un "display: none" !
Et pour avoir travaillé sur un système d'élimination automatique des spams je peux t'affirmer que la détection des faibles contrastes est possible, alors vu que Google dispose de quelques programmeurs... ce devrait être à sa portée !
Mais je n'affirme en rien qu'il le fait.
Noisequik a écrit :
eh eh on peut utiliser
position:absolute;
margin-left:-6000px;
ou de texte #FFFFFE sur fond #FFFFFF
Ca m'étonnerait que Google capte quelque chose
Ignorerais-tu la puissance des Regexp ?
Aussi facile de détecter une telle marge négative qu'un "display: none" !
Et pour avoir travaillé sur un système d'élimination automatique des spams je peux t'affirmer que la détection des faibles contrastes est possible, alors vu que Google dispose de quelques programmeurs... ce devrait être à sa portée !
Mais je n'affirme en rien qu'il le fait.
Bonjour,
Je m'incruste dans votre discussion, mais voilà.
Je travaille pour une société de référencement en Belgique, et nous essayons de bannir systématiquement les techniques de contenu cachés, afin de répondre aux guidelines de Google expliquant notamment que tout contenu visible pour les moteurs mais invisible pour les surfeurs est considéré comme une technique de spam.
Sans doute qu'actuellement, les moteurs ne peuvent détecter toute tricherie apportée via un css, mais le spam report est justement là pour y remédier, du moins en attendant qu'ils perfectionnent leurs robots.
Et puisque Google fait le forcing à ce niveau-là et a engagé des ingénieurs pour assurer un suivi à ces spam reports, il est certain qu'on verra pas mal de site disparaître de Google très prochainement.
Il vaut mieux je pense miser sur le long terme. Et respecter l'internaute.
Salut de Belgique, une fois.
Mowax
Je m'incruste dans votre discussion, mais voilà.
Je travaille pour une société de référencement en Belgique, et nous essayons de bannir systématiquement les techniques de contenu cachés, afin de répondre aux guidelines de Google expliquant notamment que tout contenu visible pour les moteurs mais invisible pour les surfeurs est considéré comme une technique de spam.
Sans doute qu'actuellement, les moteurs ne peuvent détecter toute tricherie apportée via un css, mais le spam report est justement là pour y remédier, du moins en attendant qu'ils perfectionnent leurs robots.
Et puisque Google fait le forcing à ce niveau-là et a engagé des ingénieurs pour assurer un suivi à ces spam reports, il est certain qu'on verra pas mal de site disparaître de Google très prochainement.
Il vaut mieux je pense miser sur le long terme. Et respecter l'internaute.
Salut de Belgique, une fois.
Mowax
Mowax a écrit :
Je travaille pour une société de référencement en Belgique, et nous essayons de bannir systématiquement les techniques de contenu cachés, afin de répondre aux guidelines de Google expliquant notamment que tout contenu visible pour les moteurs mais invisible pour les surfeurs est considéré comme une technique de spam.
Certe, et c'est bien, mais les robots on besoin d'être très serieusement travaillé avec des algorithme costaux pour arriver à faire la différence entre un contenu caché à des fin de référencement et du contenu voué à être dispensé à l'internaute en temps voulus.
Les deux cas les plus courrant sont :
1 - substitution de texte par une image pour la titraille avec les navigateur graphique (IE, FF, Opera, etc...)
2 - Réalisation de menu déroulant ou de bulle d'aide.
Donc, malgrès tout, pour le moment, la seul vrai reponse au problème de contenu caché via CSS, c'est l'humain et le rapport de spam ! Les robots ont trop de mal pour le moment !
A voir ce que l'avenir nous apportera
Vajra a écrit :
Question de candide:
A quoi ça sert de cacher du texte sur une page html????????
En fait, c'est surtout pour les parties d'images en arrière plan : par exemple les titres ou les liens dont le "texte" est en fait une image d'arrière-plan.
Lors d'une lecture vocale, le contenu de ces textes n'est pas retranscrit (puisque c'est une image), donc l'idée est de laisser du texte mais que l'on masquerait aux navigateurs graphiques.
Voir ces pistes issues des Ressources :
- Mettre un titre en image tout en restant accessible.
- les différentes techniques de remplacement d'images
Mr Google,
Si tu m'entends, j'ai du contenu caché lorsque tu affiches mon site via ma première feuille de style mais s'il te plaît, consulte mon second graphisme car tu verras que ce n'est plus le cas... Merci donc d'arrêter de me pénaliser comme tu l'as fait lors du Jagger 2... Comme l'as dit Raphaël, je ne cherchais qu'à me rendre accessible...
Si tu m'entends, j'ai du contenu caché lorsque tu affiches mon site via ma première feuille de style mais s'il te plaît, consulte mon second graphisme car tu verras que ce n'est plus le cas... Merci donc d'arrêter de me pénaliser comme tu l'as fait lors du Jagger 2... Comme l'as dit Raphaël, je ne cherchais qu'à me rendre accessible...
Voilà du neuf :
http://www.webrankinfo.com/actualites/200606-google-et-css.htm
http://www.webrankinfo.com/actualites/200606-google-et-css.htm
Notons le :
Je trouve, pour ma part, que Google est de plus en plus permissif, et qu'il y a beaucoup de sites miroirs, des cochonneries, etc, qui arrivent à s'infiltrer.
Néanmoins, c'est vrai qu'il y a une grande difficulté pour des robots de faire la différence entre la pratique et la théorie.
Théorie: je cache le texte pour qu'il ne soit visible que par les handicapés, dans l'unique but d'être accessible.
Pratique: visiteurs, pubs, pognoooon
Seulement, il y en a qui respectent la théorie, et c'est bien dur de les différencier.
Néanmoins, je suis certain que Google ont de bons développeurs, et j'espère qu'ils tenteront un de ses jours de faire un petit ménage.
a écrit :
Difficile de pronostiquer une suppression rapide de l'index Google des sites utilisant des styles CSS dans l'unique but de cacher du texte. En effet, même d'autres techniques bien plus anciennes ne sont pas souvent sanctionnées...
Je trouve, pour ma part, que Google est de plus en plus permissif, et qu'il y a beaucoup de sites miroirs, des cochonneries, etc, qui arrivent à s'infiltrer.
Néanmoins, c'est vrai qu'il y a une grande difficulté pour des robots de faire la différence entre la pratique et la théorie.
Théorie: je cache le texte pour qu'il ne soit visible que par les handicapés, dans l'unique but d'être accessible.
Pratique: visiteurs, pubs, pognoooon
Seulement, il y en a qui respectent la théorie, et c'est bien dur de les différencier.
Néanmoins, je suis certain que Google ont de bons développeurs, et j'espère qu'ils tenteront un de ses jours de faire un petit ménage.
Source sur webmasterhub, j'en ai fait un billet sur mon blog :
http://www.ajcrea.com/blog/index.php/2006/06/25/21-vu-chez-les-autres-record-de-spam-google
Message d'origine sur le hub :
http://www.webmaster-hub.com/index.php?showtopic=26055
Aymeric, comment ça je fais de l'autopromo?
PS : gaffe en ce moment mon hébergement rame avec des baguettes chinoises.
Modifié par AymericJ (25 Jun 2006 - 23:31)
http://www.ajcrea.com/blog/index.php/2006/06/25/21-vu-chez-les-autres-record-de-spam-google
Message d'origine sur le hub :
http://www.webmaster-hub.com/index.php?showtopic=26055
Aymeric, comment ça je fais de l'autopromo?
PS : gaffe en ce moment mon hébergement rame avec des baguettes chinoises.
Modifié par AymericJ (25 Jun 2006 - 23:31)
Mikachu a écrit :
...
Oué et quand on fait de l'autopromo on s'assure qu'il y'ait pas des liens qui passent sous la colonne de droite... Il sont peut être un peu trop longs
Hein...Quoi ça? Qui ça? Ou ça des liens trop longs?
Aymeric, comment ça je suis de mauvaise foi.
Modifié par AymericJ (26 Jun 2006 - 09:51)