Pages :
(reprise du message précédent)

caroder a écrit :
Bonjour,

3. Effectivement en matières de référencement, les balises <title> et <meta name="description" content="ici ma description" /> sont PRIMORDIALES (un changement de formulation dans le title ou la description peut te faire arriver en 1re place sur un mot clé) avec...

4. le SITEMAP que tu dois générer dynamiquement (tu trouveras des scripts tous faits sur le web).

5. Enfin, deux variables très importantes comptent en matière de référencement dont une au moins ne dépend pas de toi : l'ancienneté du site (i.e. depuis quand Google et consorts ont ton site dans leur index) et le nombre de back link qui pointent vers ton site (i.e. sa popularité).

Il faut pour finir savoir que nombre de boites de référencement utilisent des techniques à la limite du spamdexing... Mais heureusement, quelques sociétés de référencement sont acrédités Google.


Bonsoir,

J'ai effectué des modifications de fond et chaque page a désormais son en-tête "<head></head>" personnalisable (pour title et description), cela devrait déjà faciliter le travail du référenceur.

Le site est très bien placé dans les moteurs de recherche et accueil un nombre non négligeable de visiteurs provenant des grands moteurs de recherche et plus particulièrement d'annuaires ou sites spécialisés / partenaires ("back links"), ce qui me laisse penser que le référencement a fait son chemin depuis la dernière version du site, qui date de 5 ans, seul bémol, cette ancienne version était une présentation intégrale en Flash...

Une partie du travail reste donc à faire.

Le Sitemap a un rôle aussi important pour le référencement ? J'ai pensé que la solution du moteur de recherche interne suffisait...

Cela dit, ce moteur est assez flexible et il index toutes les pages du site hiéarchiquement (Une 30ène de page), il me suffit d'implémenter la méthode adéquate pour générer le Sitemap dynamiquement...

Je vais m'entretenir avec le référenceur dans la semaine, histoire de savoir en quoi consiste ses techniques d'indexation...

-----------------------------------------------------------------------

Concernant les précédantes réponses sur la compatibilité IE 5

Je suis bien embeté par ce problème, car 1.85% des visiteurs du utilisent cette verison du navigateur, sur 300 visiteurs ~ par jour (selon les stats MRTG du serveur), c'est casiment négligeable, mais il faut quand même que je trouve une solution décente, d'autant plus qu'en consultant les statistiques W3CSchools, j'ai vu qu'ils estimaient à 5.7%, le nombre de visiteurs utilisant toujours IE 5 en février 2006...

Je vais passer en revue les liens que vous m'avez communiqué, voir si je peux trouver un compromis...

-----------------------------------------------------------------------

Merci,
Bonne soirée
Modifié par Neutron (20 Mar 2006 - 19:40)
Bonsoir,
IE 5 Windows et IE 5 Mac sont très différents. Un site peut très bien s'afficher dans la version Win et non dans la version Mac (ou inversement).
Les statistiques que tu cites doivent correspondre à IE 5 Win. Concernant IE Mac, ça doit maintenant généralement être inférieur à 0,5%
Modifié par Alan (20 Mar 2006 - 20:49)
Alan a écrit :
Bonsoir,
IE 5 Windows et IE 5 Mac sont très différents. Un site peut très bien s'afficher dans la version Win et non dans la version Mac (ou inversement).
Les statistiques que tu cites doivent correspondre à IE 5 Win. Concernant IE Mac, ça doit maintenant généralement être inférieur à 0,5%


Bonsoir,

En effet, IE 5 Windows ne présente pas de problème (après consultation sur BrowserCam)

Parcontre c'est la grande décadance pour IE 5 MAC et IE 4 Windows, même défaite... (Cela dit, IE 4, ça choque moins).
Smiley ohwell
Modifié par Neutron (20 Mar 2006 - 22:48)
caroder a écrit :
Il faut pour finir savoir que nombre de boites de référencement utilisent des techniques à la limite du spamdexing...

Tu pourrais développer un peu plus s.t.p. caroder ??? Ils font quoi exactement ???
Il y a un peu de tout :

- le classique du genre : utiliser justement les css pour mettre des div cachées bourrées de mots clés et de liens mutuels entre les sites. Pas encore sanctionné mais ça devrait tomber.

- les pages satellites (ou cloaking) avec redirection vers le vrai site : ce fut le must il y a quelques années mais depuis le blacklistage de Netbooster l'année dernière par abus de la tehnique celle-ci a quasiment disparu

- les fermes de liens : ça aussi il y a eu une mode là dessus mais c'est aussi sanctionné par Google. Le principe : créer des milliers de liens vers le site à référencer afin d'augmenter artificiellement sa popularité.

Pour trouver de l'info sur le spamdexing et le référencement, voir www.webrankinfo.com
caroder a écrit :
Il y a un peu de tout :

- le classique du genre : utiliser justement les css pour mettre des div cachées bourrées de mots clés et de liens mutuels entre les sites. Pas encore sanctionné mais ça devrait tomber.

- les pages satellites (ou cloaking) avec redirection vers le vrai site : ce fut le must il y a quelques années mais depuis le blacklistage de Netbooster l'année dernière par abus de la tehnique celle-ci a quasiment disparu

- les fermes de liens : ça aussi il y a eu une mode là dessus mais c'est aussi sanctionné par Google. Le principe : créer des milliers de liens vers le site à référencer afin d'augmenter artificiellement sa popularité.

Pour trouver de l'info sur le spamdexing et le référencement, voir www.webrankinfo.com


Bonjour,

Après entretient avec l'entreprise de référencement, ceux-ci viennent de me faire savoir qu'ils allaient effectuer un référencement "périphérique", sans intervenir sur les pages du site. Apparement, ça consite à un placement de fichiers "spécialement forgés" de part et d'autre du serveur (Je viens de le constater sur le serveur, il y a un document html "fantôme" qui est apparu).

J'ai jeté un coup d'oeil dans ce fichier "juste pour voir", et il n'y a rien de cohérant pour le genre humain, il y a du CSS, des images, du texte et des liens inexistants dans le désordre, et c'est redirigé sur le site par une instruction Javascript.

Il a été spécialement stipulé dans leur contrat, que leurs méthodes ne devaient pas être modifiées, réutilisées ou révélées, je m'en tiendrai donc à ces constatations Smiley confus ...

Je ne sais pas, pour l'instant, à quel type de référencement ça pourrait être apparanté.

Apparament, c'est un mélange de ce qui a été précédemment cité Smiley ohwell
Modifié par Neutron (21 Mar 2006 - 13:07)
La redirection javascript est un grand classique : le javascript n'est pas "suivi" par Google mais par les navigateurs, oui. Ca permet d'indexer une page que l'internaute ne voit pas mais Google si.

Les redirections type PHP ou ASP avec un en-tête type 301 sont elles interprétées par Google : la page n'apparait plus dans l'index de Google.

Bref, les pages satellites ne sont pas si définitivement mortes que je le pensais !!
caroder a écrit :
Il y a un peu de tout :

- le classique du genre : utiliser justement les css pour mettre des div cachées bourrées de mots clés et de liens mutuels entre les sites. Pas encore sanctionné mais ça devrait tomber.

- les pages satellites (ou cloaking) avec redirection vers le vrai site : ce fut le must il y a quelques années mais depuis le blacklistage de Netbooster l'année dernière par abus de la tehnique celle-ci a quasiment disparu

- les fermes de liens : ça aussi il y a eu une mode là dessus mais c'est aussi sanctionné par Google. Le principe : créer des milliers de liens vers le site à référencer afin d'augmenter artificiellement sa popularité.

Pour trouver de l'info sur le spamdexing et le référencement, voir www.webrankinfo.com

Oui effectivement, c'est assez lamantable comme techniques ... J'avais déjà entendu parlé du cloaking et des fermes de liens sur wri justement (j'y suis membre aussi depuis un petit moment lol Smiley lol )

Mais les div cachées bourrées de mots clés, ça c'est pas mal aussi dans le genre. Encore du détournement de balise et cette fois aidé de CSS en plus ! Smiley fache
Pages :