Bonjour à toutes et tous Smiley cligne

J'ai une petite question, je suis en train de refaire le design du site internet de mon entreprise, http://forum.alsacreations.com/topic-18-62921-2-Amateur-Telepermanencech-esquisse-du-nouveau-design.html, mais je voudrais pouvoir mettre en ligne ce que j'ai déjà fais.

Comme le site internet originale est celui-ci : http://telepermanence.ch/

Je me demandais si je pouvais créer un répertoire comme ceci : telepermanence.ch/nouveau/index.html pour pouvoir montrer le nouveau design plus facilement.

Mais je ne voudrais pas que google vienne référencer cette partie, j'imagine que je dois créer un fichier robot.txt ?

Merci beaucoup d'avance !

Marc
Modifié par marc.suisse (06 Aug 2012 - 13:39)
Bonjour,

Tu peux soit utiliser un fichier robots.txt soit la meta robots sur chacune de des pages.

Par contre, certains moteurs de recherche prennent en compte cette information, d'autres non. Donc ce n'est pas une protection 100% efficace.
+1 Laurie-Anne

Il vaut mieux mettre un mot de passe par htaccess.
Modifié par jb_gfx (06 Aug 2012 - 14:40)
Bonjour à vous Smiley cligne

Bon j'ai essayé, mais j'ai une erreur serveur :

a écrit :
Internal Server Error

The server encountered an internal error or misconfiguration and was unable to complete your request.

Please contact the server administrator, info@telepermanence.ch and inform them of the time the error occurred, and anything you might have done that may have caused the error.

More information about this error may be available in the server error log.


J'ai même essayé en local avec wamp, mais cela me fais la même chose.

Le lien est le suivant : http://telepermanence.ch/nouveau/index.html

login = login

mot de passe = passe

Que pourrait-il se passer ?

Je vous remercie d'avance !

Marc
Modifié par marc.suisse (07 Aug 2012 - 12:43)
Bon il semblerait qu'il s'agisse d'un problème avec les fichiers htaccess et htpasswd.

Quand je les enlèves, cela fonctionne.

Voilà ce qui est contenu dans chacun d'eux:

a écrit :
AuthName "Page du site en développement protégé des robots"
AuthType Basic
AuthUserFile "/vdir/www.telepermanence.ch/var/www/vhosts/www.telepermanence.ch/nouveau/.htpasswd"
Require valid-user


Le chemin a été trouvé grâce au fichier chemin.php que mateo conseille dans son tuto sur le site du zéro : http://www.siteduzero.com/tutoriel-3-14649-proteger-un-dossier-avec-un-htaccess.html

a écrit :
login:passe


Une petite idée ?
Bonjour Smiley cligne

Bon finalement ne trouvant pas la solution, j'ai opté pour le fichier robots.txt.

Mais je reste intrigué de savoir pourquoi cela ne fonctionne pas...