8791 sujets
Salut,
Si tu as la main sur la configuration du serveur, regarde du côté de la directive disable_functions.
Si tu as la main sur la configuration du serveur, regarde du côté de la directive disable_functions.
Tony Monast a écrit :
il veut protéger une page de son site contre les robots extérieurs qui utiliseraient file_get_contents pour récupérer son contenu
exact !
Tony Monast a écrit :
Ce n'est pas possible de façon efficace et sans nuire aux utilisateurs légitimes.
Pourtant j'ai déjà croisé des sites qui arrivent à ignorer un file_get_contents venu de l'extérieur, sans aucun impact sur les utilisateurs. Est-ce que c'est possible de contourner cet obstacle ?
itchi_778 a écrit :
Pourtant j'ai déjà croisé des sites qui arrivent à ignorer un file_get_contents venu de l'extérieur, sans aucun impact sur les utilisateurs. Est-ce que c'est possible de contourner cet obstacle ?
Avec un langage côté serveur, il est très facile de faire une requête HTTP classique qui simule celle d'un utilisateur légitime (referer, cookies, entêtes, etc.). Je ne vois pas comment un script pourrait faire la différence.