Bonsoir à tous,
Je cherche un outil qui me permettrait d'automatiser l'analyse et la récupération d'informations de sites internet :
- récupérer une page, y chercher des infos qui répondent à un certain schéma (info contenue dans une div de telle class, ....) --> parser --> transformer --> enrichir (geocoding par exemple, via API web) --> enregistrer (csv, sql ...)
- récupérer les images d'un site, les transformer (taille, format), les enregistrer ....
Après avoir cherché un peu, je comprend qu'il y a 3 grandes familles d'outils
- des extensions de navigateurs (iMacro)
- des services en ligne (IFTTT)
- des outils/langages qui se lancent sur le poste de travail, à base de ruby, perl, ... je m'oriente plutôt vers ce type d'outils, je pense que c'est plus puissant, flexible et rapide. J'ai trouvé des outils comme SCRAPY, PhantomJS, MEchanize
Avez-vous utilisé ces outils, qu'en pensez-vous (confort d'utilisation, possibilités, rapidité ....) afin que je m'oriente vers le bon choix.
Je cherche un outil qui me permettrait d'automatiser l'analyse et la récupération d'informations de sites internet :
- récupérer une page, y chercher des infos qui répondent à un certain schéma (info contenue dans une div de telle class, ....) --> parser --> transformer --> enrichir (geocoding par exemple, via API web) --> enregistrer (csv, sql ...)
- récupérer les images d'un site, les transformer (taille, format), les enregistrer ....
Après avoir cherché un peu, je comprend qu'il y a 3 grandes familles d'outils
- des extensions de navigateurs (iMacro)
- des services en ligne (IFTTT)
- des outils/langages qui se lancent sur le poste de travail, à base de ruby, perl, ... je m'oriente plutôt vers ce type d'outils, je pense que c'est plus puissant, flexible et rapide. J'ai trouvé des outils comme SCRAPY, PhantomJS, MEchanize
Avez-vous utilisé ces outils, qu'en pensez-vous (confort d'utilisation, possibilités, rapidité ....) afin que je m'oriente vers le bon choix.