Change Detection - Pour surveiller les changements sur les sites web
Marre de rafraîchir manuellement vos pages web préférées pour guetter la moindre modification ? Pas envie de rater systématiquement une remise en stock (restock) de je ne sais quel produit en pénurie ? Alors j’ai une excellente nouvelle pour vous sous la forme d’un logiciel open source qui va vous permettre de surveiller le web en temps réel.
Cela s’appelle Change Detection, et ça permet de traquer automatiquement les modifications de pages web. Cet pitom intègre des fonctionnalités dignes des services professionnels de ce style, que vous avez peut-être déjà utilisé, tout en restant accessible aux débutants.
Commençons par ses capacités de détection… Tout d’abord, il ne se contente pas de comparer bêtement le contenu HTML des pages, non, non, non… Au contraire, il est capable d’analyser intelligemment les modifications grâce à des sélecteurs CSS et XPath précis. Vous pouvez ainsi cibler exactement la zone ou l’élément qui vous intéresse sur une page et esquiver les fausses alertes à cause d’une pub qui change !
L’outil va encore plus loin avec la prise en charge des sites dynamiques en JavaScript, des fichiers PDF, et même des API JSON/XML. Vous pourrez par exemple surveiller automatiquement les changements dans une API REST ou détecter des modifications dans un document PDF sensible. Les possibilités sont infinies !
Côté notification, c’est la fête du slip avec pas moins de 85 services supportés nativement. Discord, Slack, Telegram, email… choisissez votre canal préféré et recevez des alertes personnalisées dès qu’un changement est détecté. Vous pouvez même combiner plusieurs modes de notification pour ne rien rater.
Un exemple concret ?
Disons que vous chassez désespérément un Raspberry Pi en rupture de stock partout. Vous configurez Change Detection pour surveiller les principales boutiques, vous activez la détection intelligente de restock, et hop ! Vous recevrez une notification dès que votre précieux sera à nouveau disponible. Plus besoin de rafraîchir frénétiquement les pages toutes les 5 minutes comme un gros débilos.
Pour les utilisateurs plus avancés, l’outil propose des features particulièrement intéressantes comme les étapes de navigation automatisées. Vous pouvez ainsi programmer des séquences d’actions (login, recherche, filtres…) avant la capture du contenu. Très pratique pour surveiller des zones privées nécessitant une authentification.
L’installation se fait en un clin d’œil grâce à Docker. Une simple commande et c’est parti :
docker run -d --restart always -p "127.0.0.1:5000:5000" -v datastore-volume:/datastore --name changedetection.io dgtlmoon/changedetection.io
L’interface web est plutôt épurée : Vous ajoutez vos URLs à surveiller, configurez les paramètres de détection selon vos besoins, et laissez Change Detection faire son travail. Vous pouvez même importer des listes d’URLs en masse via Excel pour gagner du temps.
Question performances, il se montre particulièrement efficace grâce à son architecture très optimisée : Les vérifications se font à intervalle régulier (configurable) et le tout consomme très peu de ressources. Vous pouvez facilement surveiller des centaines d’URLs sans faire chauffer votre serveur.
Pour les entreprises ou ceux qui préfèrent une solution clé en main, il existe aussi une version hébergée à 8,99 $ par mois. Elle inclut des fonctionnalités supplémentaires comme l’accès à des proxies géolocalisés et le support prioritaire. Mais la version open source reste totalement fonctionnelle pour un usage personnel ou professionnel modéré.
Les cas d’utilisation sont nombreux : surveillance des prix de la concurrence, détection de changements sur des sites gouvernementaux, monitoring de documentation technique, alertes de sécurité… Pratique quand y’a pas de système d’alerte par mail ou de flux RSS.
Pour terminer, voici quelques astuces pour tirer le meilleur parti de l’outil :
- Utilisez les filtres CSS/XPath pour cibler précisément les zones à surveiller
- Activez les captures d’écran pour visualiser les changements
- Configurez des délais différents selon l’importance des URLs
- Pensez à exclure les éléments dynamiques inutiles (pubs, compteurs…)
- Testez vos règles de détection avant de les activer
Bref, que vous soyez un particulier à l’affût des bonnes affaires ou un professionnel devant monitorer des centaines de pages, cet outil saura répondre à vos besoins, j’en suis sûr !
Merci à Lorenper pour l’info !