Le web scraping est une technique permettant l'extraction des données d'un site via un programme, un logiciel automatique ou un autre site
L’objectif est donc d’extraire le contenu d’une page d’un site de façon structurée. Le scraping permet ainsi de pouvoir réutiliser ces données.

Les robots des moteurs de recherche explorent un site, analysent son contenu, puis le classent.

Sites de comparaison de prix qui implémentent des robots pour obtenir automatiquement les prix et les descriptions de produits pour les sites web

Sociétés d’études de marché qui l’utilisent pour extraire des données des forums et des réseaux sociaux.