Le "web scraping" est en résumé l'extraction (= "scraping") de données des sites Internet susmentionnés.
La technique utilise des logiciels spécifiques pour extraire ces informations (souvent donc des données à caractère personnel) et ensuite, le cas échéant, les stocker et les analyser. Internet recèle en effet souvent de nombreuses données pouvant être intéressantes pour l'une ou l'autre partie.
Traiter manuellement ces informations prend trop de temps et en outre, celles-ci changent régulièrement.
Le "scraping" permet donc grâce à un processus relativement automatisé de traiter (ultérieurement) des données à caractère personnel à grande échelle.
Le scraping est limité par les règles de protection des données et doit être manipulé avec précaution.