« Un crawl est un ensemble de donnée produit par un crawler. Un crawler est un automate qui navigue tout seul sur le web, utilisant les liens présents sur les pages qu’il visite pour se déplacer. Il enregistre toutes les pages qu’il a visité, ce qui constitue le crawl. On peut ensuite visualiser le crawl avec un logiciel adapté. »