Résumé:
Un robot d’indexation est un programme d’exploration utilisé par le web pour rechercher et indexer dans les bases de données les nouveaux sites, les nouvelles pages et les pages modifiées. Les robots d’indexation se rendent sur les pages, les lisent, et suivent les liens hypertextes afin de collecter les informations des pages sous forme de métadonnées, pour ordonner les résultats de recherche en fonction de leur pertinence.
Cependant, avec le développement croissant d’Internet, les applications web sont devenues de plus en plus vulnérables et exposées à des attaques malveillantes pouvant porter atteinte à des propriétés essentielles telles que la confidentialité, l’intégrité ou la disponibilité des systèmes d’information. Pour faire face à ces malveillances, il est nécessaire de développer des mécanismes de protection et de test (tel que le crawler web) qui soient efficaces. De plus, le robot proposé doit être silencieux pour ne pas gêner les fournisseurs de services, mais doit gérer la priorité des services dans un délai raisonnable.
Dans ce travail, nous essayons de proposer une solution qui consiste à concevoir et à développer un robot web pour récupérer les clés publiques et certificats des services Internet afin de remédier aux problèmes cités.