Analysis and Classification of Websites Using Artificial Intelligence for Domain Registration Authorities ; Análisis y clasificación de páginas webs mediante inteligencia artificial para organismo de registro de dominios

Saved in:
Bibliographic Details
Title: Analysis and Classification of Websites Using Artificial Intelligence for Domain Registration Authorities ; Análisis y clasificación de páginas webs mediante inteligencia artificial para organismo de registro de dominios
Authors: Balich, Néstor Adrián, Balich, Bernice Lourdes
Publication Year: 2025
Collection: Universidad Nacional de La Plata (UNLP): SeDiCI (Servicio de Difusión de la Creación Intelectual)
Subject Terms: Ciencias Informáticas, Scraping, OCR, Inteligencia artificial, Dominios web, Procesamiento distribuido, Artificial intelligence, Domain analysis, Distributed processing
Description: Massive web data collection is a key task for research, cybersecurity, market analysis, and national domain registries such as NIC.ar in Argentina. However, traditional scraping techniques face increasing challenges due to dynamic websites using images, banners, and elements generated with JavaScript. This paper proposes a hybrid scraping model combining traditional static and dynamic scraping with text recognition (OCR) and object recognition powered by artificial intelligence. We implemented two softbots: one for OCR (Tesseract) and one for object recognition (YOLO) on screenshots of websites previously inaccessible via traditional methods. The system processed 50,000 domains and was able to recover information from 80% of the previously unprocessable cases. This lays the groundwork for the next stage involving supervised learning-based website classification. ; La recolección masiva de datos es una tarea crucial en ámbitos como la investigación, la seguridad y la regulación de dominios, especialmente en organismos nacionales como NIC.ar en Argentina. Sin embargo, el scraping tradicional enfrenta limitaciones ante sitios web dinámicos que presentan contenido como imágenes, banners o elementos generados por JavaScript. Este trabajo propone un modelo de scraping híbrido que complementa las técnicas estática y dinámica con reconocimiento de texto (OCR) y de objetos mediante inteligencia artificial. Se implementaron dos softbots: uno para OCR con Tesseract y otro para reconocimiento de objetos con YOLO. El sistema fue evaluado sobre un conjunto de 50.000 dominios, logrando recolectar información del 80% de los casos previamente inaccesibles. Este trabajo sienta las bases para la siguiente etapa de análisis y clasificación automática mediante aprendizaje supervisado. ; Sociedad Argentina de Informática e Investigación Operativa
Document Type: conference object
File Description: application/pdf; 190-198
Language: Spanish; Castilian
Relation: http://sedici.unlp.edu.ar/handle/10915/190382
Availability: http://sedici.unlp.edu.ar/handle/10915/190382
Rights: http://creativecommons.org/licenses/by-nc-sa/4.0/ ; Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
Accession Number: edsbas.4EE00C33
Database: BASE
Description
Abstract:Massive web data collection is a key task for research, cybersecurity, market analysis, and national domain registries such as NIC.ar in Argentina. However, traditional scraping techniques face increasing challenges due to dynamic websites using images, banners, and elements generated with JavaScript. This paper proposes a hybrid scraping model combining traditional static and dynamic scraping with text recognition (OCR) and object recognition powered by artificial intelligence. We implemented two softbots: one for OCR (Tesseract) and one for object recognition (YOLO) on screenshots of websites previously inaccessible via traditional methods. The system processed 50,000 domains and was able to recover information from 80% of the previously unprocessable cases. This lays the groundwork for the next stage involving supervised learning-based website classification. ; La recolección masiva de datos es una tarea crucial en ámbitos como la investigación, la seguridad y la regulación de dominios, especialmente en organismos nacionales como NIC.ar en Argentina. Sin embargo, el scraping tradicional enfrenta limitaciones ante sitios web dinámicos que presentan contenido como imágenes, banners o elementos generados por JavaScript. Este trabajo propone un modelo de scraping híbrido que complementa las técnicas estática y dinámica con reconocimiento de texto (OCR) y de objetos mediante inteligencia artificial. Se implementaron dos softbots: uno para OCR con Tesseract y otro para reconocimiento de objetos con YOLO. El sistema fue evaluado sobre un conjunto de 50.000 dominios, logrando recolectar información del 80% de los casos previamente inaccesibles. Este trabajo sienta las bases para la siguiente etapa de análisis y clasificación automática mediante aprendizaje supervisado. ; Sociedad Argentina de Informática e Investigación Operativa