Analysis and Classification of Websites Using Artificial Intelligence for Domain Registration Authorities ; Análisis y clasificación de páginas webs mediante inteligencia artificial para organismo de registro de dominios

Uloženo v:
Podrobná bibliografie
Název: Analysis and Classification of Websites Using Artificial Intelligence for Domain Registration Authorities ; Análisis y clasificación de páginas webs mediante inteligencia artificial para organismo de registro de dominios
Autoři: Balich, Néstor Adrián, Balich, Bernice Lourdes
Rok vydání: 2025
Sbírka: Universidad Nacional de La Plata (UNLP): SeDiCI (Servicio de Difusión de la Creación Intelectual)
Témata: Ciencias Informáticas, Scraping, OCR, Inteligencia artificial, Dominios web, Procesamiento distribuido, Artificial intelligence, Domain analysis, Distributed processing
Popis: Massive web data collection is a key task for research, cybersecurity, market analysis, and national domain registries such as NIC.ar in Argentina. However, traditional scraping techniques face increasing challenges due to dynamic websites using images, banners, and elements generated with JavaScript. This paper proposes a hybrid scraping model combining traditional static and dynamic scraping with text recognition (OCR) and object recognition powered by artificial intelligence. We implemented two softbots: one for OCR (Tesseract) and one for object recognition (YOLO) on screenshots of websites previously inaccessible via traditional methods. The system processed 50,000 domains and was able to recover information from 80% of the previously unprocessable cases. This lays the groundwork for the next stage involving supervised learning-based website classification. ; La recolección masiva de datos es una tarea crucial en ámbitos como la investigación, la seguridad y la regulación de dominios, especialmente en organismos nacionales como NIC.ar en Argentina. Sin embargo, el scraping tradicional enfrenta limitaciones ante sitios web dinámicos que presentan contenido como imágenes, banners o elementos generados por JavaScript. Este trabajo propone un modelo de scraping híbrido que complementa las técnicas estática y dinámica con reconocimiento de texto (OCR) y de objetos mediante inteligencia artificial. Se implementaron dos softbots: uno para OCR con Tesseract y otro para reconocimiento de objetos con YOLO. El sistema fue evaluado sobre un conjunto de 50.000 dominios, logrando recolectar información del 80% de los casos previamente inaccesibles. Este trabajo sienta las bases para la siguiente etapa de análisis y clasificación automática mediante aprendizaje supervisado. ; Sociedad Argentina de Informática e Investigación Operativa
Druh dokumentu: conference object
Popis souboru: application/pdf; 190-198
Jazyk: Spanish; Castilian
Relation: http://sedici.unlp.edu.ar/handle/10915/190382
Dostupnost: http://sedici.unlp.edu.ar/handle/10915/190382
Rights: http://creativecommons.org/licenses/by-nc-sa/4.0/ ; Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
Přístupové číslo: edsbas.4EE00C33
Databáze: BASE
Popis
Abstrakt:Massive web data collection is a key task for research, cybersecurity, market analysis, and national domain registries such as NIC.ar in Argentina. However, traditional scraping techniques face increasing challenges due to dynamic websites using images, banners, and elements generated with JavaScript. This paper proposes a hybrid scraping model combining traditional static and dynamic scraping with text recognition (OCR) and object recognition powered by artificial intelligence. We implemented two softbots: one for OCR (Tesseract) and one for object recognition (YOLO) on screenshots of websites previously inaccessible via traditional methods. The system processed 50,000 domains and was able to recover information from 80% of the previously unprocessable cases. This lays the groundwork for the next stage involving supervised learning-based website classification. ; La recolección masiva de datos es una tarea crucial en ámbitos como la investigación, la seguridad y la regulación de dominios, especialmente en organismos nacionales como NIC.ar en Argentina. Sin embargo, el scraping tradicional enfrenta limitaciones ante sitios web dinámicos que presentan contenido como imágenes, banners o elementos generados por JavaScript. Este trabajo propone un modelo de scraping híbrido que complementa las técnicas estática y dinámica con reconocimiento de texto (OCR) y de objetos mediante inteligencia artificial. Se implementaron dos softbots: uno para OCR con Tesseract y otro para reconocimiento de objetos con YOLO. El sistema fue evaluado sobre un conjunto de 50.000 dominios, logrando recolectar información del 80% de los casos previamente inaccesibles. Este trabajo sienta las bases para la siguiente etapa de análisis y clasificación automática mediante aprendizaje supervisado. ; Sociedad Argentina de Informática e Investigación Operativa