Detekcija ubačenih zlonamjernih HTML i JavaScript fragmenata u Web stranicama ; Detecting injected malicous HTML and JavaScript fragments in Web pages

Gespeichert in:
Bibliographische Detailangaben
Titel: Detekcija ubačenih zlonamjernih HTML i JavaScript fragmenata u Web stranicama ; Detecting injected malicous HTML and JavaScript fragments in Web pages
Autoren: Žukina, Tibor
Weitere Verfasser: Groš, Stjepan
Verlagsinformationen: Sveučilište u Zagrebu. Fakultet elektrotehnike i računarstva.
University of Zagreb. Faculty of Electrical Engineering and Computing.
Publikationsjahr: 2021
Bestand: Croatian Digital Theses Repository (National and University Library in Zagreb)
Schlagwörter: Web, HTML, JavaScript, zlonamjerne stranice, detekcija, asocijativna klasifikacija, statička heuristika, mehanizam bodovanja, yara pravila, malicious webpages, detection, associative classification, static heuristics, scoring mechanism, yara rules, TEHNIČKE ZNANOSTI. Računarstvo, TECHNICAL SCIENCES. Computing
Beschreibung: Uz sve načine na koje Web olakšava prijenos informacija i povećava produktivnost svakodnevnih aktivnosti u modernom svijetu, zbog zlouporabe različitih zlonamjernih dionika donosi i brojne opasnosti te rizike za sve svoje korisnike. Napadači koriste Web kako bi u njega ubacili zlonamjerni HTML i JavaScript kod uz pomoć kojeg pokušavaju direktno ili indirektno ostvariti određenu zaradu. Pravovremena detekcija takvih stranica izuzetno je bitna kako bi se zaštitili svi oni koji pristupaju Webu uz očuvanje svih prednosti koje donosi Web tehnologija. Detekcija ubačenih JavaScript i HTML fragmenata nije trivijalna te je mnoštvo predloženih metoda koje pokušavaju riješiti taj problem. Cilj svakog od predloženih algoritama je pronaći maksimalni broj zlonamjernih stranica uz minimalni broj lažno pozitivnih detekcija u minimalnom vremenu izvođenja i uz maksimalnu učinkovitost. Objasnit će se i implementirati odabrani načini detekcije ubačenih zlonamjernih HTML i JavaScript elemenata u Web stranice. Metode kojima će se rad baviti koristit će isključivo HTML Web stranice, odnosno neće imati mogućnost pristupa izvornom kodu Web aplikacije. Niti jedan učinkoviti algoritam za detekciju zlonamjernih stranica nije potpuno pouzdan i točan, odnosno svaki od njih ima određeni udio lažno pozitivnih rezultata te propušta detekciju određenog broja zlonamjernih stranica. S druge strane, klasični pristup detekcija stranica korištenjem uređaja za detekciju visoke interaktivnosti i ručnim pregledom stručnjaka za sigurnost rezultira puno većim trajanjem provjere za svaku od Web stranica. Opisani algoritmi uvode kompromis između brzine izvođenja, odnosno učinkovitosti i pouzdanosti, odnosno broja propuštenih napada i lažno pozitivnih detekcija. Algoritam zasnovan na asocijativnoj klasifikaciji (CBA) ima visoku točnost s vrlo niskom stopom lažno pozitivnih i lažno negativnih rezultata. Performanse tog algoritma uspoređene su s dobro poznatim klasifikacijskim algoritmima, uključujući support vector machine (SVM), naivni Bayes i logističku ...
Publikationsart: master thesis
Dateibeschreibung: application/pdf
Sprache: Croatian
Relation: https://zir.nsk.hr/islandora/object/fer:7856; https://urn.nsk.hr/urn:nbn:hr:168:867159; https://repozitorij.unizg.hr/islandora/object/fer:7856; https://repozitorij.unizg.hr/islandora/object/fer:7856/datastream/PDF
Verfügbarkeit: https://zir.nsk.hr/islandora/object/fer:7856
https://urn.nsk.hr/urn:nbn:hr:168:867159
https://repozitorij.unizg.hr/islandora/object/fer:7856
https://repozitorij.unizg.hr/islandora/object/fer:7856/datastream/PDF
Rights: http://rightsstatements.org/vocab/InC/1.0/ ; info:eu-repo/semantics/closedAccess
Dokumentencode: edsbas.B87872DF
Datenbank: BASE
Beschreibung
Abstract:Uz sve načine na koje Web olakšava prijenos informacija i povećava produktivnost svakodnevnih aktivnosti u modernom svijetu, zbog zlouporabe različitih zlonamjernih dionika donosi i brojne opasnosti te rizike za sve svoje korisnike. Napadači koriste Web kako bi u njega ubacili zlonamjerni HTML i JavaScript kod uz pomoć kojeg pokušavaju direktno ili indirektno ostvariti određenu zaradu. Pravovremena detekcija takvih stranica izuzetno je bitna kako bi se zaštitili svi oni koji pristupaju Webu uz očuvanje svih prednosti koje donosi Web tehnologija. Detekcija ubačenih JavaScript i HTML fragmenata nije trivijalna te je mnoštvo predloženih metoda koje pokušavaju riješiti taj problem. Cilj svakog od predloženih algoritama je pronaći maksimalni broj zlonamjernih stranica uz minimalni broj lažno pozitivnih detekcija u minimalnom vremenu izvođenja i uz maksimalnu učinkovitost. Objasnit će se i implementirati odabrani načini detekcije ubačenih zlonamjernih HTML i JavaScript elemenata u Web stranice. Metode kojima će se rad baviti koristit će isključivo HTML Web stranice, odnosno neće imati mogućnost pristupa izvornom kodu Web aplikacije. Niti jedan učinkoviti algoritam za detekciju zlonamjernih stranica nije potpuno pouzdan i točan, odnosno svaki od njih ima određeni udio lažno pozitivnih rezultata te propušta detekciju određenog broja zlonamjernih stranica. S druge strane, klasični pristup detekcija stranica korištenjem uređaja za detekciju visoke interaktivnosti i ručnim pregledom stručnjaka za sigurnost rezultira puno većim trajanjem provjere za svaku od Web stranica. Opisani algoritmi uvode kompromis između brzine izvođenja, odnosno učinkovitosti i pouzdanosti, odnosno broja propuštenih napada i lažno pozitivnih detekcija. Algoritam zasnovan na asocijativnoj klasifikaciji (CBA) ima visoku točnost s vrlo niskom stopom lažno pozitivnih i lažno negativnih rezultata. Performanse tog algoritma uspoređene su s dobro poznatim klasifikacijskim algoritmima, uključujući support vector machine (SVM), naivni Bayes i logističku ...