Detekcija ubačenih zlonamjernih HTML i JavaScript fragmenata u Web stranicama ; Detecting injected malicous HTML and JavaScript fragments in Web pages
Gespeichert in:
| Titel: | Detekcija ubačenih zlonamjernih HTML i JavaScript fragmenata u Web stranicama ; Detecting injected malicous HTML and JavaScript fragments in Web pages |
|---|---|
| Autoren: | Žukina, Tibor |
| Weitere Verfasser: | Groš, Stjepan |
| Verlagsinformationen: | Sveučilište u Zagrebu. Fakultet elektrotehnike i računarstva. University of Zagreb. Faculty of Electrical Engineering and Computing. |
| Publikationsjahr: | 2021 |
| Bestand: | Croatian Digital Theses Repository (National and University Library in Zagreb) |
| Schlagwörter: | Web, HTML, JavaScript, zlonamjerne stranice, detekcija, asocijativna klasifikacija, statička heuristika, mehanizam bodovanja, yara pravila, malicious webpages, detection, associative classification, static heuristics, scoring mechanism, yara rules, TEHNIČKE ZNANOSTI. Računarstvo, TECHNICAL SCIENCES. Computing |
| Beschreibung: | Uz sve načine na koje Web olakšava prijenos informacija i povećava produktivnost svakodnevnih aktivnosti u modernom svijetu, zbog zlouporabe različitih zlonamjernih dionika donosi i brojne opasnosti te rizike za sve svoje korisnike. Napadači koriste Web kako bi u njega ubacili zlonamjerni HTML i JavaScript kod uz pomoć kojeg pokušavaju direktno ili indirektno ostvariti određenu zaradu. Pravovremena detekcija takvih stranica izuzetno je bitna kako bi se zaštitili svi oni koji pristupaju Webu uz očuvanje svih prednosti koje donosi Web tehnologija. Detekcija ubačenih JavaScript i HTML fragmenata nije trivijalna te je mnoštvo predloženih metoda koje pokušavaju riješiti taj problem. Cilj svakog od predloženih algoritama je pronaći maksimalni broj zlonamjernih stranica uz minimalni broj lažno pozitivnih detekcija u minimalnom vremenu izvođenja i uz maksimalnu učinkovitost. Objasnit će se i implementirati odabrani načini detekcije ubačenih zlonamjernih HTML i JavaScript elemenata u Web stranice. Metode kojima će se rad baviti koristit će isključivo HTML Web stranice, odnosno neće imati mogućnost pristupa izvornom kodu Web aplikacije. Niti jedan učinkoviti algoritam za detekciju zlonamjernih stranica nije potpuno pouzdan i točan, odnosno svaki od njih ima određeni udio lažno pozitivnih rezultata te propušta detekciju određenog broja zlonamjernih stranica. S druge strane, klasični pristup detekcija stranica korištenjem uređaja za detekciju visoke interaktivnosti i ručnim pregledom stručnjaka za sigurnost rezultira puno većim trajanjem provjere za svaku od Web stranica. Opisani algoritmi uvode kompromis između brzine izvođenja, odnosno učinkovitosti i pouzdanosti, odnosno broja propuštenih napada i lažno pozitivnih detekcija. Algoritam zasnovan na asocijativnoj klasifikaciji (CBA) ima visoku točnost s vrlo niskom stopom lažno pozitivnih i lažno negativnih rezultata. Performanse tog algoritma uspoređene su s dobro poznatim klasifikacijskim algoritmima, uključujući support vector machine (SVM), naivni Bayes i logističku ... |
| Publikationsart: | master thesis |
| Dateibeschreibung: | application/pdf |
| Sprache: | Croatian |
| Relation: | https://zir.nsk.hr/islandora/object/fer:7856; https://urn.nsk.hr/urn:nbn:hr:168:867159; https://repozitorij.unizg.hr/islandora/object/fer:7856; https://repozitorij.unizg.hr/islandora/object/fer:7856/datastream/PDF |
| Verfügbarkeit: | https://zir.nsk.hr/islandora/object/fer:7856 https://urn.nsk.hr/urn:nbn:hr:168:867159 https://repozitorij.unizg.hr/islandora/object/fer:7856 https://repozitorij.unizg.hr/islandora/object/fer:7856/datastream/PDF |
| Rights: | http://rightsstatements.org/vocab/InC/1.0/ ; info:eu-repo/semantics/closedAccess |
| Dokumentencode: | edsbas.B87872DF |
| Datenbank: | BASE |
| Abstract: | Uz sve načine na koje Web olakšava prijenos informacija i povećava produktivnost svakodnevnih aktivnosti u modernom svijetu, zbog zlouporabe različitih zlonamjernih dionika donosi i brojne opasnosti te rizike za sve svoje korisnike. Napadači koriste Web kako bi u njega ubacili zlonamjerni HTML i JavaScript kod uz pomoć kojeg pokušavaju direktno ili indirektno ostvariti određenu zaradu. Pravovremena detekcija takvih stranica izuzetno je bitna kako bi se zaštitili svi oni koji pristupaju Webu uz očuvanje svih prednosti koje donosi Web tehnologija. Detekcija ubačenih JavaScript i HTML fragmenata nije trivijalna te je mnoštvo predloženih metoda koje pokušavaju riješiti taj problem. Cilj svakog od predloženih algoritama je pronaći maksimalni broj zlonamjernih stranica uz minimalni broj lažno pozitivnih detekcija u minimalnom vremenu izvođenja i uz maksimalnu učinkovitost. Objasnit će se i implementirati odabrani načini detekcije ubačenih zlonamjernih HTML i JavaScript elemenata u Web stranice. Metode kojima će se rad baviti koristit će isključivo HTML Web stranice, odnosno neće imati mogućnost pristupa izvornom kodu Web aplikacije. Niti jedan učinkoviti algoritam za detekciju zlonamjernih stranica nije potpuno pouzdan i točan, odnosno svaki od njih ima određeni udio lažno pozitivnih rezultata te propušta detekciju određenog broja zlonamjernih stranica. S druge strane, klasični pristup detekcija stranica korištenjem uređaja za detekciju visoke interaktivnosti i ručnim pregledom stručnjaka za sigurnost rezultira puno većim trajanjem provjere za svaku od Web stranica. Opisani algoritmi uvode kompromis između brzine izvođenja, odnosno učinkovitosti i pouzdanosti, odnosno broja propuštenih napada i lažno pozitivnih detekcija. Algoritam zasnovan na asocijativnoj klasifikaciji (CBA) ima visoku točnost s vrlo niskom stopom lažno pozitivnih i lažno negativnih rezultata. Performanse tog algoritma uspoređene su s dobro poznatim klasifikacijskim algoritmima, uključujući support vector machine (SVM), naivni Bayes i logističku ... |
|---|
Nájsť tento článok vo Web of Science