PreCurious: How Innocent Pre-Trained Language Models Turn into Privacy Traps

The pre-training and fine-tuning paradigm has demonstrated its effectiveness and has become the standard approach for tailoring language models to various tasks. Currently, community-based platforms offer easy access to various pre-trained models, as anyone can publish without strict validation proc...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:Proceedings of the ... ACM Conference on Computer and Communications Security Ročník 2024; s. 3511
Hlavní autoři: Liu, Ruixuan, Wang, Tianhao, Cao, Yang, Xiong, Li
Médium: Journal Article
Jazyk:angličtina
Vydáno: United States 01.10.2024
Témata:
ISSN:1543-7221, 1543-7221
On-line přístup:Zjistit podrobnosti o přístupu
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.