PreCurious: How Innocent Pre-Trained Language Models Turn into Privacy Traps
The pre-training and fine-tuning paradigm has demonstrated its effectiveness and has become the standard approach for tailoring language models to various tasks. Currently, community-based platforms offer easy access to various pre-trained models, as anyone can publish without strict validation proc...
Uloženo v:
| Vydáno v: | Proceedings of the ... ACM Conference on Computer and Communications Security Ročník 2024; s. 3511 |
|---|---|
| Hlavní autoři: | , , , |
| Médium: | Journal Article |
| Jazyk: | angličtina |
| Vydáno: |
United States
01.10.2024
|
| Témata: | |
| ISSN: | 1543-7221, 1543-7221 |
| On-line přístup: | Zjistit podrobnosti o přístupu |
| Tagy: |
Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
|
Buďte první, kdo okomentuje tento záznam!