Adversarial prompt and fine-tuning attacks threaten medical large language models

The integration of Large Language Models (LLMs) into healthcare applications offers promising advancements in medical diagnostics, treatment recommendations, and patient care. However, the susceptibility of LLMs to adversarial attacks poses a significant threat, potentially leading to harmful outcom...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:Nature communications Ročník 16; číslo 1; s. 9011 - 10
Hlavní autoři: Yang, Yifan, Jin, Qiao, Huang, Furong, Lu, Zhiyong
Médium: Journal Article
Jazyk:angličtina
Vydáno: London Nature Publishing Group UK 09.10.2025
Nature Publishing Group
Nature Portfolio
Témata:
ISSN:2041-1723, 2041-1723
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.