Adversarial prompt and fine-tuning attacks threaten medical large language models

The integration of Large Language Models (LLMs) into healthcare applications offers promising advancements in medical diagnostics, treatment recommendations, and patient care. However, the susceptibility of LLMs to adversarial attacks poses a significant threat, potentially leading to harmful outcom...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Nature communications Jg. 16; H. 1; S. 9011 - 10
Hauptverfasser: Yang, Yifan, Jin, Qiao, Huang, Furong, Lu, Zhiyong
Format: Journal Article
Sprache:Englisch
Veröffentlicht: London Nature Publishing Group UK 09.10.2025
Nature Publishing Group
Nature Portfolio
Schlagworte:
ISSN:2041-1723, 2041-1723
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!