Variational Prefix Tuning for diverse and accurate code summarization using pre-trained language models

Recent advancements in source code summarization have leveraged transformer-based pre-trained models, including Large Language Models of Code (LLMCs), to automate and improve the generation of code summaries. However, existing methods often focus on generating a single high-quality summary for a giv...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:The Journal of systems and software Ročník 229; s. 112493
Hlavní autoři: Zhao, Junda, Song, Yuliang, Cohen, Eldan
Médium: Journal Article
Jazyk:angličtina
Vydáno: Elsevier Inc 01.11.2025
Témata:
ISSN:0164-1212
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.