SPMGAE: Self-purified masked graph autoencoders release robust expression power

To tackle the scarcity of labeled graph data, graph self-supervised learning (SSL) has branched into two paradigms: Generative methods and Contrastive methods. Inspired by MAE and BERT in computer vision (CV) and natural language processing (NLP), masked graph autoencoders (MGAEs) are gaining popula...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:Neurocomputing (Amsterdam) Ročník 611; s. 128631
Hlavní autoři: Song, Shuhan, Li, Ping, Dun, Ming, Zhang, Yuan, Cao, Huawei, Ye, Xiaochun
Médium: Journal Article
Jazyk:angličtina
Vydáno: Elsevier B.V 01.01.2025
Témata:
ISSN:0925-2312
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.