Training Compact DNNs with ℓ1/2 Regularization

•We propose a network compression model based on ℓ1/2 regularization. To the best of our knowledge, it is the first work utilizing non-Lipschitz continuous regularization to compress DNNs.•We strictly prove the correspondence between ℓp(0<p<1) and Hyper-Laplacian prior. Based on this prior, we...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Pattern recognition Jg. 136
Hauptverfasser: Tang, Anda, Niu, Lingfeng, Miao, Jianyu, Zhang, Peng
Format: Journal Article
Sprache:Englisch
Veröffentlicht: Elsevier Ltd 01.04.2023
Schlagworte:
ISSN:0031-3203, 1873-5142
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!