DNN Partitioning for Inference Throughput Acceleration at the Edge

Deep neural network (DNN) inference on streaming data requires computing resources to satisfy inference throughput requirements. However, latency and privacy sensitive deep learning applications cannot afford to offload computation to remote clouds because of the implied transmission cost and lack o...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:IEEE access Ročník 11; s. 52236 - 52249
Hlavní autoři: Feltin, Thomas, Marcho, Leo, Cordero-Fuertes, Juan-Antonio, Brockners, Frank, Clausen, Thomas H.
Médium: Journal Article
Jazyk:angličtina
Vydáno: Piscataway IEEE 01.01.2023
The Institute of Electrical and Electronics Engineers, Inc. (IEEE)
Témata:
ISSN:2169-3536, 2169-3536
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.