論文の概要: RankMap: Priority-Aware Multi-DNN Manager for Heterogeneous Embedded Devices
- arxiv url: http://arxiv.org/abs/2411.17867v1
- Date: Tue, 26 Nov 2024 20:34:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:25:03.217597
- Title: RankMap: Priority-Aware Multi-DNN Manager for Heterogeneous Embedded Devices
- Title(参考訳): RankMap: 不均一な組み込みデバイスのための優先順位対応マルチDNNマネージャ
- Authors: Andreas Karatzas, Dimitrios Stamoulis, Iraklis Anagnostopoulos,
- Abstract要約: RankMapは、不均一な組み込みデバイス上でのマルチDNNタスク用に特別に設計された優先順位対応のマネージャである。
RankMapは既存の手法に比べて平均スループットがx3.6であることを示す実験結果が得られた。
- 参考スコア(独自算出の注目度): 0.4892336375235669
- License:
- Abstract: Modern edge data centers simultaneously handle multiple Deep Neural Networks (DNNs), leading to significant challenges in workload management. Thus, current management systems must leverage the architectural heterogeneity of new embedded systems to efficiently handle multi-DNN workloads. This paper introduces RankMap, a priority-aware manager specifically designed for multi-DNN tasks on heterogeneous embedded devices. RankMap addresses the extensive solution space of multi-DNN mapping through stochastic space exploration combined with a performance estimator. Experimental results show that RankMap achieves x3.6 higher average throughput compared to existing methods, while preventing DNN starvation under heavy workloads and improving the prioritization of specified DNNs by x57.5.
- Abstract(参考訳): 現代のエッジデータセンタは、複数のDeep Neural Networks(DNN)を同時に処理する。
したがって、現在の管理システムは、マルチDNNワークロードを効率的に処理するために、新しい組み込みシステムのアーキテクチャ上の不均一性を活用する必要がある。
本稿では,不均一な組み込みデバイス上でのマルチDNNタスクに特化して設計された優先度対応マネージャであるRangeMapを紹介する。
RankMapは、確率空間探索と性能推定器を組み合わせたマルチDNNマッピングの広範な解空間に対処する。
実験の結果、RangeMapは既存の方法に比べて平均スループットがx3.6向上し、重負荷下でのDNNの飢餓を防ぎ、x57.5で指定されたDNNの優先順位を向上した。
関連論文リスト
- Heterogeneous Resource Allocation with Multi-task Learning for Wireless Networks [22.52809431518314]
マルチタスク学習(MTL)フレームワークを提案し、単一のディープニューラルネットワーク(DNN)が様々な最適化問題を共同で解決できるようにする。
本フレームワークでは, 異なる次元値, 目的値, 制約値の最適化問題を, 個別のタスクとして扱う。
計算結果から,多種多様な最適化問題の解法におけるMTL手法の有効性が示された。
論文 参考訳(メタデータ) (2025-02-14T09:13:33Z) - ISDNN: A Deep Neural Network for Channel Estimation in Massive MIMO systems [0.5917100081691199]
チャネル推定のためのシングルステップディープニューラルネットワーク(DNN)を提案する。
ISDNNは、データ検出アルゴリズムの最近の発展にインスパイアされている。
別のDNNベースのCE(DetNet)よりも、トレーニング時間、実行時間、正確性においてはるかに優れています。
論文 参考訳(メタデータ) (2024-10-26T07:44:46Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - OmniBoost: Boosting Throughput of Heterogeneous Embedded Devices under
Multi-DNN Workload [0.456877715768796]
現代のディープニューラルネットワーク(DNN)は、高い効率性と正確性を示している。
現在の組み込みシステムはアーキテクチャ上の不均一性を示しており、現在のランタイムコントローラでは十分に利用できない。
異種組み込みデバイスのための軽量マルチDNNマネージャであるOmniBoostを提案する。
論文 参考訳(メタデータ) (2023-07-06T21:01:03Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Dynamic DNN Decomposition for Lossless Synergistic Inference [0.9549013615433989]
ディープニューラルネットワーク(DNN)は、今日のデータ処理アプリケーションで高性能を維持します。
精度損失のない相乗的推論のための動的DNN分解システムD3を提案する。
d3は最先端のdnn推論時間を最大3.4倍に上回り、バックボーンネットワーク通信のオーバーヘッドを3.68倍に削減する。
論文 参考訳(メタデータ) (2021-01-15T03:18:53Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。