論文の概要: Fluid Dynamic DNNs for Reliable and Adaptive Distributed Inference on
Edge Devices
- arxiv url: http://arxiv.org/abs/2401.08943v1
- Date: Wed, 17 Jan 2024 03:34:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 17:15:12.298925
- Title: Fluid Dynamic DNNs for Reliable and Adaptive Distributed Inference on
Edge Devices
- Title(参考訳): エッジデバイス上での信頼性および適応分散推論のための流体動的DNN
- Authors: Lei Xun, Mingyu Hu, Hengrui Zhao, Amit Kumar Singh, Jonathon Hare,
Geoff V. Merrett
- Abstract要約: 分散推論に適したFluid DyDNN(Fluid DyDNN)を紹介する。
静的DNNと動的DNNとは別として、Fluid DyDNNは、新しいネスティングインクリメンタルトレーニングアルゴリズムを使用して、サブネットワークの独立および統合操作を可能にする。
デバイスが完全に動作している場合、Fluid DyDNNは、Static DNNと同等の精度で、またはHigh-Throughputモードで動作でき、StaticとDynamic DNNと比較して2.5倍と2倍のスループットを達成できる。
- 参考スコア(独自算出の注目度): 10.008388878255538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed inference is a popular approach for efficient DNN inference at
the edge. However, traditional Static and Dynamic DNNs are not
distribution-friendly, causing system reliability and adaptability issues. In
this paper, we introduce Fluid Dynamic DNNs (Fluid DyDNNs), tailored for
distributed inference. Distinct from Static and Dynamic DNNs, Fluid DyDNNs
utilize a novel nested incremental training algorithm to enable independent and
combined operation of its sub-networks, enhancing system reliability and
adaptability. Evaluation on embedded Arm CPUs with a DNN model and the MNIST
dataset, shows that in scenarios of single device failure, Fluid DyDNNs ensure
continued inference, whereas Static and Dynamic DNNs fail. When devices are
fully operational, Fluid DyDNNs can operate in either a High-Accuracy mode and
achieve comparable accuracy with Static DNNs, or in a High-Throughput mode and
achieve 2.5x and 2x throughput compared with Static and Dynamic DNNs,
respectively.
- Abstract(参考訳): 分散推論は、エッジでの効率的なDNN推論のための一般的なアプローチである。
しかし、従来の静的および動的dnnは分散に優しいものではなく、システムの信頼性と適応性の問題を引き起こす。
本稿では,分散推論に適したFluid Dynamic DNN(Fluid DyDNN)を提案する。
静的および動的dnnとは異なり、fluid dydnnsは、新しいネスト化インクリメンタルトレーニングアルゴリズムを使用して、サブネットワークの独立および組み合わせ操作を可能にし、システムの信頼性と適応性を高める。
DNNモデルとMNISTデータセットによる組込みArm CPUの評価では、単一デバイス障害のシナリオでは、Fluid DyDNNは継続推論を保証し、静的および動的DNNは失敗する。
デバイスが完全に動作している場合、流体dydnnは高精度モードのいずれかで動作でき、静的dnnと同等の精度を達成でき、また高スループットモードでも2.5倍と2倍のスループットを達成できる。
関連論文リスト
- Control-Theoretic Techniques for Online Adaptation of Deep Neural
Networks in Dynamical Systems [0.0]
ディープニューラルネットワーク(DNN)は現在、現代の人工知能、機械学習、データサイエンスの主要なツールである。
多くのアプリケーションでは、DNNは教師付き学習や強化学習を通じてオフラインでトレーニングされ、推論のためにオンラインにデプロイされる。
制御理論からDNNパラメータをオンラインで更新する手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T16:51:11Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Dynamic Neural Network is All You Need: Understanding the Robustness of
Dynamic Mechanisms in Neural Networks [10.225238909616104]
我々は,DyNNにおける動的機構のロバスト性および動的機構設計がDyNNのロバスト性に与える影響について検討する。
我々は,DyNNからSDNNへの攻撃伝達性が,SDNNからDyNNへの攻撃伝達可能性よりも高いことを発見した。
また、DyNNsはSDNNsよりも効率的に敵のサンプルを生成することができる。
論文 参考訳(メタデータ) (2023-08-17T00:15:11Z) - Uncertainty-aware deep learning for digital twin-driven monitoring:
Application to fault detection in power lines [0.0]
ディープニューラルネットワーク(DNN)はしばしば物理ベースのモデルやデータ駆動サロゲートモデルと結合され、低データ状態のシステムの障害検出と健康モニタリングを行う。
これらのモデルは、生成されたデータに伝播するパラメトリック不確実性を示すことができる。
本稿では,これら2つの不確実性源がDNNの性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2023-03-20T09:27:58Z) - Taming Reachability Analysis of DNN-Controlled Systems via
Abstraction-Based Training [14.787056022080625]
本稿では, 到達可能性解析における過剰近似DNNの欠如を回避するための, 抽象的アプローチを提案する。
我々は、実数をトレーニングの間隔に抽象化する抽象層を挿入することで、従来のDNNを拡張した。
我々は、DNN制御システムに対する最初のブラックボックス到達可能性分析手法を考案し、訓練されたDNNは抽象状態に対するアクションのためのブラックボックスオラクルとしてのみクエリされる。
論文 参考訳(メタデータ) (2022-11-21T00:11:50Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。