論文の概要: Fault-Tolerant Collaborative Inference through the Edge-PRUNE Framework
- arxiv url: http://arxiv.org/abs/2206.08152v1
- Date: Thu, 16 Jun 2022 13:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 16:23:04.946067
- Title: Fault-Tolerant Collaborative Inference through the Edge-PRUNE Framework
- Title(参考訳): Edge-PRUNEフレームワークによる耐故障性協調推論
- Authors: Jani Boutellier, Bo Tan, Jari Nurmi
- Abstract要約: 協調推論(Collaborative Inference)は、計算負荷の分散、レイテンシの低減、通信におけるプライバシ保護への対処のための手段である。
本稿では, フォールトトレラントな協調推論のための柔軟な基盤を提供するエッジ-PRUNE分散計算フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.984601297028258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative inference has received significant research interest in machine
learning as a vehicle for distributing computation load, reducing latency, as
well as addressing privacy preservation in communications. Recent collaborative
inference frameworks have adopted dynamic inference methodologies such as
early-exit and run-time partitioning of neural networks. However, as machine
learning frameworks scale in the number of inference inputs, e.g., in
surveillance applications, fault tolerance related to device failure needs to
be considered. This paper presents the Edge-PRUNE distributed computing
framework, built on a formally defined model of computation, which provides a
flexible infrastructure for fault tolerant collaborative inference. The
experimental section of this work shows results on achievable inference time
savings by collaborative inference, presents fault tolerant system topologies
and analyzes their cost in terms of execution time overhead.
- Abstract(参考訳): 協調推論は、計算負荷を分散し、レイテンシを低減し、通信におけるプライバシー保護に対処する手段として、機械学習に大きな研究関心を集めている。
最近の協調推論フレームワークでは、ニューラルネットワークの早期実行や実行時のパーティショニングのような動的推論手法が採用されている。
しかし、機械学習フレームワークは、例えば監視アプリケーションにおいて、推論入力の数をスケールするため、デバイス障害に関連するフォールトトレランスを考慮する必要がある。
本稿では,フォールトトレラントな協調推論のための柔軟なインフラストラクチャを提供する,形式的に定義された計算モデルに基づくエッジ・プルーン分散コンピューティングフレームワークを提案する。
本研究の実験的セクションでは、協調推論による予測時間削減の達成結果を示し、フォールトトレラントなシステムトポロジを示し、実行時間オーバーヘッドの観点からそれらのコストを分析する。
関連論文リスト
- Failure-Resilient Distributed Inference with Model Compression over Heterogeneous Edge Devices [9.423705897088672]
ヘテロジニアスエッジデバイス上でのディープニューラルネットワークベース推論タスクの局所分散実行のための堅牢な協調推論機構であるRoCoInを提案する。
分散配置のための知識蒸留を用いて、大規模なモデルから学習される、独立的でコンパクトな学生モデルのセットを作成する。
特に、デバイスは戦略的にグループ化され、同じ学生モデルを冗長にデプロイし、実行し、推論プロセスが任意のローカル障害に対して回復力を持つようにします。
論文 参考訳(メタデータ) (2024-06-20T10:43:53Z) - Graph Machine Learning based Doubly Robust Estimator for Network Causal Effects [17.44202934049009]
本稿では,グラフ機械学習アプローチとダブル機械学習フレームワークを組み合わせた新しい手法を提案する。
提案手法は,広範囲なシミュレーション研究を通じて,正確で堅牢でスケーラブルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T20:23:42Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Matched Machine Learning: A Generalized Framework for Treatment Effect
Inference With Learned Metrics [87.05961347040237]
我々は、機械学習ブラックボックスの柔軟性とマッチングの解釈可能性を組み合わせたフレームワークであるMatched Machine Learningを紹介する。
我々のフレームワークは機械学習を用いて、一致した単位を学習し、結果を推定する最適な指標を学習する。
一致機械学習のインスタンスはブラックボックスの機械学習手法と同等に動作し、類似した問題に対する既存のマッチング手法よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-04-03T19:32:30Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Communication-Computation Efficient Device-Edge Co-Inference via AutoML [4.06604174802643]
デバイスエッジのコ推論は、リソース制約のあるモバイルデバイスとエッジサーバの間のディープニューラルネットワークを分割する。
オンデバイスモデルスパーシリティレベルと中間特徴圧縮比は、ワークロードと通信オーバーヘッドに直接的な影響を与える。
深部強化学習(DRL)に基づく新しい自動機械学習(AutoML)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-30T06:36:30Z) - Estimating the Effects of Continuous-valued Interventions using
Generative Adversarial Networks [103.14809802212535]
我々は,連続的評価介入の効果を推定する問題に対処するため,GAN(Generative Adversarial Network)フレームワークを構築した。
我々のモデルであるSCIGANは柔軟であり、いくつかの異なる継続的な介入に対する対実的な結果の同時推定が可能である。
継続的な介入に移行することによって生じる課題に対処するために、差別者のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T18:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。