論文の概要: DRAGON: Decentralized Fault Tolerance in Edge Federations
- arxiv url: http://arxiv.org/abs/2208.07658v1
- Date: Tue, 16 Aug 2022 10:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:53:52.400870
- Title: DRAGON: Decentralized Fault Tolerance in Edge Federations
- Title(参考訳): DRAGON:エッジフェデレーションにおける分散型フォールトトレランス
- Authors: Shreshth Tuli and Giuliano Casale and Nicholas R. Jennings
- Abstract要約: 我々は、新しいメモリ効率のディープラーニングベースモデル、すなわち生成最適化ネットワーク(GON)を提案する。
GONは入力とサンプルを区別するために単一のネットワークを使用し、メモリフットプリントを大幅に削減する。
本稿では,エッジフェデレーションの性能を迅速に予測し,最適化するためにシミュレーションを実行するDRAGONと呼ばれる分散型フォールトトレランス手法を提案する。
- 参考スコア(独自算出の注目度): 13.864161788250856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Edge Federation is a new computing paradigm that seamlessly interconnects the
resources of multiple edge service providers. A key challenge in such systems
is the deployment of latency-critical and AI based resource-intensive
applications in constrained devices. To address this challenge, we propose a
novel memory-efficient deep learning based model, namely generative
optimization networks (GON). Unlike GANs, GONs use a single network to both
discriminate input and generate samples, significantly reducing their memory
footprint. Leveraging the low memory footprint of GONs, we propose a
decentralized fault-tolerance method called DRAGON that runs simulations (as
per a digital modeling twin) to quickly predict and optimize the performance of
the edge federation. Extensive experiments with real-world edge computing
benchmarks on multiple Raspberry-Pi based federated edge configurations show
that DRAGON can outperform the baseline methods in fault-detection and Quality
of Service (QoS) metrics. Specifically, the proposed method gives higher F1
scores for fault-detection than the best deep learning (DL) method, while
consuming lower memory than the heuristic methods. This allows for improvement
in energy consumption, response time and service level agreement violations by
up to 74, 63 and 82 percent, respectively.
- Abstract(参考訳): Edge Federationは、複数のエッジサービスプロバイダのリソースをシームレスに相互接続する、新しいコンピューティングパラダイムである。
このようなシステムにおける重要な課題は、制約のあるデバイスにレイテンシクリティカルでAIベースのリソース集約型のアプリケーションをデプロイすることだ。
そこで本研究では,新しいメモリ効率の高い深層学習モデルである生成最適化ネットワーク(gon)を提案する。
GANとは異なり、GONは入力とサンプルの生成を区別するために単一のネットワークを使用し、メモリフットプリントを大幅に削減する。
GONの低メモリフットプリントを活用したDRAGONと呼ばれる分散フォールトトレランス手法を提案し、シミュレーション(デジタルモデリングツインなど)を行い、エッジフェデレーションの性能を迅速に予測し最適化する。
複数のraspberry-piベースのフェデレーションエッジ構成における実世界のエッジコンピューティングベンチマークによる広範な実験は、dragonがフォールト検出およびqos(quality of service)メトリクスのベースラインメソッドを上回っていることを示している。
具体的には,本提案手法は,最良深層学習(DL)法よりも高いF1スコアを与えるとともに,ヒューリスティック手法よりも低メモリを消費する。
これにより、エネルギー消費量、応答時間、サービスレベルの合意違反をそれぞれ74、63、82パーセント改善することができる。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Heterogeneity-Aware Resource Allocation and Topology Design for Hierarchical Federated Edge Learning [9.900317349372383]
Federated Learning (FL)は、モバイルデバイス上で機械学習モデルをトレーニングするためのプライバシー保護フレームワークを提供する。
従来のFLアルゴリズム、例えばFedAvgはこれらのデバイスに重い通信負荷を課す。
エッジデバイスをエッジサーバに接続し,エッジサーバをピアツーピア(P2P)エッジバックホールを介して相互接続する2層HFELシステムを提案する。
我々の目標は、戦略的資源配分とトポロジ設計により、HFELシステムの訓練効率を向上させることである。
論文 参考訳(メタデータ) (2024-09-29T01:48:04Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Binary Early-Exit Network for Adaptive Inference on Low-Resource Devices [3.591566487849146]
バイナリニューラルネットワーク(BNN)は、実数値モデルと比較して、極端な圧縮とスピードアップによる問題に対処する。
そこで本研究では,BNNを早期導入戦略で統合して推論を高速化する,シンプルだが効果的な手法を提案する。
このアプローチでは、決定しきい値に基づいて単純なインスタンスを早期に終了させ、異なる中間層に追加される出力層を利用してバイナリモデル全体の実行を回避する。
論文 参考訳(メタデータ) (2022-06-17T22:11:11Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Generative Optimization Networks for Memory Efficient Data Generation [11.452816167207937]
本稿では,生成最適化ネットワーク(GON)と呼ばれる新しいフレームワークを提案する。
GONは単一の識別器ネットワークを使用し、入力空間で最適化を行い、新しいデータサンプルを生成し、トレーニング時間とメモリ消費の効果的な妥協を実現する。
我々のフレームワークでは、検出F1スコアが最大で32%、メモリ消費が58%、トレーニングオーバーヘッドが最先端と比較してわずか5%高いことが示されています。
論文 参考訳(メタデータ) (2021-10-06T16:54:33Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。