論文の概要: E-Tree Learning: A Novel Decentralized Model Learning Framework for Edge
AI
- arxiv url: http://arxiv.org/abs/2008.01553v2
- Date: Thu, 14 Jan 2021 05:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:06:30.905249
- Title: E-Tree Learning: A Novel Decentralized Model Learning Framework for Edge
AI
- Title(参考訳): E-Tree Learning:エッジAIのための新しい分散モデル学習フレームワーク
- Authors: Lei Yang, Yanyan Lu, Jiannong Cao, Jiaming Huang, Mingjin Zhang
- Abstract要約: エッジ強化AI、すなわちエッジAIは、データソースに近いネットワークエッジでのAIモデル学習とデプロイメントをサポートするために提案されている。
本稿では,エッジデバイスによく設計された木構造を利用した分散モデル学習手法,すなわちE-Treeを提案する。
- 参考スコア(独自算出の注目度): 18.53971408174349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, AI models are trained on the central cloud with data collected
from end devices. This leads to high communication cost, long response time and
privacy concerns. Recently Edge empowered AI, namely Edge AI, has been proposed
to support AI model learning and deployment at the network edge closer to the
data sources. Existing research including federated learning adopts a
centralized architecture for model learning where a central server aggregates
the model updates from the clients/workers. The centralized architecture has
drawbacks such as performance bottleneck, poor scalability and single point of
failure. In this paper, we propose a novel decentralized model learning
approach, namely E-Tree, which makes use of a well-designed tree structure
imposed on the edge devices. The tree structure and the locations and orders of
aggregation on the tree are optimally designed to improve the training
convergency and model accuracy. In particular, we design an efficient device
clustering algorithm, named by KMA, for E-Tree by taking into account the data
distribution on the devices as well as the the network distance. Evaluation
results show E-Tree significantly outperforms the benchmark approaches such as
federated learning and Gossip learning under NonIID data in terms of model
accuracy and convergency.
- Abstract(参考訳): 従来、aiモデルは中央クラウドでトレーニングされ、エンドデバイスからデータを収集する。
これにより、通信コスト、応答時間、プライバシの懸念が高まる。
最近、エッジ強化AI、すなわちエッジAIは、データソースに近いネットワークエッジでのAIモデル学習とデプロイメントをサポートするために提案されている。
フェデレーション学習を含む既存の研究では、中央サーバがクライアント/労働者からモデル更新を集約するモデル学習のための集中型アーキテクチャを採用している。
集中型アーキテクチャには、パフォーマンスボトルネック、スケーラビリティの低下、単一障害点などの欠点がある。
本稿では,エッジデバイスによく設計された木構造を利用した分散モデル学習手法,すなわちE-Treeを提案する。
木構造と木上のアグリゲーションの位置と順序は、トレーニング収束性とモデルの精度を向上させるために最適に設計されている。
特に、デバイス上のデータ分布とネットワーク距離を考慮し、KMAによって命名された効率的なデバイスクラスタリングアルゴリズムをE-Tree向けに設計する。
評価結果から,E-Treeはモデル精度と収束度の観点から,非IIDデータ下でのフェデレーション学習やゴシップ学習などのベンチマーク手法よりも有意に優れていた。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Federated Learning Architectures: A Performance Evaluation with Crop Yield Prediction Application [22.173280246644044]
本稿では,長期記憶ネットワークに基づく収量予測のための集中型・分散型フェデレーション学習フレームワークを実装した。
2つのフレームワークのパフォーマンスは、予測精度、精度、リコール、F1スコア、トレーニング時間の観点から評価される。
論文 参考訳(メタデータ) (2024-08-06T07:05:56Z) - EdgeConvEns: Convolutional Ensemble Learning for Edge Intelligence [0.0]
Deep Edge Intelligenceは、計算能力に制限のあるエッジネットワークに、計算に高価なトレーニングを必要とするディープラーニングモデルをデプロイすることを目的としている。
本研究では、エッジ上の不均一な弱モデルを訓練し、エッジ上のデータが不均一に分散されている場所でアンサンブルを学習する、EdgeConvEnsという畳み込み型アンサンブル学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T20:07:32Z) - NCART: Neural Classification and Regression Tree for Tabular Data [0.5439020425819]
NCARTはResidual Networksの修正版で、完全に接続されたレイヤを複数の識別不能な決定木で置き換える。
ニューラルネットワークのエンドツーエンド能力の恩恵を受けながら、解釈可能性を維持している。
NCARTアーキテクチャの単純さは、さまざまなサイズのデータセットに適している。
論文 参考訳(メタデータ) (2023-07-23T01:27:26Z) - Privacy-Preserving Ensemble Infused Enhanced Deep Neural Network
Framework for Edge Cloud Convergence [18.570317928688606]
本稿では,プライバシー保護のための深層ニューラルネットワーク(DNN)に基づく学習フレームワークを提案する。
収束において、エッジサーバは、IoT生成されたバイオイメージの保存と、ローカルモデルのトレーニングのためのホスティングアルゴリズムの両方に使用される。
提案するフレームワークの性能を評価するために,いくつかの実験を行った。
論文 参考訳(メタデータ) (2023-05-16T07:01:44Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。