論文の概要: Edge-assisted Democratized Learning Towards Federated Analytics
- arxiv url: http://arxiv.org/abs/2012.00425v2
- Date: Wed, 3 Mar 2021 03:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:32:04.760781
- Title: Edge-assisted Democratized Learning Towards Federated Analytics
- Title(参考訳): エッジ支援型民主的学習とフェデレーション分析
- Authors: Shashi Raj Pandey, Minh N.H. Nguyen, Tri Nguyen Dang, Nguyen H. Tran,
Kyi Thar, Zhu Han, Choong Seon Hong
- Abstract要約: 本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
- 参考スコア(独自算出の注目度): 67.44078999945722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent take towards Federated Analytics (FA), which allows analytical
insights of distributed datasets, reuses the Federated Learning (FL)
infrastructure to evaluate the summary of model performances across the
training devices. However, the current realization of FL adopts single
server-multiple client architecture with limited scope for FA, which often
results in learning models with poor generalization, i.e., an ability to handle
new/unseen data, for real-world applications. Moreover, a hierarchical FL
structure with distributed computing platforms demonstrates incoherent model
performances at different aggregation levels. Therefore, we need to design a
robust learning mechanism than the FL that (i) unleashes a viable
infrastructure for FA and (ii) trains learning models with better
generalization capability. In this work, we adopt the novel democratized
learning (Dem-AI) principles and designs to meet these objectives. Firstly, we
show the hierarchical learning structure of the proposed edge-assisted
democratized learning mechanism, namely Edge-DemLearn, as a practical framework
to empower generalization capability in support of FA. Secondly, we validate
Edge-DemLearn as a flexible model training mechanism to build a distributed
control and aggregation methodology in regions by leveraging the distributed
computing infrastructure. The distributed edge computing servers construct
regional models, minimize the communication loads, and ensure distributed data
analytic application's scalability. To that end, we adhere to a near-optimal
two-sided many-to-one matching approach to handle the combinatorial constraints
in Edge-DemLearn and solve it for fast knowledge acquisition with optimization
of resource allocation and associations between multiple servers and devices.
Extensive simulation results on real datasets demonstrate the effectiveness of
the proposed methods.
- Abstract(参考訳): 分散データセットの分析的洞察を可能にするfederated analytics(fa)に対する最近の見解では、federated learning(fl)インフラストラクチャを再利用して、トレーニングデバイス全体のモデルパフォーマンスの概要を評価する。
しかし、FLの現在の実現は、FAのスコープが限られている単一のサーバマルチクライアントアーキテクチャを採用しており、しばしば、一般化が不十分な学習モデル、すなわち、現実世界のアプリケーションに対して、新しい/見えないデータを扱う能力をもたらす。
さらに、分散コンピューティングプラットフォームを用いた階層的FL構造は、異なる集約レベルでの不整合モデル性能を示す。
したがって、(i)faの実行可能なインフラを解き放ち、(ii)より良い一般化能力で学習モデルを訓練するflよりも、堅牢な学習メカニズムを設計する必要がある。
本研究では,これらの目的を満たすために,民主化学習(Dem-AI)の原則と設計を採用する。
まず,fa支援の一般化能力を高めるための実践的な枠組みとして,エッジ支援型民主学習機構であるエッジデムリアンの階層的学習構造を示す。
次に,Edge-DemLearnを,分散コンピューティング基盤を活用した分散制御・集約手法を構築するための柔軟なモデルトレーニング機構として検証する。
分散エッジコンピューティングサーバは、地域モデルを構築し、通信負荷を最小化し、分散データ分析アプリケーションのスケーラビリティを保証する。
そこで我々は,エッジ・デムリアンの組合せ制約を処理し,リソース割り当てと複数のサーバとデバイス間の関連を最適化し,高速な知識獲得を実現するために,最適化された2面多対1マッチングアプローチに固執する。
実データを用いた大規模シミュレーションの結果,提案手法の有効性が示された。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Heterogeneous Ensemble Knowledge Transfer for Training Large Models in
Federated Learning [22.310090483499035]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを中央集約サーバに公開することなく、協調的にモデルを学習することを可能にする。
既存のFLアルゴリズムの多くは、クライアントとサーバにまたがってデプロイされるのと同じアーキテクチャのモデルを必要とする。
本稿では,Fed-ETと呼ばれる新しいアンサンブル知識伝達手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T05:18:32Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。