論文の概要: Smart Information Exchange for Unsupervised Federated Learning via
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2402.09629v1
- Date: Thu, 15 Feb 2024 00:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:27:57.079867
- Title: Smart Information Exchange for Unsupervised Federated Learning via
Reinforcement Learning
- Title(参考訳): 強化学習による教師なしフェデレーション学習のためのスマート情報交換
- Authors: Seohyun Lee, Anindya Bijoy Das, Satyavrat Wagle, Christopher G.
Brinton
- Abstract要約: 本稿では,Reinforcement Learning を用いたデータ転送のための最適グラフ作成手法を提案する。
目標は、環境の制約を考慮して最も利益をもたらすリンクを作ることです。
数値解析により,提案手法の収束速度とトラグラーレジリエンスの利点が示された。
- 参考スコア(独自算出の注目度): 11.819765040106185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main challenges of decentralized machine learning paradigms such
as Federated Learning (FL) is the presence of local non-i.i.d. datasets.
Device-to-device transfers (D2D) between distributed devices has been shown to
be an effective tool for dealing with this problem and robust to stragglers. In
an unsupervised case, however, it is not obvious how data exchanges should take
place due to the absence of labels. In this paper, we propose an approach to
create an optimal graph for data transfer using Reinforcement Learning. The
goal is to form links that will provide the most benefit considering the
environment's constraints and improve convergence speed in an unsupervised FL
environment. Numerical analysis shows the advantages in terms of convergence
speed and straggler resilience of the proposed method to different available FL
schemes and benchmark datasets.
- Abstract(参考訳): フェデレートラーニング(FL)のような分散機械学習パラダイムの主な課題の1つは、ローカルな非i.d.データセットの存在である。
分散デバイス間のデバイス間転送(D2D)は、この問題に対処し、ストラグラーに堅牢な効果的なツールであることが示されている。
しかし、教師なしの場合、ラベルがないためにデータ交換がどのように行われるべきかは明確ではない。
本稿では,強化学習を用いたデータ転送のための最適なグラフを作成する手法を提案する。
目的は、環境の制約を考慮して最も利益をもたらすリンクを形成し、教師なしFL環境における収束速度を改善することである。
数値解析は,提案手法の収束速度とストラグラー弾性の点で,利用可能なflスキームとベンチマークデータセットの違いに対する利点を示す。
関連論文リスト
- Robust Decentralized Learning with Local Updates and Gradient Tracking [16.46727164965154]
分散学習をクライアントやノードのネットワークとみなす。
本稿では,局所的な更新と勾配追跡という2つの重要なデータを利用する分散化ミニマックス最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T03:03:34Z) - Topology Learning for Heterogeneous Decentralized Federated Learning
over Unreliable D2D Networks [25.672506041978615]
分散統合学習(DFL)は、無線デバイス間通信(D2D)ネットワークにおいて大きな関心を集めている。
我々はDFLの理論収束解析を行い、収束境界を導出する。
本研究では,DFLにおける表現不一致と信頼できないリンクを考慮した新しいトポロジー学習手法ToLRDULを開発した。
論文 参考訳(メタデータ) (2023-12-21T07:01:18Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - FLARE: Detection and Mitigation of Concept Drift for Federated Learning
based IoT Deployments [2.7776688429637466]
FLAREは、トレーニングデータを条件付きで転送し、エッジとセンサのエンドポイント間でモデルをデプロイする、軽量なデュアルスケジューリングFLフレームワークである。
固定間隔スケジューリング法と比較して,FLAREはエッジノードとセンサノード間で交換されるデータ量を大幅に削減できることを示す。
少なくとも16倍のレイテンシで、コンセプトドリフトを反応的に検出できる。
論文 参考訳(メタデータ) (2023-05-15T10:09:07Z) - Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity [60.791736094073]
通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおいて、大きなボトルネックのひとつになっています。
本稿では,SIGNSGDの非収束問題に対処する等級化方式を提案する。
提案手法は,Fashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-02-19T17:42:35Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。