論文の概要: Walk for Learning: A Random Walk Approach for Federated Learning from
Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2206.00737v1
- Date: Wed, 1 Jun 2022 19:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 05:15:03.244705
- Title: Walk for Learning: A Random Walk Approach for Federated Learning from
Heterogeneous Data
- Title(参考訳): 学習のためのウォーク:不均質データによるフェデレーション学習のためのランダムウォークアプローチ
- Authors: Ghadir Ayache, Venkat Dassari, Salim El Rouayheb
- Abstract要約: 私たちは標準的アプリケーションとしてフェデレートラーニング(FL)に注目します。
FLの主な課題の1つは、ノードとパラメータサーバの間の通信ボトルネックである。
適応型ランダムウォーク学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 17.978941229970886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of a Parameter Server (PS) that wishes to learn a
model that fits data distributed on the nodes of a graph. We focus on Federated
Learning (FL) as a canonical application. One of the main challenges of FL is
the communication bottleneck between the nodes and the parameter server. A
popular solution in the literature is to allow each node to do several local
updates on the model in each iteration before sending it back to the PS. While
this mitigates the communication bottleneck, the statistical heterogeneity of
the data owned by the different nodes has proven to delay convergence and bias
the model. In this work, we study random walk (RW) learning algorithms for
tackling the communication and data heterogeneity problems. The main idea is to
leverage available direct connections among the nodes themselves, which are
typically "cheaper" than the communication to the PS. In a random walk, the
model is thought of as a "baton" that is passed from a node to one of its
neighbors after being updated in each iteration. The challenge in designing the
RW is the data heterogeneity and the uncertainty about the data distributions.
Ideally, we would want to visit more often nodes that hold more informative
data. We cast this problem as a sleeping multi-armed bandit (MAB) to design a
near-optimal node sampling strategy that achieves variance-reduced gradient
estimates and approaches sub-linearly the optimal sampling strategy. Based on
this framework, we present an adaptive random walk learning algorithm. We
provide theoretical guarantees on its convergence. Our numerical results
validate our theoretical findings and show that our algorithm outperforms
existing random walk algorithms.
- Abstract(参考訳): 本稿では,グラフのノードに分散したデータに適合するモデルを学習しようとするパラメータサーバ(PS)の問題を考える。
我々は,標準的応用として連合学習(fl)に注目した。
FLの主な課題の1つは、ノードとパラメータサーバの間の通信ボトルネックである。
文献で一般的な解決策は、各ノードがPSに返す前に、各イテレーションでモデルのいくつかのローカルアップデートを行えるようにすることである。
これにより通信ボトルネックが軽減される一方で、異なるノードが所有するデータの統計的不均一性がモデルの収束とバイアスを遅らせることが証明されている。
本研究では,ランダムウォーク(RW)学習アルゴリズムを用いて,コミュニケーションとデータ不均一性問題に対処する。
主なアイデアは、利用可能なノード間の直接接続を活用することであり、通常はPSへの通信よりも「安全」である。
ランダムウォークでは、モデルが「バトン」と見なされ、各イテレーションで更新された後、ノードから隣のノードに渡される。
RWを設計する上での課題は、データの不均一性とデータ分布の不確実性である。
理想的には、より情報的なデータを保持するノードをもっと頻繁に訪れたいと考えています。
この問題を睡眠用マルチアームバンディット (mab) として, 分散低減勾配推定を達成し, 最適サンプリング戦略をサブリニアにアプローチする準最適ノードサンプリング戦略を考案した。
この枠組みに基づき,適応型ランダムウォーク学習アルゴリズムを提案する。
我々はその収束に関する理論的保証を提供する。
解析結果から,提案アルゴリズムが既存のランダムウォークアルゴリズムより優れていることを示す。
関連論文リスト
- The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Neural-prior stochastic block model [0.0]
我々は,コミュニティを,逆ではなくノード属性によって決定されるものとしてモデル化することを提案する。
本稿では,信念伝播と近似メッセージパッシングを組み合わせた統計物理に基づくアルゴリズムを提案する。
提案したモデルとアルゴリズムは理論とアルゴリズムのベンチマークとして利用できる。
論文 参考訳(メタデータ) (2023-03-17T14:14:54Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - QuTE: decentralized multiple testing on sensor networks with false
discovery rate control [130.7122910646076]
本稿では、偽発見率(FDR)の証明可能な保証を備えたグラフ上での分散多重仮説検定法を設計する。
異なるエージェントが無向グラフのノードに存在し、各エージェントはそのノードに局所的な1つ以上の仮説に対応するp値を持つ。
各エージェントは、グラフ全体の大域的FDRが予め定義されたレベルで制御されなければならないという共同目的のもと、隣人とのみ通信することで、それぞれのローカル仮説の1つ以上の拒絶を個別に決めなければならない。
論文 参考訳(メタデータ) (2022-10-09T19:48:39Z) - STEM: A Stochastic Two-Sided Momentum Algorithm Achieving Near-Optimal
Sample and Communication Complexities for Federated Learning [58.6792963686231]
フェデレートラーニング(FL)とは、複数のワーカノード(WN)がローカルデータを用いてジョイントモデルを構築するパラダイムを指す。
WNの最小更新方向、最初のミニバッチサイズ、ローカル更新頻度をどうやって選択するかは明らかになっていない。
局所的な更新頻度と局所的なミニサイズとの間にはトレードオフ曲線があることを示し、上記の複雑さを維持できることを示す。
論文 参考訳(メタデータ) (2021-06-19T06:13:45Z) - Private Weighted Random Walk Stochastic Gradient Descent [21.23973736418492]
グラフ内のノードに分散したデータを分散する分散学習環境を考える。
本稿では,データの一様サンプリングと重要サンプリングという2種類のランダムウォークに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-03T16:52:13Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - PushNet: Efficient and Adaptive Neural Message Passing [1.9121961872220468]
メッセージパッシングニューラルネットワークは、最近、グラフ上での表現学習に対する最先端のアプローチへと進化した。
既存のメソッドは、複数のラウンドですべてのエッジに沿って同期メッセージパッシングを実行する。
我々は、収束するまで最も関連性の高いエッジに沿ってのみ情報をプッシュする、新しい非同期メッセージパッシングアプローチについて検討する。
論文 参考訳(メタデータ) (2020-03-04T18:15:30Z) - Fully Asynchronous Policy Evaluation in Distributed Reinforcement
Learning over Networks [14.636457985379746]
本稿では,有向ピアツーピアネットワーク上での分散強化学習(DisRL)のポリシー評価問題に対する非同期手法を提案する。
ネットワークの他のノードを待つことなく、各ノードは隣人からの(おそらく遅れた)情報を使用して、いつでもローカルに値関数を更新できる。
論文 参考訳(メタデータ) (2020-03-01T08:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。