論文の概要: Improving Federated Relational Data Modeling via Basis Alignment and
Weight Penalty
- arxiv url: http://arxiv.org/abs/2011.11369v1
- Date: Mon, 23 Nov 2020 12:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 01:16:44.426849
- Title: Improving Federated Relational Data Modeling via Basis Alignment and
Weight Penalty
- Title(参考訳): 基底アライメントと重み付けペナルティによる連関関係データモデリングの改善
- Authors: Yilun Lin, Chaochao Chen, Cen Chen and Li Wang
- Abstract要約: 近年,フェデレートラーニング(FL)が注目されている。
知識グラフ(KG)上でのフェデレーションモデリングを行うグラフニューラルネットワークアルゴリズムの修正版を提案する。
我々は,1) クライアント上でのパーソナライズのための最適輸送(OT)と,2) 収束を高速化するための重み制約を備えた新しい最適化アルゴリズムであるFedAlignを提案する。
実験の結果,提案手法はFedAVGやFedProxといった最先端のFL法よりも優れており,収束性が高いことがわかった。
- 参考スコア(独自算出の注目度): 18.096788806121754
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) has attracted increasing attention in recent years.
As a privacy-preserving collaborative learning paradigm, it enables a broader
range of applications, especially for computer vision and natural language
processing tasks. However, to date, there is limited research of federated
learning on relational data, namely Knowledge Graph (KG). In this work, we
present a modified version of the graph neural network algorithm that performs
federated modeling over KGs across different participants. Specifically, to
tackle the inherent data heterogeneity issue and inefficiency in algorithm
convergence, we propose a novel optimization algorithm, named FedAlign, with 1)
optimal transportation (OT) for on-client personalization and 2) weight
constraint to speed up the convergence. Extensive experiments have been
conducted on several widely used datasets. Empirical results show that our
proposed method outperforms the state-of-the-art FL methods, such as FedAVG and
FedProx, with better convergence.
- Abstract(参考訳): 近年,連合学習(fl)が注目を集めている。
プライバシを保存する協調学習パラダイムとして、特にコンピュータビジョンや自然言語処理タスクなど、幅広いアプリケーションを可能にする。
しかし、今日まで、関係データにおける連合学習、すなわち知識グラフ(kg)の研究は限られている。
本稿では,異なる参加者間での kg 上でのフェデレーションモデリングを行うグラフニューラルネットワークアルゴリズムの修正版を提案する。
具体的には,固有データの不均一性問題とアルゴリズム収束の非効率に対処するために,federignと呼ばれる新しい最適化アルゴリズムを提案する。
1)オンクライアントパーソナライゼーションのための最適輸送(ot)
2) 収束を早めるための重み制約。
広範囲にわたる実験が、広く使われているデータセットで行われている。
実験の結果,提案手法はfedavgやfeedproxのような最先端fl法よりも収束性が向上した。
関連論文リスト
- FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - UNIDEAL: Curriculum Knowledge Distillation Federated Learning [17.817181326740698]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする、有望なアプローチとして登場した。
本稿では,ドメイン横断シナリオの課題に対処するための新しいFLアルゴリズムであるUNIを提案する。
この結果から,UNIはモデル精度と通信効率の両面において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-09-16T11:30:29Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - Communication-Efficient Federated Learning with Compensated
Overlap-FedAvg [22.636184975591004]
フェデレーションラーニングは、クラスタ内でデータセットを共有することなく、複数のクライアントの複合データによるモデルトレーニングを実行するために提案される。
Overlap-FedAvgはモデルアップロードおよびダウンロードフェーズとモデルトレーニングフェーズを並列化するフレームワークである。
オーバーラップfedavgはさらに階層的計算戦略、データ補償機構、ネステロフ加速勾配(nag)アルゴリズムを用いて開発されている。
論文 参考訳(メタデータ) (2020-12-12T02:50:09Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。