論文の概要: Federated Learning on Riemannian Manifolds
- arxiv url: http://arxiv.org/abs/2206.05668v1
- Date: Sun, 12 Jun 2022 05:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:58:38.495404
- Title: Federated Learning on Riemannian Manifolds
- Title(参考訳): リーマン多様体上のフェデレート学習
- Authors: Jiaxiang Li and Shiqian Ma
- Abstract要約: フェデレーテッド・ラーニング(FL)は、スマートフォンappベースの機械学習において、多くの重要な応用を見出した。
本稿では,フェデレートPCAやkPCAといった重要な応用を実現するためのFLian(RFedSVRG)を提案する。
- 参考スコア(独自算出の注目度): 8.42177922733814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has found many important applications in
smart-phone-APP based machine learning applications. Although many algorithms
have been studied for FL, to the best of our knowledge, algorithms for FL with
nonconvex constraints have not been studied. This paper studies FL over
Riemannian manifolds, which finds important applications such as federated PCA
and federated kPCA. We propose a Riemannian federated SVRG (RFedSVRG) method to
solve federated optimization over Riemannian manifolds. We analyze its
convergence rate under different scenarios. Numerical experiments are conducted
to compare RFedSVRG with the Riemannian counterparts of FedAvg and FedProx. We
observed from the numerical experiments that the advantages of RFedSVRG are
significant.
- Abstract(参考訳): フェデレートラーニング(FL)は、スマートフォン-appベースの機械学習アプリケーションに多くの重要な応用を見出した。
FLには多くのアルゴリズムが研究されているが、我々の知る限り、非凸制約を持つFLのアルゴリズムは研究されていない。
本稿では, リーマン多様体上のFLについて検討し, フェデレートPCAやフェデレーションkPCAなどの重要な応用を見出す。
リーマン多様体上のフェデレーション最適化を解くために、リーマン連合SVRG(RFedSVRG)法を提案する。
我々はその収束速度を異なるシナリオで分析する。
rfedsvrg を fedavg と fedprox のリーマン系と比較する数値実験を行った。
数値実験の結果,RFedSVRGの利点は有意であることがわかった。
関連論文リスト
- Streamlining in the Riemannian Realm: Efficient Riemannian Optimization
with Loopless Variance Reduction [4.578425862931332]
本研究はユークリッドとリーマンの設定の両方で用いられる決定的な還元機構に焦点を当てる。
ユークリッド法により動機付け, コインフリップによって引き起こされる計算で外ループを置換するR法を導入する。
フレームワークとしてR-を用いることで、様々な重要な設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:49:37Z) - Analysing the Sample Complexity of Opponent Shaping [15.226375898939205]
一般サムゲームでの学習は、しばしば集合的な準最適結果をもたらす。
初期の対戦型シェーピング(OS)法では、高階微分を用いてコプレイヤーの学習を形作る。
M-FOS(M-free Opponent Shaping)は、OSの問題をメタゲームとして再定義することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-02-08T16:17:18Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Federated Multi-Sequence Stochastic Approximation with Local
Hypergradient Estimation [28.83712379658548]
我々は、多重結合配列(MSA)のための最初のフェデレーション近似アルゴリズムであるFedMSAを開発した。
FedMSAは、ローカルクライアントのアップデートを通じて、BLOとMCOのハイパーグラディエントを証明可能な見積もりを可能にする。
我々は我々の理論を裏付ける実験を行い、FedMSAの実証的な利点を実証する。
論文 参考訳(メタデータ) (2023-06-02T16:17:43Z) - FLAGS Framework for Comparative Analysis of Federated Learning
Algorithms [0.0]
この研究は、フェデレートラーニングのランドスケープを統合し、主要なFLアルゴリズムの客観的分析を提供する。
FLAGS: Federated Learning AlGorithms Simulationを開発した。
実験の結果,完全分散FLアルゴリズムは複数の動作条件下で同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2022-12-14T12:08:30Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - FEDNEST: Federated Bilevel, Minimax, and Compositional Optimization [53.78643974257301]
多くの現代のML問題は、ミニマックスと合成最適化を仮定したネストされた双レベルプログラミングに該当する。
我々は、一般的なネスト問題に対処するフェデレーション付き交互勾配法を提案する。
論文 参考訳(メタデータ) (2022-05-04T17:48:55Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Fine-tuning is Fine in Federated Learning [3.222802562733787]
フレームワークにおけるフェデレーション学習アルゴリズムとその変種の性能について検討する。
このマルチクレーターアプローチは、フェデレーション学習の高次元、多次元的な性質を自然にモデル化する。
論文 参考訳(メタデータ) (2021-08-16T18:59:24Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z) - FedDANE: A Federated Newton-Type Method [49.9423212899788]
フェデレートラーニングは、大規模分散データセット上で低統計モデルを共同で学習することを目的としている。
我々は、フェデレーション学習を扱うために、DANEから適応する最適化であるFedDANEを提案する。
論文 参考訳(メタデータ) (2020-01-07T07:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。