論文の概要: A Linearized Alternating Direction Multiplier Method for Federated Matrix Completion Problems
- arxiv url: http://arxiv.org/abs/2503.12733v1
- Date: Mon, 17 Mar 2025 01:57:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:25.687033
- Title: A Linearized Alternating Direction Multiplier Method for Federated Matrix Completion Problems
- Title(参考訳): 連成行列補完問題に対する線形交互方向乗算器法
- Authors: Patrick Hytla, ran T. A. Nghia, Duy Nhat Phan, Andrew Rice,
- Abstract要約: マトリックス補完は、パーソナライズされた医療、電子商取引、レコメンデーションシステム、ソーシャルネットワーク分析における幅広い応用で欠落したデータを予測するための基本となる。
伝統的な行列補完アプローチは典型的には集中型データストレージを前提としている。
フェデレートされた行列補完問題の解法としてtextttFedMC-ADMM を提案する。
- 参考スコア(独自算出の注目度): 2.2217927229805032
- License:
- Abstract: Matrix completion is fundamental for predicting missing data with a wide range of applications in personalized healthcare, e-commerce, recommendation systems, and social network analysis. Traditional matrix completion approaches typically assume centralized data storage, which raises challenges in terms of computational efficiency, scalability, and user privacy. In this paper, we address the problem of federated matrix completion, focusing on scenarios where user-specific data is distributed across multiple clients, and privacy constraints are uncompromising. Federated learning provides a promising framework to address these challenges by enabling collaborative learning across distributed datasets without sharing raw data. We propose \texttt{FedMC-ADMM} for solving federated matrix completion problems, a novel algorithmic framework that combines the Alternating Direction Method of Multipliers with a randomized block-coordinate strategy and alternating proximal gradient steps. Unlike existing federated approaches, \texttt{FedMC-ADMM} effectively handles multi-block nonconvex and nonsmooth optimization problems, allowing efficient computation while preserving user privacy. We analyze the theoretical properties of our algorithm, demonstrating subsequential convergence and establishing a convergence rate of $\mathcal{O}(K^{-1/2})$, leading to a communication complexity of $\mathcal{O}(\epsilon^{-2})$ for reaching an $\epsilon$-stationary point. This work is the first to establish these theoretical guarantees for federated matrix completion in the presence of multi-block variables. To validate our approach, we conduct extensive experiments on real-world datasets, including MovieLens 1M, 10M, and Netflix. The results demonstrate that \texttt{FedMC-ADMM} outperforms existing methods in terms of convergence speed and testing accuracy.
- Abstract(参考訳): マトリックス補完は、パーソナライズされた医療、電子商取引、レコメンデーションシステム、ソーシャルネットワーク分析における幅広い応用で欠落したデータを予測するための基本となる。
従来の行列補完アプローチでは、中央集権的なデータストレージを前提としており、計算効率、スケーラビリティ、ユーザのプライバシといった面での課題を提起している。
本稿では,ユーザ固有のデータが複数のクライアントに分散し,プライバシ制約が競合しないシナリオに着目し,フェデレートされた行列補完の問題に対処する。
フェデレーション学習は、生データを共有することなく、分散データセット間の協調学習を可能にすることで、これらの課題に対処するための有望なフレームワークを提供する。
本稿では,マルチプライヤの交互方向法とランダムなブロック座標戦略と,近位勾配ステップの交互化を組み合わせた新しいアルゴリズムフレームワークであるフェデレート行列完備化問題の解法として,‘texttt{FedMC-ADMM} を提案する。
既存のフェデレートされたアプローチとは異なり、 \texttt{FedMC-ADMM} はマルチブロック非凸および非滑らかな最適化問題を効果的に処理し、ユーザのプライバシを保ちながら効率的な計算を可能にする。
我々はアルゴリズムの理論的性質を分析し、後続収束を示し、$\mathcal{O}(K^{-1/2})$の収束率を確立し、$\epsilon$-定常点に到達するための通信複雑性を$\mathcal{O}(\epsilon^{-2})$とする。
この研究は、多ブロック変数の存在下での連合行列完備化の理論的保証を最初に確立したものである。
このアプローチを検証するために,MovieLens 1M,10M,Netflixなど,実世界のデータセットに関する広範な実験を行った。
その結果, コンバージェンス速度とテスト精度において, 既存の手法よりも優れていることがわかった。
関連論文リスト
- Near-Optimal Online Learning for Multi-Agent Submodular Coordination: Tight Approximation and Communication Efficiency [52.60557300927007]
離散部分モジュラー問題を連続的に最適化するために,$textbfMA-OSMA$アルゴリズムを提案する。
また、一様分布を混合することによりKLの発散を効果的に活用する、プロジェクションフリーな$textbfMA-OSEA$アルゴリズムも導入する。
我々のアルゴリズムは最先端OSGアルゴリズムによって提供される$(frac11+c)$-approximationを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-07T15:57:56Z) - Federated Binary Matrix Factorization using Proximal Optimization [43.01276597844757]
本稿では,最先端の2値行列分解緩和をBMFに適用する。
提案アルゴリズムは,実世界および合成データの多種多様なセット上で,最先端のBMF手法のフェデレーションスキームにおいて,品質と有効性において優れることを示す。
論文 参考訳(メタデータ) (2024-07-01T20:10:24Z) - FedADMM: A Robust Federated Deep Learning Framework with Adaptivity to
System Heterogeneity [4.2059108111562935]
Federated Learning(FL)は、エッジデバイスによる大規模データの分散処理のための新興フレームワークである。
本稿では,FLAD FedADMMに基づく新しいプロトコルを提案する。
我々は,FedADMMが通信効率の点で,すべてのベースライン手法を一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-07T15:58:33Z) - Resource-constrained Federated Edge Learning with Heterogeneous Data:
Formulation and Analysis [8.863089484787835]
ヘテロジニアスデータによる不均一な統計的課題を解決するために, 分散されたニュートン型ニュートン型トレーニングスキームであるFedOVAを提案する。
FedOVAはマルチクラス分類問題をより単純なバイナリ分類問題に分解し、アンサンブル学習を用いてそれぞれの出力を結合する。
論文 参考訳(メタデータ) (2021-10-14T17:35:24Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Federated Matrix Factorization: Algorithm Design and Application to Data
Clustering [18.917444528804463]
データプライバシに関する近年の要求は、大規模で異種ネットワークにおける新たな分散学習パラダイムとして、フェデレートラーニング(FL)を提唱している。
我々は,モデル平均化と勾配共有原理に基づく2つの新しいFedMFアルゴリズム,すなわちFedMAvgとFedMGSを提案する。
論文 参考訳(メタデータ) (2020-02-12T11:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。