論文の概要: Sharpness-Aware Minimization for Generalized Embedding Learning in Federated Recommendation
- arxiv url: http://arxiv.org/abs/2603.11503v1
- Date: Thu, 12 Mar 2026 03:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.847695
- Title: Sharpness-Aware Minimization for Generalized Embedding Learning in Federated Recommendation
- Title(参考訳): フェデレーション・リコメンデーションにおける一般化埋め込み学習のためのシャープネスを考慮した最小化
- Authors: Fengyuan Yu, Xiaohua Feng, Yuyuan Li, Changwang Zhang, Jun Wang, Chaochao Chen,
- Abstract要約: 我々はFedRecGEL(Generalized Embedding Learning)によるフェデレーション・レコメンデーション(Federated Recommendation)という新しいフェデレーション・レコメンデーション・フレームワークを提案する。
我々は、項目中心の視点からフェデレートされたレコメンデーション問題を再構築し、それをマルチタスク学習問題として位置づけ、トレーニング手順全体を通して一般化された埋め込みを学習することを目的として、理論分析に基づいて、一般化問題に対処するためにシャープネス対応の最小化を採用し、トレーニングプロセスの安定化とレコメンデーション性能の向上を図る。
- 参考スコア(独自算出の注目度): 22.07748662145589
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated recommender systems enable collaborative model training while keeping user interaction data local and sharing only essential model parameters, thereby mitigating privacy risks. However, existing methods overlook a critical issue, i.e., the stable learning of a generalized item embedding throughout the federated recommender system training process. Item embedding plays a central role in facilitating knowledge sharing across clients. Yet, under the cross-device setting, local data distributions exhibit significant heterogeneity and sparsity, exacerbating the difficulty of learning generalized embeddings. These factors make the stable learning of generalized item embeddings both indispensable for effective federated recommendation and inherently difficult to achieve. To fill this gap, we propose a new federated recommendation framework, named Federated Recommendation with Generalized Embedding Learning (FedRecGEL). We reformulate the federated recommendation problem from an item-centered perspective and cast it as a multi-task learning problem, aiming to learn generalized embeddings throughout the training procedure. Based on theoretical analysis, we employ sharpness-aware minimization to address the generalization problem, thereby stabilizing the training process and enhancing recommendation performance. Extensive experiments on four datasets demonstrate the effectiveness of FedRecGEL in significantly improving federated recommendation performance. Our code is available at https://github.com/anonymifish/FedRecGEL.
- Abstract(参考訳): フェデレートされたレコメンデータシステムは、ユーザインタラクションデータをローカルに保ちながら協調的なモデルトレーニングを可能にし、重要なモデルパラメータのみを共有することにより、プライバシーリスクを軽減します。
しかし、既存の手法は重要な問題、すなわち、フェデレートされた推薦システムトレーニングプロセス全体に埋め込まれた一般化されたアイテムの安定した学習を見落としている。
アイテムの埋め込みは、クライアント間の知識共有を促進する上で重要な役割を担います。
しかし、クロスデバイス環境下では、局所的なデータ分布は大きな不均一性と疎性を示し、一般化された埋め込みの学習が困難になる。
これらの要因は、効果的なフェデレーションレコメンデーションに欠かせない汎用アイテム埋め込みの安定した学習を、本質的に達成することが困難である。
このギャップを埋めるために、FedRecGEL(Generalized Embedding Learning)によるフェデレーション・レコメンデーション(Federated Recommendation with Generalized Embedding Learning)と呼ばれる新しいフェデレーション・レコメンデーション・フレームワークを提案する。
我々は,項目中心の視点からフェデレーションレコメンデーション問題を再構築し,それをマルチタスク学習問題とみなし,トレーニング手順全体を通して汎用的な埋め込みを学習することを目的とした。
理論解析に基づき、一般化問題に対処するためにシャープネスを意識した最小化を用い、トレーニングプロセスの安定化とレコメンデーション性能の向上を図る。
4つのデータセットに対する大規模な実験は、フェデレーションレコメンデーションパフォーマンスを大幅に改善するFedRecGELの有効性を示す。
私たちのコードはhttps://github.com/anonymifish/FedRecGELで利用可能です。
関連論文リスト
- ERASE -- A Real-World Aligned Benchmark for Unlearning in Recommender Systems [53.62904488040001]
提案するERASEは,推薦システムにおける機械学習のための大規模ベンチマークである。
ERASEは、コラボレーティブフィルタリング、セッションベースレコメンデーション、次世代レコメンデーションの3つのコアタスクにまたがる。
これには、センシティブなインタラクションやスパムを逐次削除するなど、現実世界のアプリケーションにインスパイアされた未学習シナリオが含まれている。
論文 参考訳(メタデータ) (2026-03-09T13:00:23Z) - FedRD: Reducing Divergences for Generalized Federated Learning via Heterogeneity-aware Parameter Guidance [24.601588520875023]
不均質な連合学習(HFL)は、異なるエンティティ間の効果的かつプライバシー保護的なコラボレーションを保証することを目的としている。
フェデレーション学習モデルを不均一なデータの下で未確認のクライアントに一般化する問題は、徐々に重要になっている。
パラメータ誘導型大域的一般化集約と局所脱バイアス型分類を協調的に利用して発散を減らす新しい不均一なフェデレート学習アルゴリズムであるFedRDを提案する。
論文 参考訳(メタデータ) (2026-01-28T09:03:06Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - FedSlate:A Federated Deep Reinforcement Learning Recommender System [18.641244204682536]
推薦システムにおける長期ユーザエンゲージメントの最適化に強化学習法が用いられている。
潜在的な解決策の1つは、さまざまなプラットフォームから集中した場所にデータを集約し、集約されたデータをトレーニングに使用することである。
このアプローチは、通信コストの増加やユーザプライバシに対する潜在的な脅威など、経済的および法的懸念を提起する。
法的なレベルでの共有が禁止されている情報を効果的に活用する強化学習推薦アルゴリズムである textbfFedSlate を提案する。
論文 参考訳(メタデータ) (2024-09-23T10:10:24Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - SIFU: Sequential Informed Federated Unlearning for Efficient and Provable Client Unlearning in Federated Optimization [23.064896326146386]
Machine Unlearning(MU)は、トレーニング手順から与えられたデータポイントのコントリビューションを削除することを目的としている。
フェデレーテッド・アンラーニング(FU)手法が提案されている一方で,新しい手法としてSIFU(Sequential Informed Unlearning)を提案する。
論文 参考訳(メタデータ) (2022-11-21T17:15:46Z) - Cali3F: Calibrated Fast Fair Federated Recommendation System [25.388324221293203]
提案手法は,推薦性能の公平性を改善するために,パーソナライズされた推薦システムトレーニングアルゴリズムを提案する。
次に、トレーニングプロセスの高速化のためにクラスタリングベースのアグリゲーション手法を採用する。
Cali3Fは、キャリブレーションされた高速かつ公正なフェデレーションレコメンデーションフレームワークである。
論文 参考訳(メタデータ) (2022-05-26T03:05:26Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。