論文の概要: PDC-FRS: Privacy-preserving Data Contribution for Federated Recommender System
- arxiv url: http://arxiv.org/abs/2409.07773v1
- Date: Thu, 12 Sep 2024 06:13:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 15:56:05.605777
- Title: PDC-FRS: Privacy-preserving Data Contribution for Federated Recommender System
- Title(参考訳): PDC-FRS:Federated Recommender Systemのためのプライバシ保護データコントリビューション
- Authors: Chaoqun Yang, Wei Yuan, Liang Qu, Thanh Tam Nguyen,
- Abstract要約: フェデレートされたレコメンデーションシステム(FedRecs)は、デバイス上のレコメンデーションにおいてユーザのプライバシを保護するために人気のある研究方向として登場した。
FedRecsでは、ユーザーはデータをローカルに保持し、モデルパラメータを中央サーバにアップロードすることで、ローカルのコラボレーティブな情報のみをコントリビュートする。
本稿では,新しいフェデレーション・レコメンデーション・フレームワークであるPDC-FRSを提案する。具体的には,ユーザが異なるプライバシ保証でデータを共有できるように,プライバシ保護データコントリビューション機構を設計する。
- 参考スコア(独自算出の注目度): 15.589541738576528
- License:
- Abstract: Federated recommender systems (FedRecs) have emerged as a popular research direction for protecting users' privacy in on-device recommendations. In FedRecs, users keep their data locally and only contribute their local collaborative information by uploading model parameters to a central server. While this rigid framework protects users' raw data during training, it severely compromises the recommendation model's performance due to the following reasons: (1) Due to the power law distribution nature of user behavior data, individual users have few data points to train a recommendation model, resulting in uploaded model updates that may be far from optimal; (2) As each user's uploaded parameters are learned from local data, which lacks global collaborative information, relying solely on parameter aggregation methods such as FedAvg to fuse global collaborative information may be suboptimal. To bridge this performance gap, we propose a novel federated recommendation framework, PDC-FRS. Specifically, we design a privacy-preserving data contribution mechanism that allows users to share their data with a differential privacy guarantee. Based on the shared but perturbed data, an auxiliary model is trained in parallel with the original federated recommendation process. This auxiliary model enhances FedRec by augmenting each user's local dataset and integrating global collaborative information. To demonstrate the effectiveness of PDC-FRS, we conduct extensive experiments on two widely used recommendation datasets. The empirical results showcase the superiority of PDC-FRS compared to baseline methods.
- Abstract(参考訳): フェデレートされたレコメンデーションシステム(FedRecs)は、デバイス上のレコメンデーションにおいてユーザのプライバシを保護するために人気のある研究方向として登場した。
FedRecsでは、ユーザーはデータをローカルに保持し、モデルパラメータを中央サーバにアップロードすることで、ローカルのコラボレーティブな情報のみをコントリビュートする。
この厳格なフレームワークは、トレーニング中のユーザの生データを保護しているが、(1) ユーザ行動データの電力法則分布の性質のため、個々のユーザがレコメンデーションモデルをトレーニングするためのデータポイントが少ないこと、(2) アップロードされたパラメータは、グローバルなコラボレーティブ情報に欠けるローカルデータから学習され、FedAvgのようなパラメータアグリゲーションメソッドにのみ依存して、グローバルなコラボレーティブ情報を融合することが最適である可能性があること、などにより、レコメンデーションモデルのパフォーマンスを著しく損なう。
この性能ギャップを埋めるため,新しいフェデレーション・レコメンデーション・フレームワークであるPDC-FRSを提案する。
具体的には、ユーザが異なるプライバシ保証でデータを共有できるように、プライバシを保存するデータコントリビューションメカニズムを設計する。
共有されるが摂動されたデータに基づいて、元の連合推薦プロセスと並行して補助モデルを訓練する。
この補助モデルは、各ユーザのローカルデータセットを拡張し、グローバルなコラボレーティブ情報を統合することで、FedRecを強化する。
PDC-FRSの有効性を示すために、広く使われている2つのレコメンデーションデータセットについて広範な実験を行った。
その結果, PDC-FRSはベースライン法に比べて優れていた。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - FedRec+: Enhancing Privacy and Addressing Heterogeneity in Federated
Recommendation Systems [15.463595798992621]
FedRec+は、フェデレーションレコメンデーションシステムのためのアンサンブルフレームワークである。
プライバシーを強化し、エッジユーザの通信コストを低減します。
FedRec+の最先端性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-10-31T05:36:53Z) - Semi-decentralized Federated Ego Graph Learning for Recommendation [58.21409625065663]
デバイス上でのレコメンデーションのための半分散型フェデレーションエゴグラフ学習フレームワークであるSemiDFEGLを提案する。
提案するフレームワークはモデルに依存しないため、既存のグラフニューラルネットワークベースのレコメンデーションメソッドやプライバシ保護技術とシームレスに統合できる。
論文 参考訳(メタデータ) (2023-02-10T03:57:45Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - FedSPLIT: One-Shot Federated Recommendation System Based on Non-negative
Joint Matrix Factorization and Knowledge Distillation [7.621960305708476]
我々はNMF結合因子化に基づく最初の教師なしワンショットフェデレーションCF実装であるFedSPLITを提案する。
FedSPLITは、コミュニケーションの数を大幅に減らすことで、技術の現状と類似した結果を得ることができる(特定の状況では、それよりも優れている)。
論文 参考訳(メタデータ) (2022-05-04T23:42:14Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Practical Privacy Preserving POI Recommendation [26.096197310800328]
本稿では,プライバシ保護のためのPOI勧告(PriRec)フレームワークを提案する。
PriRecは、ユーザのプライベートな生データとモデルを自身の手で保持し、ユーザのプライバシを広範囲に保護する。
実世界のデータセットにPriRecを適用し、包括的な実験により、FMと比較すると、PriRecは同等またはそれ以上のレコメンデーション精度を達成した。
論文 参考訳(メタデータ) (2020-03-05T06:06:40Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。