論文の概要: Federated Latent Factor Model for Bias-Aware Recommendation with Privacy-Preserving
- arxiv url: http://arxiv.org/abs/2504.15090v1
- Date: Mon, 21 Apr 2025 13:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 16:26:14.967659
- Title: Federated Latent Factor Model for Bias-Aware Recommendation with Privacy-Preserving
- Title(参考訳): プライバシー保護を考慮したバイアス認識勧告のためのフェデレート潜在因子モデル
- Authors: Junxiang Gao, Yixin Ran, Jia Chen,
- Abstract要約: 推薦システム(RS)は、ユーザに対してパーソナライズされたアイテムレコメンデーションを提供し、全体のエクスペリエンスを向上させることを目的としている。
従来のRSは、すべてのユーザデータを中央サーバで収集し、処理する。
この集中型アプローチは、データ漏洩やプライバシー漏洩のリスクを高めるため、重要なプライバシー上の懸念を提起する。
- 参考スコア(独自算出の注目度): 2.8344672895987197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recommender system (RS) aims to provide users with personalized item recommendations, enhancing their overall experience. Traditional RSs collect and process all user data on a central server. However, this centralized approach raises significant privacy concerns, as it increases the risk of data breaches and privacy leakages, which are becoming increasingly unacceptable to privacy-sensitive users. To address these privacy challenges, federated learning has been integrated into RSs, ensuring that user data remains secure. In centralized RSs, the issue of rating bias is effectively addressed by jointly analyzing all users' raw interaction data. However, this becomes a significant challenge in federated RSs, as raw data is no longer accessible due to privacy-preserving constraints. To overcome this problem, we propose a Federated Bias-Aware Latent Factor (FBALF) model. In FBALF, training bias is explicitly incorporated into every local model's loss function, allowing for the effective elimination of rating bias without compromising data privacy. Extensive experiments conducted on three real-world datasets demonstrate that FBALF achieves significantly higher recommendation accuracy compared to other state-of-the-art federated RSs.
- Abstract(参考訳): 推薦システム(RS)は、ユーザに対してパーソナライズされたアイテムレコメンデーションを提供し、全体のエクスペリエンスを向上させることを目的としている。
従来のRSは、すべてのユーザデータを中央サーバで収集し、処理する。
しかし、この中央集権的なアプローチは、プライバシーに敏感なユーザにとってますます受け入れがたいデータ漏洩やプライバシー漏洩のリスクを増大させるため、重要なプライバシー上の懸念を提起する。
これらのプライバシー問題に対処するため、フェデレーション付き学習はRSに統合され、ユーザデータが安全であることを保証する。
集中型RSでは、すべてのユーザの生のインタラクションデータを共同で分析することで、評価バイアスの問題を効果的に解決する。
しかし、プライバシ保護の制約のため、生データはもはやアクセスできないため、連合RSではこれが大きな課題となる。
この問題を解決するために,フェデレートバイアス認識潜在因子(FBALF)モデルを提案する。
FBALFでは、トレーニングバイアスがすべてのローカルモデルの損失関数に明示的に組み込まれ、データのプライバシーを損なうことなく評価バイアスを効果的に除去することができる。
3つの実世界のデータセットで実施された大規模な実験は、FBALFが他の最先端のフェデレーションRSよりもはるかに高いレコメンデーション精度を達成することを示した。
関連論文リスト
- Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates [58.18162789618869]
フェデレートラーニング(FL)は、モデルを分散的にトレーニングするための広く使われているフレームワークである。
我々はFedRandフレームワークを提案し、クライアントパラメータの完全な集合を開示するのを避ける。
我々はFedRandがMIAに対するロバスト性を改善することを、関連するベースラインと比較して実証的に検証する。
論文 参考訳(メタデータ) (2025-03-10T11:55:50Z) - FedRBE -- a decentralized privacy-preserving federated batch effect correction tool for omics data based on limma [0.3141085922386211]
FedRBEはlimmaの removeBatch メソッドのフェデレーションである。
FedRBEは、欠落した値のデータを効果的に処理し、自動化されたユーザフレンドリなオンラインユーザインターフェースを提供する。
我々は,シミュレーションおよび実オミクスデータに基づいて,フェドRBEアルゴリズムの評価を行い,非無視差のある集中型手法に匹敵する性能を実現した。
論文 参考訳(メタデータ) (2024-12-08T11:23:31Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - PDC-FRS: Privacy-preserving Data Contribution for Federated Recommender System [15.589541738576528]
フェデレートされたレコメンデーションシステム(FedRecs)は、デバイス上のレコメンデーションにおいてユーザのプライバシを保護するために人気のある研究方向として登場した。
FedRecsでは、ユーザーはデータをローカルに保持し、モデルパラメータを中央サーバにアップロードすることで、ローカルのコラボレーティブな情報のみをコントリビュートする。
本稿では,新しいフェデレーション・レコメンデーション・フレームワークであるPDC-FRSを提案する。具体的には,ユーザが異なるプライバシ保証でデータを共有できるように,プライバシ保護データコントリビューション機構を設計する。
論文 参考訳(メタデータ) (2024-09-12T06:13:07Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedRec+: Enhancing Privacy and Addressing Heterogeneity in Federated
Recommendation Systems [15.463595798992621]
FedRec+は、フェデレーションレコメンデーションシステムのためのアンサンブルフレームワークである。
プライバシーを強化し、エッジユーザの通信コストを低減します。
FedRec+の最先端性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-10-31T05:36:53Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。