論文の概要: Federated Learning and Unlearning for Recommendation with Personalized Data Sharing
- arxiv url: http://arxiv.org/abs/2603.11610v1
- Date: Thu, 12 Mar 2026 07:05:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.940145
- Title: Federated Learning and Unlearning for Recommendation with Personalized Data Sharing
- Title(参考訳): 個人化データ共有によるリコメンデーションのためのフェデレーションラーニングとアンラーニング
- Authors: Liang Qu, Jianxin Li, Wei Yuan, Shangfei Zheng, Lu Chen, Chengfei Liu, Hongzhi Yin,
- Abstract要約: 我々は、個人化されたユーザデータ共有を備えたレコメンデーションシステムのための学習学習フレームワークであるFedShareを提案する。
FedShareでは、サーバとのインタラクションデータの共有量をコントロールできる。
また、トレーニングされたモデルから共有されていないデータの影響を取り除くことで、データアンシェアリクエストもサポートする。
- 参考スコア(独自算出の注目度): 42.347059872284255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated recommender systems (FedRS) have emerged as a paradigm for protecting user privacy by keeping interaction data on local devices while coordinating model training through a central server. However, most existing federated recommender systems adopt a one-size-fits-all assumption on user privacy, where all users are required to keep their data strictly local. This setting overlooks users who are willing to share their data with the server in exchange for better recommendation performance. Although several recent studies have explored personalized user data sharing in FedRS, they assume static user privacy preferences and cannot handle user requests to remove previously shared data and its corresponding influence on the trained model. To address this limitation, we propose FedShare, a federated learn-unlearn framework for recommender systems with personalized user data sharing. FedShare not only allows users to control how much interaction data is shared with the server, but also supports data unsharing requests by removing the influence of the unshared data from the trained model. Specifically, FedShare leverages shared data to construct a server-side high-order user-item graph and uses contrastive learning to jointly align local and global representations. In the unlearning phase, we design a contrastive unlearning mechanism that selectively removes representations induced by the unshared data using a small number of historical embedding snapshots, avoiding the need to store large amounts of historical gradient information as required by existing federated recommendation unlearning methods. Extensive experiments on three public datasets demonstrate that FedShare achieves strong recommendation performance in both the learning and unlearning phases, while significantly reducing storage overhead in the unlearning phase compared with state-of-the-art baselines.
- Abstract(参考訳): フェデレートされたレコメンデータシステム(FedRS)は、中央サーバを通じてモデルのトレーニングをコーディネートしながら、ローカルデバイス上のインタラクションデータを保持することによって、ユーザのプライバシを保護するパラダイムとして登場した。
しかし、既存のフェデレートされたレコメンデータシステムでは、すべてのユーザがデータを厳格にローカルに保持する必要がある、ユーザプライバシに関する一大の仮定を採用しています。
この設定は、より良いレコメンデーションパフォーマンスと引き換えに、自分のデータをサーバと共有しようとするユーザーを見落とします。
最近のいくつかの研究では、FedRSにおけるパーソナライズされたユーザデータの共有について検討されているが、静的なユーザのプライバシを前提としており、以前共有されていたデータとそのトレーニングモデルに対する対応する影響を取り除くために、ユーザリクエストを処理できない。
この制限に対処するため、パーソナライズされたユーザデータ共有を備えたレコメンデータシステムのためのフェデレーション付き学習アンラーンフレームワークであるFedShareを提案する。
FedShareは、ユーザがサーバと共有されるインタラクションデータの量を制御するだけでなく、トレーニングされたモデルから共有されていないデータの影響を取り除くことによって、データの共有要求もサポートする。
具体的には、FedShareは共有データを活用して、サーバサイドの高階ユーザテムグラフを構築し、コントラスト学習を使用して、ローカルとグローバルの表現を共同で調整する。
未学習段階において、我々は、少数の履歴埋め込みスナップショットを用いて、非共有データによって引き起こされる表現を選択的に除去する対照的な非学習メカニズムを設計する。
3つの公開データセットに対する大規模な実験により、FedShareは、学習フェーズと未学習フェーズの両方で強力なレコメンデーションパフォーマンスを達成しつつ、未学習フェーズのストレージオーバーヘッドを最先端のベースラインと比較して大幅に低減することが示された。
関連論文リスト
- PDC-FRS: Privacy-preserving Data Contribution for Federated Recommender System [15.589541738576528]
フェデレートされたレコメンデーションシステム(FedRecs)は、デバイス上のレコメンデーションにおいてユーザのプライバシを保護するために人気のある研究方向として登場した。
FedRecsでは、ユーザーはデータをローカルに保持し、モデルパラメータを中央サーバにアップロードすることで、ローカルのコラボレーティブな情報のみをコントリビュートする。
本稿では,新しいフェデレーション・レコメンデーション・フレームワークであるPDC-FRSを提案する。具体的には,ユーザが異なるプライバシ保証でデータを共有できるように,プライバシ保護データコントリビューション機構を設計する。
論文 参考訳(メタデータ) (2024-09-12T06:13:07Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - A Privacy Preserving System for Movie Recommendations Using Federated Learning [12.751432553199628]
本稿では,映画レコメンデーションのためのレコメンデーションシステムを提案する。
フェデレートされた学習を用いてトレーニングされるため、その性質上、プライバシ保護が重要である。
FedQと呼ばれる新しいフェデレーション学習スキームが採用され、非i.d.nessと小さなローカルデータセットの問題に対処する。
論文 参考訳(メタデータ) (2023-03-07T17:22:38Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedGRec: Federated Graph Recommender System with Lazy Update of Latent
Embeddings [108.77460689459247]
プライバシー問題を軽減するためのフェデレートグラフレコメンダシステム(FedGRec)を提案する。
本システムでは,ユーザとサーバは,ユーザとアイテムに対する遅延埋め込みを明示的に記憶する。
我々は,遅延埋め込みを相互作用グラフの欠落のプロキシとして用いることの有効性を検証するために,広範な実験的な評価を行った。
論文 参考訳(メタデータ) (2022-10-25T01:08:20Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - FedeRank: User Controlled Feedback with Federated Recommender Systems [4.474834288759608]
データプライバシーは、デジタル時代の最も顕著な懸念の1つです。
我々はプライバシ保護の分散機械学習パラダイムであるFedeRankを紹介する。
また,FedeRankの有効性を,共有ユーザデータのごく一部であっても,推薦精度の観点から示す。
論文 参考訳(メタデータ) (2020-12-15T22:26:54Z) - How to Put Users in Control of their Data in Federated Top-N
Recommendation with Learning to Rank [16.256897977543982]
FPLは、ユーザがデバイスを離れる機密データの量を制御しながら、中央分解モデルのトレーニングに協力するアーキテクチャである。
提案手法は,フェデレートラーニングの原則に従うことで,ペアワイズ学習とランク最適化を実現する。
論文 参考訳(メタデータ) (2020-08-17T10:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。