論文の概要: FedAU2: Attribute Unlearning for User-Level Federated Recommender Systems with Adaptive and Robust Adversarial Training
- arxiv url: http://arxiv.org/abs/2511.22872v1
- Date: Fri, 28 Nov 2025 04:22:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.767402
- Title: FedAU2: Attribute Unlearning for User-Level Federated Recommender Systems with Adaptive and Robust Adversarial Training
- Title(参考訳): FedAU2:Adaptive and Robust Adversarial Trainingによるユーザレベルフェデレーションレコメンダシステムの非学習への貢献
- Authors: Yuyuan Li, Junjie Fang, Fengyuan Yu, Xichun Sheng, Tianyu Du, Xuyang Teng, Shaowei Jiang, Linbo Jiang, Jianan Lin, Chaochao Chen,
- Abstract要約: 敵の訓練は、この文脈の中で最も実現可能なアプローチとして現れます。
ユーザレベルのFedRecsに対する属性アンラーニング手法であるFedAU2を提案する。
提案するFedAU2は,既存のベースラインと比較して,未学習の有効性と推薦性能に優れる。
- 参考スコア(独自算出の注目度): 25.123969330252848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Recommender Systems (FedRecs) leverage federated learning to protect user privacy by retaining data locally. However, user embeddings in FedRecs often encode sensitive attribute information, rendering them vulnerable to attribute inference attacks. Attribute unlearning has emerged as a promising approach to mitigate this issue. In this paper, we focus on user-level FedRecs, which is a more practical yet challenging setting compared to group-level FedRecs. Adversarial training emerges as the most feasible approach within this context. We identify two key challenges in implementing adversarial training-based attribute unlearning for user-level FedRecs: i) mitigating training instability caused by user data heterogeneity, and ii) preventing attribute information leakage through gradients. To address these challenges, we propose FedAU2, an attribute unlearning method for user-level FedRecs. For CH1, we propose an adaptive adversarial training strategy, where the training dynamics are adjusted in response to local optimization behavior. For CH2, we propose a dual-stochastic variational autoencoder to perturb the adversarial model, effectively preventing gradient-based information leakage. Extensive experiments on three real-world datasets demonstrate that our proposed FedAU2 achieves superior performance in unlearning effectiveness and recommendation performance compared to existing baselines.
- Abstract(参考訳): Federated Recommender Systems(FedRecs)は、フェデレーション学習を活用して、データをローカルに保持することでユーザのプライバシを保護する。
しかしながら、FedRecsへのユーザ埋め込みはしばしば機密属性情報をエンコードし、属性推論攻撃に脆弱である。
属性アンラーニングはこの問題を軽減するための有望なアプローチとして現れている。
本稿では,グループレベルのFedRecsに比べて実用的だが困難な設定であるユーザレベルのFedRecsに焦点を当てる。
敵の訓練は、この文脈の中で最も実現可能なアプローチとして現れます。
ユーザレベルのFedRecsに対して、対戦型トレーニングベースの属性アンラーニングを実装する上での2つの重要な課題を特定します。
一 利用者データの不均一性による訓練不安定性の軽減及び
二 属性情報の漏出を防止すること。
これらの課題に対処するため,ユーザレベルのFedRecsに対する属性アンラーニング手法であるFedAU2を提案する。
本稿では,CH1 に対して,局所的な最適化動作に応じてトレーニングダイナミクスを調整した適応的対角訓練戦略を提案する。
また,CH2では,逆方向モデルに摂動を生じさせる二重確率変動型オートエンコーダを提案し,勾配に基づく情報漏洩を効果的に防止する。
3つの実世界のデータセットに対する大規模な実験により、提案したFedAU2は、既存のベースラインと比較して、未学習の有効性とレコメンデーション性能において優れた性能を発揮することが示された。
関連論文リスト
- FedRW: Efficient Privacy-Preserving Data Reweighting for Enhancing Federated Learning of Language Models [7.5015683571464]
我々は、信頼できる第三者を仮定することなく、サンプル再重み付けによるソフトデデューズを行うためのフェデレートリウェイト(FedRW)を提案する。
中心となるFedRWは、セキュアなマルチパーティ計算を通じて、セキュアで周波数対応のリウェイトプロトコルを提案する。
プレプロセスで28.78倍の高速化を実現し, パープレキシティを約11.42%向上させることで, 最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-11-10T18:29:55Z) - DARLR: Dual-Agent Offline Reinforcement Learning for Recommender Systems with Dynamic Reward [14.323631574821123]
モデルベースのオフライン強化学習は、レコメンデータシステムにとって有望なアプローチとして登場した。
DarLRは、レコメンデーションポリシーを強化するために、世界モデルを動的に更新することを提案する。
4つのベンチマークデータセットの実験は、DARLRの優れた性能を示している。
論文 参考訳(メタデータ) (2025-05-12T06:18:31Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Post-Training Attribute Unlearning in Recommender Systems [37.67195112898097]
既存の研究では、主にトレーニングデータ、すなわちモデル入力を未学習のターゲットとして使用している。
我々は、この未知の情報をtextitattribute と呼び、未学習のターゲットとして扱う。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning(AU)は、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2024-03-11T14:02:24Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - UPFL: Unsupervised Personalized Federated Learning towards New Clients [13.98952154869707]
本稿では,フェデレート学習における比較的未探索の問題に対処する。
フェデレートされたモデルがトレーニングされ、デプロイされ、ラベルのない新しいクライアントが加わると、新しいクライアントのためのパーソナライズされたモデルが非常に難しいタスクになります。
適応的リスク最小化手法を教師なしの個別学習環境に拡張し,提案手法であるFedTTAを提案する。
論文 参考訳(メタデータ) (2023-07-29T14:30:11Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。