論文の概要: Unlearning Protected User Attributes in Recommendations with Adversarial
Training
- arxiv url: http://arxiv.org/abs/2206.04500v1
- Date: Thu, 9 Jun 2022 13:36:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 13:24:55.485263
- Title: Unlearning Protected User Attributes in Recommendations with Adversarial
Training
- Title(参考訳): 非学習型ユーザ属性によるレコメンデーションの保護
- Authors: Christian Ganh\"or, David Penz, Navid Rekabsaz, Oleg Lesota, Markus
Schedl
- Abstract要約: 協調フィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報を含む、基礎となる消費パターンをキャプチャする。
これらの符号化バイアスは、様々な階層のサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステムの決定に影響を与える可能性がある。
本研究では,RSアルゴリズムの学習的相互作用表現から,ユーザの特定の保護された情報を除去する可能性と課題について検討する。
- 参考スコア(独自算出の注目度): 10.268369743620159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative filtering algorithms capture underlying consumption patterns,
including the ones specific to particular demographics or protected information
of users, e.g. gender, race, and location. These encoded biases can influence
the decision of a recommendation system (RS) towards further separation of the
contents provided to various demographic subgroups, and raise privacy concerns
regarding the disclosure of users' protected attributes. In this work, we
investigate the possibility and challenges of removing specific protected
information of users from the learned interaction representations of a RS
algorithm, while maintaining its effectiveness. Specifically, we incorporate
adversarial training into the state-of-the-art MultVAE architecture, resulting
in a novel model, Adversarial Variational Auto-Encoder with Multinomial
Likelihood (Adv-MultVAE), which aims at removing the implicit information of
protected attributes while preserving recommendation performance. We conduct
experiments on the MovieLens-1M and LFM-2b-DemoBias datasets, and evaluate the
effectiveness of the bias mitigation method based on the inability of external
attackers in revealing the users' gender information from the model. Comparing
with baseline MultVAE, the results show that Adv-MultVAE, with marginal
deterioration in performance (w.r.t. NDCG and recall), largely mitigates
inherent biases in the model on both datasets.
- Abstract(参考訳): コラボレーティブフィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報(性別、人種、場所など)を含む、基本的な消費パターンをキャプチャする。
これらの符号化バイアスは、様々なサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステム(RS)の決定に影響を与え、ユーザの保護された属性の開示に関するプライバシー上の懸念を高めることができる。
本研究では,rsアルゴリズムの学習したインタラクション表現からユーザの特定保護情報を取り除く可能性と課題について検討し,その効果を維持しながら検討する。
具体的には,最先端のmultvaeアーキテクチャに敵意のトレーニングを組み込んで,レコメンデーション性能を保ちながら保護属性の暗黙的な情報を削除することを目的とした,多項確率を持つ新しいモデルadv-multvae (adv-multvae) を開発した。
我々はMovieLens-1M と LFM-2b-DemoBias のデータセット上で実験を行い、モデルからユーザの性別情報を明らかにする際、外部攻撃者の不確実性に基づいてバイアス軽減手法の有効性を評価する。
ベースラインのMultVAEと比較して、Adv-MultVAEはパフォーマンスの限界劣化(例えばNDCGやリコール)により、両方のデータセットにおけるモデル固有のバイアスを軽減している。
関連論文リスト
- Simultaneous Unlearning of Multiple Protected User Attributes From Variational Autoencoder Recommenders Using Adversarial Training [8.272412404173954]
本稿では,複数の保護属性を同時に学習して,人口統計学的グループ間の公平性を向上することを目的としたAdvXMultVAEを提案する。
LFM-2b-100k と Ml-1m の2つのデータセットに対する実験により,本手法は特異除去法よりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-28T12:36:00Z) - Analyzing Inference Privacy Risks Through Gradients in Machine Learning [17.2657358645072]
本稿では,属性,プロパティ,配布,ユーザ開示など幅広い攻撃を対象とするゲームベースの統合フレームワークを提案する。
本結果は,分散学習における推論攻撃に対するプライバシを実現するために,データ集約のみを頼りにすることの有効性を示した。
論文 参考訳(メタデータ) (2024-08-29T21:21:53Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Ex-Ante Assessment of Discrimination in Dataset [20.574371560492494]
データ所有者は、自分たちのデータの使用が過小評価されているコミュニティにどのように害を与えるかという責任を負う。
本稿では, 個人の反応が感性特性によってどの程度異なるかを示すスコアを生成する, 決定トレエのForest of decision trEEsアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:28:22Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Learning Fair Representations via Rate-Distortion Maximization [16.985698188471016]
本稿では,Fairness-Aware Rate Maximization (FaRM) を提案する。このFairness-Aware Rate Maximization (FaRM) は,Fairness-Aware Rate Maximization (FRM) 関数を用いて,同じ保護属性クラスに属するインスタンスの表現を非相関にすることで,人口統計情報を除去する。
FaRMは、複数のデータセット上で最先端のパフォーマンスを実現し、学習された表現は、非線形探索ネットワークによる攻撃に対する保護属性情報のリークを著しく少なくする。
論文 参考訳(メタデータ) (2022-01-31T19:00:52Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。