論文の概要: Simultaneous Unlearning of Multiple Protected User Attributes From Variational Autoencoder Recommenders Using Adversarial Training
- arxiv url: http://arxiv.org/abs/2410.20965v1
- Date: Mon, 28 Oct 2024 12:36:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:44.067610
- Title: Simultaneous Unlearning of Multiple Protected User Attributes From Variational Autoencoder Recommenders Using Adversarial Training
- Title(参考訳): 逆学習を用いた変分オートエンコーダ推薦者からの複数保護ユーザ属性の同時学習
- Authors: Gustavo Escobedo, Christian Ganhör, Stefan Brandl, Mirjam Augstein, Markus Schedl,
- Abstract要約: 本稿では,複数の保護属性を同時に学習して,人口統計学的グループ間の公平性を向上することを目的としたAdvXMultVAEを提案する。
LFM-2b-100k と Ml-1m の2つのデータセットに対する実験により,本手法は特異除去法よりも優れた結果が得られることが示された。
- 参考スコア(独自算出の注目度): 8.272412404173954
- License:
- Abstract: In widely used neural network-based collaborative filtering models, users' history logs are encoded into latent embeddings that represent the users' preferences. In this setting, the models are capable of mapping users' protected attributes (e.g., gender or ethnicity) from these user embeddings even without explicit access to them, resulting in models that may treat specific demographic user groups unfairly and raise privacy issues. While prior work has approached the removal of a single protected attribute of a user at a time, multiple attributes might come into play in real-world scenarios. In the work at hand, we present AdvXMultVAE which aims to unlearn multiple protected attributes (exemplified by gender and age) simultaneously to improve fairness across demographic user groups. For this purpose, we couple a variational autoencoder (VAE) architecture with adversarial training (AdvMultVAE) to support simultaneous removal of the users' protected attributes with continuous and/or categorical values. Our experiments on two datasets, LFM-2b-100k and Ml-1m, from the music and movie domains, respectively, show that our approach can yield better results than its singular removal counterparts (based on AdvMultVAE) in effectively mitigating demographic biases whilst improving the anonymity of latent embeddings.
- Abstract(参考訳): 広く使われているニューラルネットワークベースの協調フィルタリングモデルでは、ユーザの好みを表す潜時埋め込みに、ユーザの履歴ログがエンコードされる。
この設定では、モデルがユーザーの保護された属性(例えば、性別や民族)を、明示的なアクセスなしにこれらのユーザー埋め込みからマッピングすることができ、結果として特定の人口統計学的ユーザーグループを不公平に扱い、プライバシー問題を提起するモデルとなる。
以前の作業では、一度に1つの保護された属性が削除されるというアプローチがあったが、現実のシナリオでは複数の属性が有効になる可能性がある。
本稿では,複数の保護属性(性別と年齢で示される)を同時に解放し,人口統計学的ユーザグループ間の公平性を向上することを目的としたAdvXMultVAEを提案する。
この目的のために,ユーザ保護属性を連続的および/またはカテゴリー的値で同時削除することを支援するために,変数学習(AdvMultVAE)を備えた可変オートエンコーダ(VAE)アーキテクチャを結合する。
音楽領域と映画領域の2つのデータセットである LFM-2b-100k と Ml-1m を用いた実験により, 遅延埋め込みの匿名性を改善しつつ, 人口統計学的バイアスを効果的に軽減し, 単一の除去結果(AdvMultVAEに基づく)よりも優れた結果が得られることが示された。
関連論文リスト
- MDAP: A Multi-view Disentangled and Adaptive Preference Learning Framework for Cross-Domain Recommendation [63.27390451208503]
クロスドメインレコメンデーションシステムは、マルチドメインユーザインタラクションを活用してパフォーマンスを向上させる。
マルチビュー・ディスタングル・アダプティブ・プライスラーニング・フレームワークを提案する。
当社のフレームワークはマルチビューエンコーダを使用して,多様なユーザの好みをキャプチャする。
論文 参考訳(メタデータ) (2024-10-08T10:06:45Z) - FedDMF: Privacy-Preserving User Attribute Prediction using Deep Matrix
Factorization [1.9181612035055007]
本稿では,ユーザマッチングを必要とせず,ユーザの属性を予測する新しいアルゴリズムを提案する。
我々のアプローチは、異なるクライアント上で深い行列分解モデルを訓練し、属性項目ベクトルのみを共有することである。
これにより、ユーザベクトル自体を共有することなく、ユーザ属性を予測できます。
論文 参考訳(メタデータ) (2023-12-24T06:49:00Z) - Enhancing User Intent Capture in Session-Based Recommendation with
Attribute Patterns [77.19390850643944]
周波数属性パターン拡張変換器(FAPAT)を提案する。
FAPATは属性遷移グラフと一致する属性パターンを構築することで、ユーザの意図を特徴づける。
FAPATは、様々な評価指標に対して平均4.5%の最先端手法を一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2023-12-23T03:28:18Z) - User Inference Attacks on Large Language Models [26.616016510555088]
ファインチューニング(英: Fine-tuning)は、大規模言語モデル(LLM)を特定のタスクやアプリケーションに合わせるための、一般的で効果的な方法である。
ユーザデータに対する微調整LDMのプライバシーへの影響について検討する。
論文 参考訳(メタデータ) (2023-10-13T17:24:52Z) - Attention Weighted Mixture of Experts with Contrastive Learning for
Personalized Ranking in E-commerce [21.7796124109]
本稿では,個人格付けのためのコントラスト学習を伴うAW-MoE(Attention Weighted Mixture of Experts)を提案する。
AW-MoEはJDのeコマース検索エンジンでうまく展開されている。
論文 参考訳(メタデータ) (2023-06-08T07:59:08Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Unlearning Protected User Attributes in Recommendations with Adversarial
Training [10.268369743620159]
協調フィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報を含む、基礎となる消費パターンをキャプチャする。
これらの符号化バイアスは、様々な階層のサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステムの決定に影響を与える可能性がある。
本研究では,RSアルゴリズムの学習的相互作用表現から,ユーザの特定の保護された情報を除去する可能性と課題について検討する。
論文 参考訳(メタデータ) (2022-06-09T13:36:28Z) - A Cooperative Memory Network for Personalized Task-oriented Dialogue
Systems with Incomplete User Profiles [55.951126447217526]
ユーザプロファイルの完成を前提とせず,タスク指向対話システムについて検討する。
ユーザプロファイルを徐々に強化する新しいメカニズムを持つ協調記憶ネットワーク(CoMemNN)を提案する。
CoMemNNは、ユーザープロファイルを効果的に強化することができ、応答選択精度の点で3.6%の改善につながります。
論文 参考訳(メタデータ) (2021-02-16T18:05:54Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。