論文の概要: Fair Recommendations with Limited Sensitive Attributes: A Distributionally Robust Optimization Approach
- arxiv url: http://arxiv.org/abs/2405.01063v2
- Date: Mon, 27 May 2024 07:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 05:37:42.409094
- Title: Fair Recommendations with Limited Sensitive Attributes: A Distributionally Robust Optimization Approach
- Title(参考訳): 限定的な感性属性を持つフェアレコメンデーション:分散ロバスト最適化アプローチ
- Authors: Tianhao Shi, Yang Zhang, Jizhi Zhang, Fuli Feng, Xiangnan He,
- Abstract要約: 本稿では,推薦システムにおける公平性を確保するために,分散ロバスト公正最適化(DRFO)を提案する。
DRFOは、欠落した機密属性の潜在的な確率分布に対する最悪の不公平性を最小化する。
我々は,提案手法が推薦システムの公平性を効果的に確保できることを示す理論的,実証的な証拠を提供する。
- 参考スコア(独自算出の注目度): 46.61096160935783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As recommender systems are indispensable in various domains such as job searching and e-commerce, providing equitable recommendations to users with different sensitive attributes becomes an imperative requirement. Prior approaches for enhancing fairness in recommender systems presume the availability of all sensitive attributes, which can be difficult to obtain due to privacy concerns or inadequate means of capturing these attributes. In practice, the efficacy of these approaches is limited, pushing us to investigate ways of promoting fairness with limited sensitive attribute information. Toward this goal, it is important to reconstruct missing sensitive attributes. Nevertheless, reconstruction errors are inevitable due to the complexity of real-world sensitive attribute reconstruction problems and legal regulations. Thus, we pursue fair learning methods that are robust to reconstruction errors. To this end, we propose Distributionally Robust Fair Optimization (DRFO), which minimizes the worst-case unfairness over all potential probability distributions of missing sensitive attributes instead of the reconstructed one to account for the impact of the reconstruction errors. We provide theoretical and empirical evidence to demonstrate that our method can effectively ensure fairness in recommender systems when only limited sensitive attributes are accessible.
- Abstract(参考訳): 求職や電子商取引など,様々な分野においてレコメンダシステムは不可欠であるため,ユーザに対して適切なレコメンデーションを提供することが必須条件となる。
推薦システムにおける公平性を高める以前のアプローチでは、プライバシの懸念やそれらの属性をキャプチャする不十分な手段のために、すべての機密属性が利用可能になることが予想される。
実際には、これらのアプローチの有効性は限られており、機密属性情報に制限されたフェアネスの促進方法の検討を迫られている。
この目標に向けて、欠落した機密属性を再構築することが重要である。
しかし, 現実の属性復元問題や法的規制が複雑化しているため, 復元ミスは避けられない。
そこで我々は,再構成誤りに対して堅牢な公平な学習手法を追求する。
この目的のために、再構成された属性ではなく、欠落した属性の潜在確率分布に対する最悪の不公平性を最小化し、再構成エラーの影響を考慮に入れた分散ロバスト公正最適化(DRFO)を提案する。
提案手法は,限られた機密属性しかアクセスできない場合に,提案手法が推薦システムの公平性を効果的に確保できることを示すため,理論的かつ実証的な証拠を提供する。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Fair Supervised Learning with A Simple Random Sampler of Sensitive
Attributes [13.988497790151651]
本研究は,ニューラルネットワークによって学習された公正な罰則を,非識別的教師付き学習のための感度属性の単純なランダムサンプリングを用いて提案する。
計算効率のよいグループレベルのフェアネス対応トレーニングフレームワークを構築した。
実証的な証拠は、我々のフレームワークが競合する手法よりも人気のあるベンチマークデータセットの有効性と公平性を享受していることを示している。
論文 参考訳(メタデータ) (2023-11-10T04:38:13Z) - A Sequentially Fair Mechanism for Multiple Sensitive Attributes [0.46040036610482665]
アルゴリズムフェアネスの標準的なユースケースでは、感度変数と対応するスコアの関係を排除することが目標である。
センシティブな特徴の集合にまたがって、段階的に公平性を達成できるシーケンシャルなフレームワークを提案する。
当社のアプローチは、リスクと不公平の間のトレードオフを緩和するフレームワークを包含することで、公平性をシームレスに拡張します。
論文 参考訳(メタデータ) (2023-09-12T22:31:57Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。