論文の概要: FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2410.17555v1
- Date: Wed, 23 Oct 2024 04:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:56:07.188360
- Title: FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning
- Title(参考訳): FairDgcl: 動的グラフコントラスト学習によるフェアネスを意識したレコメンデーション
- Authors: Wei Chen, Meng Yuan, Zhao Zhang, Ruobing Xie, Fuzhen Zhuang, Deqing Wang, Rui Liu,
- Abstract要約: 提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
- 参考スコア(独自算出の注目度): 48.38344934125999
- License:
- Abstract: As trustworthy AI continues to advance, the fairness issue in recommendations has received increasing attention. A recommender system is considered unfair when it produces unequal outcomes for different user groups based on user-sensitive attributes (e.g., age, gender). Some researchers have proposed data augmentation-based methods aiming at alleviating user-level unfairness by altering the skewed distribution of training data among various user groups. Despite yielding promising results, they often rely on fairness-related assumptions that may not align with reality, potentially reducing the data quality and negatively affecting model effectiveness. To tackle this issue, in this paper, we study how to implement high-quality data augmentation to improve recommendation fairness. Specifically, we propose FairDgcl, a dynamic graph adversarial contrastive learning framework aiming at improving fairness in recommender system. First, FairDgcl develops an adversarial contrastive network with a view generator and a view discriminator to learn generating fair augmentation strategies in an adversarial style. Then, we propose two dynamic, learnable models to generate contrastive views within contrastive learning framework, which automatically fine-tune the augmentation strategies. Meanwhile, we theoretically show that FairDgcl can simultaneously generate enhanced representations that possess both fairness and accuracy. Lastly, comprehensive experiments conducted on four real-world datasets demonstrate the effectiveness of the proposed FairDgcl.
- Abstract(参考訳): 信頼できるAIが進歩を続けるにつれ、リコメンデーションにおける公平性の問題に注目が集まっている。
ユーザセンシティブな属性(例えば、年齢、性別)に基づいて、異なるユーザグループに対して不平等な結果をもたらすと、レコメンダシステムは不公平であると考えられる。
一部の研究者は、様々なユーザグループ間でのトレーニングデータの歪んだ分布を変化させることで、ユーザレベルの不公平を緩和することを目的としたデータ拡張ベースの手法を提案している。
有望な結果をもたらすにもかかわらず、それらはしばしば、現実と一致しない公平性に関連する仮定に依存し、データ品質を低下させ、モデルの有効性に悪影響を及ぼす可能性がある。
この問題に対処するため,本稿では,推奨公正性を改善するために高品質なデータ拡張を実現する方法について検討する。
具体的には,FairDgclを提案する。FairDgclは,推薦システムにおける公正性向上を目的とした動的グラフ対逆学習フレームワークである。
まず、FairDgclは、ビュージェネレータとビュー識別器を備えた対向的コントラストネットワークを開発し、対向的スタイルで公正な拡張戦略を生成することを学習する。
そこで我々は,2つの動的学習可能なモデルを提案し,コントラスト学習フレームワーク内のコントラスト的なビューを生成し,拡張戦略を自動的に微調整する。
一方、FairDgclは、公正性と精度の両方を有する拡張表現を同時に生成できることを理論的に示す。
最後に、4つの実世界のデータセットで実施された包括的な実験は、提案されたFairDgclの有効性を示す。
関連論文リスト
- Data Augmentation via Subgroup Mixup for Improving Fairness [31.296907816698987]
グループフェアネスを改善するために、サブグループ間のペアワイズミキシングによるデータ拡張を提案する。
分類性能を向上させるためのミックスアップの成功に触発されて、トレーニングデータを増やすためのペアワイドミックスアップスキームを開発した。
論文 参考訳(メタデータ) (2023-09-13T17:32:21Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。