論文の概要: Improving Recommendation Fairness via Graph Structure and Representation Augmentation
- arxiv url: http://arxiv.org/abs/2508.19547v1
- Date: Wed, 27 Aug 2025 03:41:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.481644
- Title: Improving Recommendation Fairness via Graph Structure and Representation Augmentation
- Title(参考訳): グラフ構造と表現増強による推薦フェアネスの向上
- Authors: Tongxin Xu, Wenqiang Liu, Chenzhong Bin, Cihan Xiao, Zhixin Zeng, Tianlong Gu,
- Abstract要約: グラフ畳み込みネットワーク(GCN)はレコメンデーションシステムでますます人気が高まっている。
近年の研究では、GCNベースのモデルがグラフ構造において機密情報を広範囲に拡散させることが示されている。
本稿では、公正なグラフと特徴表現を生成するための2つのデータ拡張戦略を含む、公正な推薦のための二重データ拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.754198447907779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have become increasingly popular in recommendation systems. However, recent studies have shown that GCN-based models will cause sensitive information to disseminate widely in the graph structure, amplifying data bias and raising fairness concerns. While various fairness methods have been proposed, most of them neglect the impact of biased data on representation learning, which results in limited fairness improvement. Moreover, some studies have focused on constructing fair and balanced data distributions through data augmentation, but these methods significantly reduce utility due to disruption of user preferences. In this paper, we aim to design a fair recommendation method from the perspective of data augmentation to improve fairness while preserving recommendation utility. To achieve fairness-aware data augmentation with minimal disruption to user preferences, we propose two prior hypotheses. The first hypothesis identifies sensitive interactions by comparing outcomes of performance-oriented and fairness-aware recommendations, while the second one focuses on detecting sensitive features by analyzing feature similarities between biased and debiased representations. Then, we propose a dual data augmentation framework for fair recommendation, which includes two data augmentation strategies to generate fair augmented graphs and feature representations. Furthermore, we introduce a debiasing learning method that minimizes the dependence between the learned representations and sensitive information to eliminate bias. Extensive experiments on two real-world datasets demonstrate the superiority of our proposed framework.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)はレコメンデーションシステムでますます人気が高まっている。
しかし、最近の研究では、GCNベースのモデルがグラフ構造において機密情報を広範囲に拡散させ、データのバイアスを増幅し、公平性に関する懸念を高めることが示されている。
様々なフェアネス法が提案されているが、そのほとんどはバイアス付きデータの表現学習への影響を無視しており、その結果、フェアネスの改善は限られている。
さらに、データ拡張による公平かつバランスの取れたデータ分散の構築に焦点をあてる研究もあるが、これらの手法はユーザの好みを損なうため、有用性を著しく低下させる。
本稿では,データ拡張の観点からフェアリコメンデーション手法を設計し,リコメンデーションユーティリティを保ちながらフェアリコメンデーションを改善することを目的とする。
ユーザの好みを最小限に抑えた公平性を考慮したデータ拡張を実現するために,2つの先行仮説を提案する。
第1の仮説は、パフォーマンス指向とフェアネス認識のレコメンデーションの結果を比較してセンシティブな相互作用を識別し、第2の仮説はバイアスのある表現とバイアスのある表現の特徴的類似性を分析することによってセンシティブな特徴を検出することに焦点を当てる。
そこで本稿では,公正なグラフを生成するための2つのデータ拡張戦略と特徴表現を含む,公正な推薦のための2つのデータ拡張フレームワークを提案する。
さらに,学習した表現とセンシティブな情報との依存を最小化してバイアスを除去するバイアス学習手法を提案する。
2つの実世界のデータセットに対する大規模な実験は、提案したフレームワークの優位性を実証している。
関連論文リスト
- FROG: Fair Removal on Graphs [27.5582982873392]
本研究では,公正な未学習課題に対して,グラフ構造とそれに対応するモデルを協調的に最適化する手法を提案する。
具体的には、私たちのアプローチは、忘れるのを妨げる冗長なエッジを取り除くことで、未学習の効率を高めるためにグラフを再構成する。
フェアアンラーニング性能の信頼性を評価するために,最悪ケース評価機構を導入する。
論文 参考訳(メタデータ) (2025-03-23T20:39:53Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - How Fair is Your Diffusion Recommender Model? [17.321932595953527]
本稿では拡散に基づく推薦の先駆的手法であるDiffRecの公正性に関する最初の実証的研究を提案する。
我々の研究では、DiffRecとその変種であるL-DiffRecが、2つのベンチマークデータセット上で9つの推奨システムに対してテストされた。
拡散モデルに関するより一般的な機械学習文献と一致した傾向を示す一方で、今後の研究における不公平問題に対処するための有望な方向性を示す。
論文 参考訳(メタデータ) (2024-09-06T15:17:40Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。