論文の概要: Why Multi-Interest Fairness Matters: Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System
- arxiv url: http://arxiv.org/abs/2507.02000v1
- Date: Tue, 01 Jul 2025 11:39:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:14.974325
- Title: Why Multi-Interest Fairness Matters: Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System
- Title(参考訳): マルチゲストフェアネスが重要な理由:公正な会話リコメンダシステムのためのハイパーグラフコントラスト型マルチゲストラーニング
- Authors: Yongsen Zheng, Zongxuan Xie, Guohua Wang, Ziyao Liu, Liang Lin, Kwok-Yan Lam,
- Abstract要約: 公正な会話レコメンダシステム(HyFairCRS)のためのハイパーグラフコントラスト学習フレームワークを提案する。
HyFairCRSは対話型対話型レコメンダシステム(CRS)における多目的多様性フェアネスの促進を目指す
2つのCRSベースのデータセットの実験により、HyFairCRSは、不公平を効果的に軽減しつつ、新しい最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 55.39026603611269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unfairness is a well-known challenge in Recommender Systems (RSs), often resulting in biased outcomes that disadvantage users or items based on attributes such as gender, race, age, or popularity. Although some approaches have started to improve fairness recommendation in offline or static contexts, the issue of unfairness often exacerbates over time, leading to significant problems like the Matthew effect, filter bubbles, and echo chambers. To address these challenges, we proposed a novel framework, Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System (HyFairCRS), aiming to promote multi-interest diversity fairness in dynamic and interactive Conversational Recommender Systems (CRSs). HyFairCRS first captures a wide range of user interests by establishing diverse hypergraphs through contrastive learning. These interests are then utilized in conversations to generate informative responses and ensure fair item predictions within the dynamic user-system feedback loop. Experiments on two CRS-based datasets show that HyFairCRS achieves a new state-of-the-art performance while effectively alleviating unfairness. Our code is available at https://github.com/zysensmile/HyFairCRS.
- Abstract(参考訳): 不公平はレコメンダーシステム(RS)においてよく知られた課題であり、しばしば、性別、人種、年齢、人気といった属性に基づいて不利なユーザーやアイテムに偏った結果をもたらす。
オフラインや静的な文脈での公平さの推奨を改善するアプローチもあるが、不公平さの問題は時間とともに悪化し、マシュー効果、フィルターバブル、エコーチャンバーといった重大な問題に繋がる。
これらの課題に対処するため,我々は,対話型対話型対話型推薦システム(CRS)における多目的多様性フェアネスの促進を目的とした,公正会話型推薦システム(HyFairCRS)のためのハイパーグラフ・コントラスト学習(Hypergraph Contrastive Multi-Interest Learning)という新しいフレームワークを提案した。
HyFairCRSは、コントラスト学習を通じて多様なハイパーグラフを確立することで、まず幅広いユーザーの興味を捉えている。
これらの関心は会話に利用され、情報的応答を生成し、動的なユーザ・システムフィードバックループ内で公平なアイテム予測を保証します。
2つのCRSベースのデータセットの実験により、HyFairCRSは、不公平を効果的に軽減しつつ、新しい最先端のパフォーマンスを達成することが示された。
私たちのコードはhttps://github.com/zysensmile/HyFairCRSで利用可能です。
関連論文リスト
- Bias vs Bias -- Dawn of Justice: A Fair Fight in Recommendation Systems [2.124791625488617]
本稿では,各カテゴリーの偏見を緩和するフェアネス・アウェア・リグレード・アプローチを提案する。
このアプローチは、性別、年齢、職業など、複数のセンシティブな属性に対するバイアスを軽減することができることを示す。
以上の結果から,この手法が社会的偏見の緩和にどのように役立つかが示唆された。
論文 参考訳(メタデータ) (2025-06-23T06:19:02Z) - Search-Based Interaction For Conversation Recommendation via Generative Reward Model Based Simulated User [117.82681846559909]
会話レコメンデーションシステム(CRS)は、マルチターンインタラクションを使用してユーザの好みを捉え、パーソナライズされたレコメンデーションを提供する。
本稿では,CRSと自動インタラクションを行うための生成報酬モデルに基づくシミュレーションユーザGRSUを提案する。
論文 参考訳(メタデータ) (2025-04-29T06:37:30Z) - Should We Tailor the Talk? Understanding the Impact of Conversational Styles on Preference Elicitation in Conversational Recommender Systems [19.830560938115436]
本研究では,会話スタイルの違いが会話推薦システム(CRS)の嗜好評価,タスクパフォーマンス,ユーザ満足度に及ぼす影響について検討した。
以上の結果から,ユーザの専門知識に基づく会話戦略の適応と,スタイル間の柔軟性の実現により,CRSにおけるユーザの満足度とレコメンデーションの有効性が向上することが示唆された。
論文 参考訳(メタデータ) (2025-04-17T17:01:17Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Leveraging Knowledge Graph Embedding for Effective Conversational Recommendation [4.079573593766921]
知識グラフに基づく会話推薦システム(KG-CRS参照)を提案する。
具体的には,まずユーザ・テムグラフとアイテム・アトリビュートグラフを動的グラフに統合し,否定的な項目や属性を除去することで対話プロセス中に動的に変化する。
次に、ユーザ、アイテム、属性の情報埋め込みを、グラフ上の隣人の伝播も考慮して学習する。
論文 参考訳(メタデータ) (2024-08-02T15:38:55Z) - Heterophily-Aware Fair Recommendation using Graph Convolutional Networks [1.0128808054306186]
我々は,アイテム側のフェアネスを改善するために,HetroFairと呼ばれる公正なGNNベースのレコメンデーションシステムを提案する。
HetroFairは2つの別々のコンポーネントを使用して、フェアネスを意識した埋め込みを生成する。
実験の結果,HetroFairはアイテム側の不公平さや人気バイアスを軽減するだけでなく,ユーザ側の精度も向上することがわかった。
論文 参考訳(メタデータ) (2024-01-31T11:03:58Z) - FairRec: Fairness Testing for Deep Recommender Systems [21.420524191767335]
本稿では,ディープラーニングに基づく推薦システムの公平性テストを支援する統一フレームワークを提案する。
また,新たな課題に取り組むために,検索に基づく新しい効率的なテスト手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T09:49:55Z) - FedGRec: Federated Graph Recommender System with Lazy Update of Latent
Embeddings [108.77460689459247]
プライバシー問題を軽減するためのフェデレートグラフレコメンダシステム(FedGRec)を提案する。
本システムでは,ユーザとサーバは,ユーザとアイテムに対する遅延埋め込みを明示的に記憶する。
我々は,遅延埋め込みを相互作用グラフの欠落のプロキシとして用いることの有効性を検証するために,広範な実験的な評価を行った。
論文 参考訳(メタデータ) (2022-10-25T01:08:20Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Leveraging Historical Interaction Data for Improving Conversational
Recommender System [105.90963882850265]
アイテムと属性に基づく嗜好シーケンスを統合するための,新しい事前学習手法を提案する。
実世界の2つのデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-19T03:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。