論文の概要: Mitigating Popularity Bias in Counterfactual Explanations using Large Language Models
- arxiv url: http://arxiv.org/abs/2508.08946v1
- Date: Tue, 12 Aug 2025 13:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.446533
- Title: Mitigating Popularity Bias in Counterfactual Explanations using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた対実的説明における人気バイアスの緩和
- Authors: Arjan Hasami, Masoud Mansoury,
- Abstract要約: 本稿では,大規模言語モデルを用いて文字外履歴項目をフィルタリングする前処理ステップを提案する。
ACCENTのみよりも、各ユーザの人気の好みに忠実に適合した偽物を生成することが判明した。
- 参考スコア(独自算出の注目度): 1.7771454131646311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CFEs) offer a tangible and actionable way to explain recommendations by showing users a "what-if" scenario that demonstrates how small changes in their history would alter the system's output. However, existing CFE methods are susceptible to bias, generating explanations that might misalign with the user's actual preferences. In this paper, we propose a pre-processing step that leverages large language models to filter out-of-character history items before generating an explanation. In experiments on two public datasets, we focus on popularity bias and apply our approach to ACCENT, a neural CFE framework. We find that it creates counterfactuals that are more closely aligned with each user's popularity preferences than ACCENT alone.
- Abstract(参考訳): 対実的説明(CFE)は、ユーザに対して、その履歴の小さな変更がシステムの出力をいかに変化させるかを示す"What-if"シナリオを示すことで、具体的な、実用的な方法でレコメンデーションを説明する手段を提供する。
しかし、既存のCFEメソッドはバイアスの影響を受けやすく、ユーザの実際の嗜好に反する説明を生成する。
本稿では,大言語モデルを用いて文字外履歴項目をフィルタリングし,説明文を生成する前処理ステップを提案する。
2つの公開データセットの実験では、人気バイアスに注目し、ニューラルネットワークCFEフレームワークであるACCENTにアプローチを適用します。
ACCENTのみよりも、各ユーザの人気の好みに忠実に適合した偽物を生成することが判明した。
関連論文リスト
- Addressing Correlated Latent Exogenous Variables in Debiased Recommender Systems [3.082385853653964]
推薦システム(RS)は、パーソナライズされたコンテンツを提供することを目的としているが、選択バイアスによる非バイアス学習の課題に直面している。
本稿では,予測モデルを学習する確率に基づく学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-09T07:50:21Z) - Variational Bayesian Personalized Ranking [39.24591060825056]
変分的BPRは、確率最適化、ノイズ低減、人気低下を統合する、新しく実装が容易な学習目標である。
本稿では,問題サンプルからの雑音を効果的に低減するために,注目に基づく競合学習手法を提案する。
実験により、人気のあるバックボーンレコメンデーションモデルにおける変分BPRの有効性を実証する。
論文 参考訳(メタデータ) (2025-03-14T04:22:01Z) - Preference Discerning with LLM-Enhanced Generative Retrieval [28.309905847867178]
我々は、選好識別という新しいパラダイムを提案する。
嗜好判断において、我々は、そのコンテキスト内でのユーザの嗜好に対して、生成的シーケンシャルなレコメンデーションシステムを明示的に条件付けする。
ユーザレビューと項目固有データに基づいて,Large Language Models (LLMs) を用いてユーザ嗜好を生成する。
論文 参考訳(メタデータ) (2024-12-11T18:26:55Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - Bridging User Dynamics: Transforming Sequential Recommendations with Schrödinger Bridge and Diffusion Models [49.458914600467324]
拡散に基づく逐次レコメンデーションモデルにSchr"odinger Bridgeを導入し、SdifRecモデルを作成する。
また、ユーザクラスタリング情報を誘導条件として利用するcon-SdifRecと呼ばれるSdifRecの拡張版も提案する。
論文 参考訳(メタデータ) (2024-08-30T09:10:38Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Learning to Counterfactually Explain Recommendations [14.938252589829673]
本稿では,反実的説明を生成するための学習ベースのフレームワークを提案する。
説明文を生成するために,提案手法が提案するサロゲートモデルにより予測される履歴部分集合を抽出する可能性が最も高い。
論文 参考訳(メタデータ) (2022-11-17T18:21:21Z) - Probabilistic and Variational Recommendation Denoising [56.879165033014026]
暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-05-20T08:59:44Z) - Counterfactual Explanations for Neural Recommenders [10.880181451789266]
神経レコメンダーの非現実的な説明を見つけるための最初の一般的なフレームワークであるACCENTを提案する。
我々はACCENTを使って2つの一般的なニューラルモデルに対する反実的説明を生成する。
論文 参考訳(メタデータ) (2021-05-11T13:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。