論文の概要: Beyond Factual Correctness: Mitigating Preference-Inconsistent Explanations in Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2603.03080v1
- Date: Tue, 03 Mar 2026 15:24:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.853975
- Title: Beyond Factual Correctness: Mitigating Preference-Inconsistent Explanations in Explainable Recommendation
- Title(参考訳): 具体的正確性を超えて:説明可能な勧告における前提-矛盾した説明の緩和
- Authors: Chengkai Wang, Baisong Liu,
- Abstract要約: LLMベースの説明可能なレコメンデータは、実際に正しい説明を作成できるが、ユーザの過去の好みと矛盾する属性を使ってアイテムを正当化することができる。
我々は、この障害モードを形式化し、選択列生成パラダイムに従う優先認識推論フレームワークPUREを提案する。
PUREはマルチホップアイテム中心の推論パスのコンパクトなセットを選択し、ユーザの嗜好構造と整合し、ユーザ意図、特異性、多様性によってガイドされ、汎用的で弱いパーソナライズされた証拠を抑える。
- 参考スコア(独自算出の注目度): 2.379349092029744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based explainable recommenders can produce fluent explanations that are factually correct, yet still justify items using attributes that conflict with a user's historical preferences. Such preference-inconsistent explanations yield logically valid but unconvincing reasoning and are largely missed by standard hallucination or faithfulness metrics. We formalize this failure mode and propose PURE, a preference-aware reasoning framework following a select-then-generate paradigm. Instead of only improving generation, PURE intervenes in evidence selection, it selects a compact set of multi-hop item-centric reasoning paths that are both factually grounded and aligned with user preference structure, guided by user intent, specificity, and diversity to suppress generic, weakly personalized evidence. The selected evidence is then injected into LLM generation via structure-aware prompting that preserves relational constraints. To measure preference inconsistency, we introduce a feature-level, user-centric evaluation metric that reveals misalignment overlooked by factuality-based measures. Experiments on three real-world datasets show that PURE consistently reduces preference-inconsistent explanations and factual hallucinations while maintaining competitive recommendation accuracy, explanation quality, and inference efficiency. These results highlight that trustworthy explanations require not only factual correctness but also justification aligned with user preferences.
- Abstract(参考訳): LLMベースの説明可能なレコメンデータは、実際は正しいが、ユーザの過去の好みに反する属性を使用してアイテムを正当化する、流動的な説明を生成することができる。
このような好ましく一貫性のない説明は論理的に妥当であるが、説得力のない推論をもたらし、標準的な幻覚や忠実さの指標によってほとんど失われる。
我々は、この障害モードを形式化し、選択列生成パラダイムに従う優先認識推論フレームワークPUREを提案する。
PUREは、エビデンス選択に介入するだけでなく、ユーザ志向、特異性、多様性によって導かれる、事実とユーザの嗜好構造に整合したマルチホップアイテム中心の推論パスのコンパクトセットを選択し、汎用的で弱いパーソナライズされたエビデンスを抑える。
選択された証拠は、リレーショナル制約を保存する構造認識プロンプトを通じてLLM生成に注入される。
嗜好の不整合を計測するために,事実性に基づく測定によって見落とされた誤認識を明らかにする特徴レベル,ユーザ中心評価指標を導入する。
実世界の3つのデータセットの実験では、PUREは競争上の推奨精度、説明品質、推論効率を維持しながら、好ましくない説明と事実の幻覚を一貫して減少させる。
これらの結果は,信頼に値する説明には事実的正当性だけでなく,ユーザの嗜好に沿った正当性も必要であることを示している。
関連論文リスト
- Towards Generalizable Reasoning: Group Causal Counterfactual Policy Optimization for LLM Reasoning [50.352417879912515]
大規模言語モデル(LLM)は推論能力の進歩とともに複雑なタスクに優れる。
一般化可能な推論パターンを学習するために,LLMを明示的に訓練するためのグループ因果政策最適化を提案する。
次に、この報酬からトークンレベルのアドバンテージを構築し、ポリシーを最適化し、LCMにプロセス無効で事実上堅牢な推論パターンを推奨します。
論文 参考訳(メタデータ) (2026-02-06T08:03:11Z) - COMMUNITYNOTES: A Dataset for Exploring the Helpfulness of Fact-Checking Explanations [89.37527535663433]
ユーザが提供するノートと有用なラベルを用いた104kポストの大規模データセットを提示する。
本稿では,自動的なプロンプト最適化による理由定義の自動生成と改善を行うフレームワークを提案する。
実験の結果,最適化された定義は有用性と推論の両方を改善できることがわかった。
論文 参考訳(メタデータ) (2025-10-28T05:28:47Z) - MADREC: A Multi-Aspect Driven LLM Agent for Explainable and Adaptive Recommendation [11.430206422495829]
マルチアスペクト駆動型LLMエージェントMADRecは、レビューからマルチアスペクト情報の教師なし抽出によってユーザとアイテムのプロファイルを構築する自動レコメンデータである。
MADRecはアスペクトカテゴリに基づく要約を通じて構造化プロファイルを生成し、高密度入力を構築するためにRe-Rankingを適用する。
複数の領域にわたる実験により、MADRecは従来のLCMベースのベースラインよりも精度と説明可能性の両方で優れていることが示された。
論文 参考訳(メタデータ) (2025-10-15T10:03:29Z) - Aligning Deep Implicit Preferences by Learning to Reason Defensively [22.548051297731416]
優先推論のギャップを埋めるために,批判駆動推論アライメント(CDRA)を提案する。
CDRAはスカラー報酬マッチングタスクから構造化推論プロセスにアライメントを再構成する。
実験により、CDRAは、堅牢な推論を実行しながら、ユーザの真の嗜好を発見し、整合するのに優れていることが示された。
論文 参考訳(メタデータ) (2025-10-13T09:26:47Z) - Mitigating Popularity Bias in Counterfactual Explanations using Large Language Models [1.7771454131646311]
本稿では,大規模言語モデルを用いて文字外履歴項目をフィルタリングする前処理ステップを提案する。
ACCENTのみよりも、各ユーザの人気の好みに忠実に適合した偽物を生成することが判明した。
論文 参考訳(メタデータ) (2025-08-12T13:57:36Z) - FIRE: Faithful Interpretable Recommendation Explanations [2.6499018693213316]
推薦システムにおける自然言語の説明は、しばしばレビュー生成タスクとしてフレーム化される。
FireはSHAPベースの特徴属性と構造化されたプロンプト駆動言語生成を組み合わせた軽量で解釈可能なフレームワークである。
この結果から,FIREは競争推奨精度を達成するだけでなく,アライメント,構造,忠実度といった重要な次元に沿った説明品質を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-08-07T10:11:02Z) - SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for
Generative Large Language Models [55.60306377044225]
「SelfCheckGPT」は、ブラックボックスモデルの応答をファクトチェックする単純なサンプリングベースアプローチである。
本稿では,GPT-3を用いてWikiBioデータセットから個人に関するパスを生成する手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T19:31:21Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - CoP: Factual Inconsistency Detection by Controlling the Preference [45.4045488637761]
本稿では、生成モデルの好みをプロンプトの助けを借りて制御することで、CoPという教師なしのフレームワークを提案する。
適切に設計されたプロンプトにより、我々のフレームワークは特定の嗜好を評価し、きめ細かい不整合のカテゴリの測定に役立てることができる。
実験の結果,本フレームワークは3つの現実的不整合検出タスクにおいて,新たなSOTA結果を実現することがわかった。
論文 参考訳(メタデータ) (2022-12-03T13:05:24Z) - ADEPT: A DEbiasing PrompT Framework [64.54665501064659]
ファインタニングは文脈化された単語の埋め込みを曖昧にするための応用手法である。
意味的な意味を持つ個別のプロンプトは、タスクを乱すのに有効であることが示されている。
本稿では, PLM をデバイアス化する方法であるADEPT を提案し, バイアス除去と表現能力の確保の微妙なバランスを維持しながら, 即時チューニングによる PLM のデバイアス化手法を提案する。
論文 参考訳(メタデータ) (2022-11-10T08:41:40Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。