論文の概要: From latent factors to language: a user study on LLM-generated explanations for an inherently interpretable matrix-based recommender system
- arxiv url: http://arxiv.org/abs/2509.18980v2
- Date: Wed, 01 Oct 2025 07:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.766649
- Title: From latent factors to language: a user study on LLM-generated explanations for an inherently interpretable matrix-based recommender system
- Title(参考訳): 潜在因子から言語へ--自然解釈可能な行列ベースレコメンデータシステムのためのLLM生成説明のユーザスタディ
- Authors: Maxime Manderlier, Fabian Lecron, Olivier Vu Thanh, Nicolas Gillis,
- Abstract要約: 大規模言語モデル(LLM)が数学的に解釈可能なレコメンデーションモデルから,効果的なユーザ向け説明を生成できるかどうかを検討する。
本研究は,5次元にわたる説明の質を評価する326人の被験者を対象に実施した。
分析の結果、全ての説明型は概ね好意的であり、戦略間の統計的差異は緩やかであることがわかった。
- 参考スコア(独自算出の注目度): 8.280161440212504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate whether large language models (LLMs) can generate effective, user-facing explanations from a mathematically interpretable recommendation model. The model is based on constrained matrix factorization, where user types are explicitly represented and predicted item scores share the same scale as observed ratings, making the model's internal representations and predicted scores directly interpretable. This structure is translated into natural language explanations using carefully designed LLM prompts. Many works in explainable AI rely on automatic evaluation metrics, which often fail to capture users' actual needs and perceptions. In contrast, we adopt a user-centered approach: we conduct a study with 326 participants who assessed the quality of the explanations across five key dimensions-transparency, effectiveness, persuasion, trust, and satisfaction-as well as the recommendations themselves. To evaluate how different explanation strategies are perceived, we generate multiple explanation types from the same underlying model, varying the input information provided to the LLM. Our analysis reveals that all explanation types are generally well received, with moderate statistical differences between strategies. User comments further underscore how participants react to each type of explanation, offering complementary insights beyond the quantitative results.
- Abstract(参考訳): 大規模言語モデル(LLM)が数学的に解釈可能なレコメンデーションモデルから効果的なユーザ向け説明を生成できるかどうかを検討する。
このモデルは制約付き行列分解に基づいており、そこではユーザタイプが明示的に表現され、予測されたアイテムスコアが観測された評価値と同じスケールを共有し、モデルの内部表現と予測されたスコアを直接解釈できる。
この構造は、慎重に設計されたLLMプロンプトを用いて自然言語の説明に変換される。
説明可能なAIにおける多くの作業は自動評価メトリクスに依存しており、ユーザの実際のニーズや認識を捉えるのに失敗することが多い。
対照的に、私たちは326人の参加者を対象に、透明性、有効性、説得性、信頼、満足度という5つの重要な側面にわたる説明の質を評価する調査を実施しました。
異なる説明方法がどう認識されるかを評価するため、同じモデルから複数の説明型を生成し、LLMに提供される入力情報を変化させる。
分析の結果、全ての説明型は概ね好意的であり、戦略間の統計的差異は緩やかであることがわかった。
ユーザコメントは、参加者がそれぞれのタイプの説明に対してどのように反応するかをさらに強調し、定量的な結果以上の補完的な洞察を提供する。
関連論文リスト
- Hierarchical Interaction Summarization and Contrastive Prompting for Explainable Recommendations [9.082885521130617]
本稿では、階層的相互作用要約(PGHIS)によるプロファイル生成と、説明生成(CPEG)のための対照的なプロンプトを組み合わせた新しいアプローチを提案する。
提案手法は既存の最先端手法よりも優れており,説明可能性(GPTScoreの5%など)とテキスト品質に関する指標の大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-07-08T14:45:47Z) - Understanding Large Language Model Behaviors through Interactive Counterfactual Generation and Analysis [22.755345889167934]
本稿では,大規模言語モデル (LLM) の対実解析による探索を可能にする対話型可視化システムを提案する。
本システムは,意味論的に意味のある反事実を生成する新しいアルゴリズムを特徴とする。
LLM実践者とのユーザスタディと専門家とのインタビューは、システムのユーザビリティと有効性を示している。
論文 参考訳(メタデータ) (2024-04-23T19:57:03Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - MaNtLE: Model-agnostic Natural Language Explainer [9.43206883360088]
モデルに依存しない自然言語説明器であるMaNtLEを導入し、複数の分類器の予測を解析する。
MaNtLEは、何千もの合成分類タスクでマルチタスクトレーニングを使用して、忠実な説明を生成する。
シミュレーションユーザスタディでは、平均して、MaNtLEの生成した説明は、LIMEやAnchorsの説明に比べて少なくとも11%忠実であることが示されている。
論文 参考訳(メタデータ) (2023-05-22T12:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。