論文の概要: The Blessing of Reasoning: LLM-Based Contrastive Explanations in Black-Box Recommender Systems
- arxiv url: http://arxiv.org/abs/2502.16759v1
- Date: Mon, 24 Feb 2025 00:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:51:37.276275
- Title: The Blessing of Reasoning: LLM-Based Contrastive Explanations in Black-Box Recommender Systems
- Title(参考訳): 推論の祝福:ブラックボックスレコメンダシステムにおけるLLMに基づくコントラスト記述
- Authors: Yuyan Wang, Pan Li, Minmin Chen,
- Abstract要約: ディープニューラルネットワーク(DNN)を備えた大規模言語モデル(LLM)は、説明可能性と精度を向上させることができる。
LR-Recsysは、人間の読みやすい肯定的な説明と否定的な説明を生成するコントラッシブ・エクスラレーション・ジェネレータを導入している。
LR-Recsysは、高次元統計学習理論によって支持されるように、学習効率と予測精度も改善する。
- 参考スコア(独自算出の注目度): 15.497129747502926
- License:
- Abstract: Modern recommender systems use ML models to predict consumer preferences from consumption history. Although these "black-box" models achieve impressive predictive performance, they often suffer from a lack of transparency and explainability. Contrary to the presumed tradeoff between explainability and accuracy, we show that integrating large language models (LLMs) with deep neural networks (DNNs) can improve both. We propose LR-Recsys, which augments DNN-based systems with LLM reasoning capabilities. LR-Recsys introduces a contrastive-explanation generator that produces human-readable positive explanations and negative explanations. These explanations are embedded via a fine-tuned autoencoder and combined with consumer and product features to improve predictions. Beyond offering explainability, we show that LR-Recsys also improves learning efficiency and predictive accuracy, as supported by high-dimensional, multi-environment statistical learning theory. LR-Recsys outperforms state-of-the-art recommender systems by 3-14% on three real-world datasets. Importantly, our analysis reveals that these gains primarily derive from LLMs' reasoning capabilities rather than their external domain knowledge. LR-RecSys presents an effective approach to combine LLMs with traditional DNNs, two of the most widely used ML models today. The explanations generated by LR-Recsys provide actionable insights for consumers, sellers, and platforms, helping to build trust, optimize product offerings, and inform targeting strategies.
- Abstract(参考訳): 現代のレコメンデータシステムは、消費履歴から消費者の嗜好を予測するためにMLモデルを使用している。
これらの「ブラックボックス」モデルは印象的な予測性能を達成するが、透明性と説明責任の欠如に悩まされることが多い。
説明可能性と精度のトレードオフが推定されているのとは対照的に,大規模言語モデル(LLM)と深層ニューラルネットワーク(DNN)の統合はどちらも改善可能であることを示す。
LR-RecsysはDNNベースのシステムにLLM推論機能を加えて拡張する。
LR-Recsysは、人間の読みやすい肯定的な説明と否定的な説明を生成するコントラッシブ・エクスラレーション・ジェネレータを導入している。
これらの説明は、微調整されたオートエンコーダを通じて組み込まれ、消費者や製品の特徴と組み合わせて予測を改善する。
LR-Recsysは,説明可能性に加えて,高次元・多環境統計的学習理論により,学習効率と予測精度も向上することを示す。
LR-Recsysは3つの実世界のデータセットで最先端のレコメンデーションシステムよりも3-14%優れています。
重要なことは、これらの成果は主に、外部ドメインの知識よりもLCMの推論能力に起因していることを明らかにする。
LR-RecSysは、LLMを従来のDNNと組み合わせるための効果的なアプローチを提示している。
LR-Recsysが生み出した説明は、消費者、売り手、プラットフォームに対して実用的な洞察を与え、信頼の構築、製品提供の最適化、ターゲット戦略の通知を支援する。
関連論文リスト
- ReasoningRec: Bridging Personalized Recommendations and Human-Interpretable Explanations through LLM Reasoning [15.049688896236821]
本稿では、推論に基づくレコメンデーションフレームワークReasoningRecについて述べる。
ReasoningRecはレコメンデーションと人間の解釈可能な説明のギャップを埋める。
実証的な評価では、ReasoningRecは最先端の手法を最大12.5%上回っている。
論文 参考訳(メタデータ) (2024-10-30T16:37:04Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation [7.914816884185941]
逐次リコメンデーション(SR)タスクは,ユーザの行動シーケンスを学習し,過去のインタラクションと好みの変化を関連付けることによって,ユーザの次のインタラクションを予測することを目的としている。
従来のSRモデルは、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストや意味情報を無視して、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに重点を置いていることが多い。
大規模言語モデル(LLM)は、その高度な理解能力と強力な一般化能力により、最近SRタスクにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - SLMRec: Distilling Large Language Models into Small for Sequential Recommendation [38.51895517016953]
シーケンシャルレコメンデーションタスクでは、過去のインタラクションを考慮して、ユーザが対話する可能性のある次の項目を予測する。
最近の研究は、LCMがシーケンシャルレコメンデーションシステムに与える影響を実証している。
LLM の巨大なサイズのため、現実のプラットフォームに LLM ベースのモデルを適用するのは非効率で実用的ではない。
論文 参考訳(メタデータ) (2024-05-28T07:12:06Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。