論文の概要: Reproducibility Study of "XRec: Large Language Models for Explainable Recommendation"
- arxiv url: http://arxiv.org/abs/2510.06275v1
- Date: Mon, 06 Oct 2025 15:07:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.086405
- Title: Reproducibility Study of "XRec: Large Language Models for Explainable Recommendation"
- Title(参考訳): XRec: 説明可能な勧告のための大規模言語モデル」の再現性の検討
- Authors: Ranjan Mishra, Julian I. Bibo, Quinten van Engelen, Henk Schaapman,
- Abstract要約: 我々は,Ma らによる論文 "XRec: Large Language Models for Explainable Recommendation" で実施した作業を再現する。
本研究の目的は, GPT-3.5-turbo の代わりに Llama 3 を LLM として用いた原論文の結果を再現することであった。
我々の研究は、XRecのMixture of Expertsモジュールの入力埋め込みを変更したり、出力埋め込みを削除することで、元の論文を拡張しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we reproduced the work done in the paper "XRec: Large Language Models for Explainable Recommendation" by Ma et al. (2024). The original authors introduced XRec, a model-agnostic collaborative instruction-tuning framework that enables large language models (LLMs) to provide users with comprehensive explanations of generated recommendations. Our objective was to replicate the results of the original paper, albeit using Llama 3 as the LLM for evaluation instead of GPT-3.5-turbo. We built on the source code provided by Ma et al. (2024) to achieve our goal. Our work extends the original paper by modifying the input embeddings or deleting the output embeddings of XRec's Mixture of Experts module. Based on our results, XRec effectively generates personalized explanations and its stability is improved by incorporating collaborative information. However, XRec did not consistently outperform all baseline models in every metric. Our extended analysis further highlights the importance of the Mixture of Experts embeddings in shaping the explanation structures, showcasing how collaborative signals interact with language modeling. Through our work, we provide an open-source evaluation implementation that enhances accessibility for researchers and practitioners alike. Our complete code repository can be found at https://github.com/julianbibo/xrec-reproducibility.
- Abstract(参考訳): 本研究では,Ma et al (2024) の論文 "XRec: Large Language Models for Explainable Recommendation" を再現した。
原作者はXRecを導入した。XRecは、モデルに依存しない協調的な命令チューニングフレームワークで、大きな言語モデル(LLM)によって、生成されたレコメンデーションの包括的な説明を提供する。
本研究の目的は, GPT-3.5-turbo の代わりに Llama 3 を LLM として用いた原論文の結果を再現することであった。
私たちは目標を達成するために、Ma et al (2024)が提供するソースコードの上に構築しました。
我々の研究は、XRecのMixture of Expertsモジュールの入力埋め込みを変更したり、出力埋め込みを削除することで、元の論文を拡張しました。
この結果から,XRecはパーソナライズされた説明を効果的に生成し,協調情報を組み込むことで安定性を向上する。
しかしながら、XRecは全ての計量において全てのベースラインモデルより一貫して優れていなかった。
我々の拡張分析は、言語モデリングと協調的な信号がどのように相互作用するかを示す説明構造を形成する上で、Mixture of Expertsの埋め込みの重要性をさらに強調している。
研究を通じて、研究者や実践者のアクセシビリティを高めるオープンソース評価実装を提供する。
私たちの完全なコードリポジトリはhttps://github.com/julianbibo/xrec-reproducibility.orgにある。
関連論文リスト
- mlr3summary: Concise and interpretable summaries for machine learning models [9.191045750996524]
この研究は、機械学習モデルの簡潔で情報的な要約のための新しいRパッケージを導入している。
我々は、R 内の(一般化された)線型モデルに対する要約関数からインスピレーションを得るが、それをいくつかの方向に拡張する。
論文 参考訳(メタデータ) (2024-04-25T08:57:35Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Document-Level In-Context Few-Shot Relation Extraction via Pre-Trained Language Models [29.94694305204144]
本稿では,文書レベルのインコンテクスト・イン・ショット関係抽出のための新しいフレームワークを提案する。
ドキュメントレベルの関係抽出用データセットとして最大であるDocREDを用いて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-17T09:10:27Z) - Self-Refine: Iterative Refinement with Self-Feedback [62.78755306241981]
Self-Refineは、反復的なフィードバックと改善を通じて、大きな言語モデル(LLM)からの初期出力を改善するアプローチである。
GPT-3.5, ChatGPT, および GPT-4) LLM を用いて, 対話応答生成から数学的推論に至るまで, 7 つのタスクにまたがる自己決定性を評価する。
我々の研究は、GPT-4のような最先端のLCMでさえ、単純でスタンドアロンなアプローチを使用してテスト時にさらに改善できることを示します。
論文 参考訳(メタデータ) (2023-03-30T18:30:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。