論文の概要: Selection and Exploitation of High-Quality Knowledge from Large Language Models for Recommendation
- arxiv url: http://arxiv.org/abs/2508.07223v1
- Date: Sun, 10 Aug 2025 08:03:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.76288
- Title: Selection and Exploitation of High-Quality Knowledge from Large Language Models for Recommendation
- Title(参考訳): 推薦のための大規模言語モデルからの高品質知識の選択と展開
- Authors: Guanchen Wang, Mingming Ha, Tianbao Ma, Linxun Chen, Zhaojie Liu, Guorui Zhou, Kun Gai,
- Abstract要約: このフレームワークは、知識フィルタリングモジュールと埋め込み空間アライメントモジュールの2つの重要なコンポーネントで構成されている。
実験結果は知識フィルタリングとアライメントモジュールの両方の必要性と有効性を検証する。
抽出者のみのトレーニング戦略は、知識強化された推奨に対する新たな視点を提供する。
- 参考スコア(独自算出の注目度): 10.585520748427033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been growing interest in leveraging the impressive generalization capabilities and reasoning ability of large language models (LLMs) to improve the performance of recommenders. With this operation, recommenders can access and learn the additional world knowledge and reasoning information via LLMs. However, in general, for different users and items, the world knowledge derived from LLMs suffers from issues of hallucination, content redundant, and information homogenization. Directly feeding the generated response embeddings into the recommendation model can lead to unavoidable performance deterioration. To address these challenges, we propose a Knowledge Selection \& Exploitation Recommendation (KSER) framework, which effectively select and extracts the high-quality knowledge from LLMs. The framework consists of two key components: a knowledge filtering module and a embedding spaces alignment module. In the knowledge filtering module, a Embedding Selection Filter Network (ESFNet) is designed to assign adaptive weights to different knowledge chunks in different knowledge fields. In the space alignment module, an attention-based architecture is proposed to align the semantic embeddings from LLMs with the feature space used to train the recommendation models. In addition, two training strategies--\textbf{all-parameters training} and \textbf{extractor-only training}--are proposed to flexibly adapt to different downstream tasks and application scenarios, where the extractor-only training strategy offers a novel perspective on knowledge-augmented recommendation. Experimental results validate the necessity and effectiveness of both the knowledge filtering and alignment modules, and further demonstrate the efficiency and effectiveness of the extractor-only training strategy.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)の印象的な一般化能力と推論能力を活用してレコメンデータのパフォーマンスを向上させることへの関心が高まっている。
この操作により、レコメンダはLLMを通じて追加の世界知識や推論情報にアクセスし、学習することができる。
しかし、一般的には、異なるユーザやアイテムに対して、LLMから派生した世界知識は幻覚、コンテンツの冗長性、情報の均質化といった問題に悩まされている。
生成されたレスポンスの埋め込みをレコメンデーションモデルに直接入力すると、避けられないパフォーマンスが劣化する可能性がある。
これらの課題に対処するために,LLMから高品質な知識を効果的に選択・抽出する知識選択・爆発勧告(KSER)フレームワークを提案する。
このフレームワークは、知識フィルタリングモジュールと埋め込み空間アライメントモジュールの2つの重要なコンポーネントで構成されている。
知識フィルタリングモジュールでは、異なる知識分野の知識チャンクに適応重みを割り当てるために、埋め込み選択フィルタネットワーク(ESFNet)が設計されている。
空間アライメントモジュールでは、LLMからのセマンティック埋め込みとレコメンデーションモデルのトレーニングに使用される特徴空間を整合させるために、注意に基づくアーキテクチャが提案されている。
さらに、2つのトレーニング戦略、-\textbf{all-parameters training} と \textbf{extractor-only training} が、異なるダウンストリームタスクやアプリケーションシナリオに柔軟に対応するために提案されている。
実験により,知識フィルタリングとアライメントモジュールの両方の必要性と有効性を検証するとともに,抽出器のみのトレーニング戦略の有効性と有効性を示す。
関連論文リスト
- From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - MMREC: LLM Based Multi-Modal Recommender System [2.3113916776957635]
本稿では,Large Language Models(LLM)とディープラーニング技術を活用して,レコメンデータシステムを強化する新しい手法を提案する。
提案フレームワークは,マルチモーダル情報処理を取り入れたレコメンデーションの精度と妥当性を,統一された潜在空間表現を用いて向上することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T04:31:29Z) - Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation [23.182787000804407]
セッションベースレコメンデーション(SBR)を強化するための有望なアプローチとして,大規模言語モデル(LLM)が登場している。
本稿では,SBRのための反射強化大言語モデル(Re2LLM)を提案する。
論文 参考訳(メタデータ) (2024-03-25T05:12:18Z) - TRAWL: External Knowledge-Enhanced Recommendation with LLM Assistance [9.017820815622828]
有望なアプローチは、振る舞いに基づく推薦システムを豊富な意味情報で強化するために、外部知識を活用することである。
このアプローチは、生の外部知識の認知と意味表現の適応という2つの主要な課題に直面している。
LLM支援を用いた外部知識強化レコメンデーション手法を提案する。
論文 参考訳(メタデータ) (2024-03-11T12:04:20Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。