論文の概要: CogRec: A Cognitive Recommender Agent Fusing Large Language Models and Soar for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2512.24113v1
- Date: Tue, 30 Dec 2025 09:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.350264
- Title: CogRec: A Cognitive Recommender Agent Fusing Large Language Models and Soar for Explainable Recommendation
- Title(参考訳): CogRec: 大規模言語モデルを用いた認知的レコメンデーションエージェント
- Authors: Jiaxin Hu, Tao Wang, Bingsan Yang, Hongrun Wang,
- Abstract要約: 大規模言語モデル(LLM)は、レコメンデーションシステムに対するユーザの好みを理解する上で、顕著な能力を示している。
それらは、固有の「ブラックボックス」の特徴、知識幻覚への感受性、オンライン学習能力の制限など、いくつかの重要な課題に制約されている。
本稿では,LLMの強みをソア認知アーキテクチャと相乗化する,CogRecという新しい認知推薦エージェントを提案する。
- 参考スコア(独自算出の注目度): 4.845415998340928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated a remarkable capacity in understanding user preferences for recommendation systems. However, they are constrained by several critical challenges, including their inherent "Black-Box" characteristics, susceptibility to knowledge hallucination, and limited online learning capacity. These factors compromise their trustworthiness and adaptability. Conversely, cognitive architectures such as Soar offer structured and interpretable reasoning processes, yet their knowledge acquisition is notoriously laborious. To address these complementary challenges, we propose a novel cognitive recommender agent called CogRec which synergizes the strengths of LLMs with the Soar cognitive architecture. CogRec leverages Soar as its core symbolic reasoning engine and leverages an LLM for knowledge initialization to populate its working memory with production rules. The agent operates on a Perception-Cognition-Action(PCA) cycle. Upon encountering an impasse, it dynamically queries the LLM to obtain a reasoned solution. This solution is subsequently transformed into a new symbolic production rule via Soar's chunking mechanism, thereby enabling robust online learning. This learning paradigm allows the agent to continuously evolve its knowledge base and furnish highly interpretable rationales for its recommendations. Extensive evaluations conducted on three public datasets demonstrate that CogRec demonstrates significant advantages in recommendation accuracy, explainability, and its efficacy in addressing the long-tail problem.
- Abstract(参考訳): 大規模言語モデル(LLM)は、レコメンデーションシステムに対するユーザの好みを理解する上で、顕著な能力を示している。
しかし、それらには固有の「ブラックボックス」の特徴、知識幻覚への感受性、オンライン学習能力の制限など、いくつかの重要な課題がある。
これらの要因は信頼性と適応性を損なう。
逆に、Soarのような認知的アーキテクチャは構造化され、解釈可能な推論プロセスを提供するが、その知識の獲得は悪名高い。
これらの相補的課題に対処するため,我々は,LLMの強みをソア認知アーキテクチャと相乗化する,CogRecと呼ばれる新しい認知推薦エージェントを提案する。
CogRecはコアシンボリック推論エンジンとしてSoarを活用し、LLMを利用して知識の初期化を行い、動作メモリにプロダクションルールを投入する。
エージェントはPerception-Cognition-Action(PCA)サイクルで動作する。
不適切な問題に遭遇すると、LCMに動的に問い合わせて推論された解を得る。
このソリューションはその後、Soarのチャンキング機構を通じて新しいシンボリック生産ルールに変換され、堅牢なオンライン学習を可能にする。
この学習パラダイムにより、エージェントはその知識基盤を継続的に進化させ、その推奨に対して高度に解釈可能な合理性を与えることができる。
3つの公開データセットで実施された大規模な評価は、CagRecが推奨精度、説明可能性、そしてロングテール問題に対処するその有効性において、大きな優位性を示すことを示している。
関連論文リスト
- Towards Comprehensible Recommendation with Large Language Model Fine-tuning [41.218487308635126]
本稿では,コラボレーティブ・パースペクティブ・フレームワーク(CURec)によるレコメンデーションシステムのための新しいコンテンツ理解手法を提案する。
Curecは、より包括的なレコメンデーションのために、協調的なコンテンツ機能を生成する。
公開ベンチマークの実験では、既存の方法よりもCURecの方が優れていることが示されている。
論文 参考訳(メタデータ) (2025-08-11T03:55:31Z) - Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation [41.42762478243583]
大規模言語モデル(LLM)は目覚ましい成果をもたらし、次世代のレコメンデーターシステムの開発の可能性を示している。
LLMは、LLMのバックボーン、特に幻覚の問題、最新のドメイン固有の知識の欠如に起因する固有の制限に直面している。
本稿では,知識グラフ(KG)から高品質かつ最新の構造情報を検索して,推薦を増強することを提案する。
論文 参考訳(メタデータ) (2025-01-04T08:16:23Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - Knowledge-Driven CoT: Exploring Faithful Reasoning in LLMs for
Knowledge-intensive Question Answering [17.672572064705445]
CoT(Chain-of-Thought)を備えた大規模言語モデル(LLM)は、様々な下流タスクにおいて顕著な推論能力を示している。
我々は、外部知識との相互作用を通じてCoTの推論トレースを検証・修正する、KD-CoT(Knowled-Driven Chain-of-Thought)というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T09:23:55Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。