論文の概要: From What to Why: Thought-Space Recommendation with Small Language Models
- arxiv url: http://arxiv.org/abs/2510.08626v1
- Date: Wed, 08 Oct 2025 11:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.216609
- Title: From What to Why: Thought-Space Recommendation with Small Language Models
- Title(参考訳): 何から何へ:小さな言語モデルによる思考空間勧告
- Authors: Prosenjit Biswas, Pervez Shaik, Abhinav Thorat, Ravi Kolla, Niranjan Pedanekar,
- Abstract要約: 大規模言語モデル(LLM)は推論の強化を通じて高度なレコメンデーション機能を備えているが、実際のデプロイメントには大きな課題がある。
SLM(Small Language Models)は効率的な代替手段を提供するが、推奨する推論機能は未検討のままである。
PULSE(Preference Understanding by Latent Semantic Embeddings)は,SLM生成論理をディレクター学習信号として扱うフレームワークである。
- 参考スコア(独自算出の注目度): 2.134948383299948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have advanced recommendation capabilities through enhanced reasoning, but pose significant challenges for real-world deployment due to high inference costs. Conversely, while Small Language Models (SLMs) offer an efficient alternative, their reasoning capabilities for recommendation remain underexplored. Existing systems often use natural language rationales merely as unsupervised descriptive text, failing to harness their full potential as learning signals. In this work our main idea is to create a common understanding of user and items across multiple domains called Thought Space with SLMs instead of using LLMs' distilled knowledge. To that end we propose PULSE (Preference Understanding by Latent Semantic Embeddings), a framework that treats SLM-generated rationales as director learning signals, supervising them with interaction histories to jointly model user actions (what) and their semantic drivers (why). Existing methods consider only interactions such as sequences and embeddings, whereas PULSE treats rationales as first-class signals, this novel design yields embeddings that are more robust and generalizable. Extensive experiments demonstrate that PULSE outperforms leading ID, Collaborative Filtering (CF), and LLM-based sequential recommendation models across multiple benchmark datasets. Furthermore, PULSE exhibits superior transferability in cross-domain recommendation and demonstrates strong performance on downstream tasks such as reasoning-oriented question answering. Our code is available \href{https://anonymous.4open.science/r/Thinking_PULSE-0FC5/README.md}{here}.
- Abstract(参考訳): 大規模言語モデル(LLM)は推論の強化を通じて高度なレコメンデーション機能を備えているが、推論コストが高いために現実のデプロイメントには大きな課題がある。
逆に、Small Language Models (SLM) は効率的な代替手段を提供するが、レコメンデーションのための推論能力は未検討のままである。
既存のシステムは、しばしば自然言語の有理を教師なし記述テキストとして使うが、学習信号としてその潜在能力を最大限に活用することができない。
この作業では、LLMの蒸留知識を使わずに、SLM(Thought Space with SLMs)と呼ばれる複数のドメインにまたがるユーザとアイテムの共通理解を作ることが目的です。
PULSE(Preference Understanding by Latent Semantic Embeddings)は、SLM生成論理をディレクター学習信号として扱うフレームワークであり、ユーザアクション(What)とそれらのセマンティックドライバ(Why)を協調的にモデル化するためのインタラクション履歴でそれらを監視する。
既存の手法では、列や埋め込みのような相互作用のみを考慮しているが、PULSEは有理を第一級信号として扱うが、この新しい設計はより堅牢で一般化可能な埋め込みを生み出す。
大規模な実験では、PULSEがリードID、コラボレーティブフィルタリング(CF)、および複数のベンチマークデータセットにわたるLLMベースのシーケンシャルレコメンデーションモデルより優れていることが示されている。
さらに、PULSEはクロスドメインレコメンデーションにおいて優れた転送可能性を示し、推論指向の質問応答のような下流タスクで強い性能を示す。
私たちのコードは href{https://anonymous.4open.science/r/Thinking_PULSE-0FC5/README.md}{here} で利用可能です。
関連論文リスト
- LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - Can Small Language Models be Good Reasoners for Sequential Recommendation? [34.098264212413305]
SLIM (Step-by-step knowLedge dIstillation fraMework for recommendation)
より大規模な教師モデルのためのユーザ行動系列に基づくCoTプロンプトを導入する。
教師モデルによって生成される理論的根拠をラベルとして利用し、下流のより小さな学生モデルを蒸留する。
論文 参考訳(メタデータ) (2024-03-07T06:49:37Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - One Model for All: Large Language Models are Domain-Agnostic Recommendation Systems [43.79001185418127]
本稿では,事前学習された大規模言語モデル(LLM)をドメインに依存しない推薦に利用するフレームワークを提案する。
具体的には、複数のドメインやアイテムタイトルからのユーザの振る舞いを文に混ぜて、ユーザとアイテムの表現を生成するためにLLMを使用する。
論文 参考訳(メタデータ) (2023-10-22T13:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。