論文の概要: A Unified Language Model for Large Scale Search, Recommendation, and Reasoning
- arxiv url: http://arxiv.org/abs/2603.17533v1
- Date: Wed, 18 Mar 2026 09:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.612635
- Title: A Unified Language Model for Large Scale Search, Recommendation, and Reasoning
- Title(参考訳): 大規模検索・推薦・推論のための統一言語モデル
- Authors: Marco De Nadai, Edoardo D'Amico, Max Lefarov, Alexandre Tamborrino, Divita Vohra, Mark VanMiddlesworth, Shawn Lin, Jacqueline Wood, Jan Stypka, Eliza Klyce, Keshi Dai, Timothy Christopher Heath, Martin D. Gould, Yves Raimond, Sandeep Ghael, Tony Jebara, Andreas Damianou, Vladan Radosavljevic, Paul N. Bennett, Mounia Lalmas, Praveen Chandar,
- Abstract要約: 我々は,事前学習されたデコーダのみのLLMを,ツールフリーでカタログを基盤としたジェネレータに適応させるフレームワークNEOを紹介する。
NEOは、アイテムをSIDとして表現し、自然言語と型付きアイテム識別子をインターリーブするために単一のモデルを訓練する。
我々は,複数のメディアタイプと発見タスクにまたがる1000万項目以上の実世界のカタログ上で,NEOを大規模に評価する。
- 参考スコア(独自算出の注目度): 29.766824024623336
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: LLMs are increasingly applied to recommendation, retrieval, and reasoning, yet deploying a single end-to-end model that can jointly support these behaviors over large, heterogeneous catalogs remains challenging. Such systems must generate unambiguous references to real items, handle multiple entity types, and operate under strict latency and reliability constraints requirements that are difficult to satisfy with text-only generation. While tool-augmented recommender systems address parts of this problem, they introduce orchestration complexity and limit end-to-end optimization. We view this setting as an instance of a broader research problem: how to adapt LLMs to reason jointly over multiple-domain entities, users, and language in a fully self-contained manner. To this end, we introduce NEO, a framework that adapts a pre-trained decoder-only LLM into a tool-free, catalog-grounded generator. NEO represents items as SIDs and trains a single model to interleave natural language and typed item identifiers within a shared sequence. Text prompts control the task, target entity type, and output format (IDs, text, or mixed), while constrained decoding guarantees catalog-valid item generation without restricting free-form text. We refer to this instruction-conditioned controllability as language-steerability. We treat SIDs as a distinct modality and study design choices for integrating discrete entity representations into LLMs via staged alignment and instruction tuning. We evaluate NEO at scale on a real-world catalog of over 10M items across multiple media types and discovery tasks, including recommendation, search, and user understanding. In offline experiments, NEO consistently outperforms strong task-specific baselines and exhibits cross-task transfer, demonstrating a practical path toward consolidating large-scale discovery capabilities into a single language-steerable generative model.
- Abstract(参考訳): LLMは、リコメンデーション、検索、推論にますます適用されているが、大規模な異種カタログ上でこれらの振る舞いを共同でサポートできる単一のエンドツーエンドモデルをデプロイすることは、依然として困難である。
このようなシステムは、実際のアイテムに対する曖昧な参照を生成し、複数のエンティティタイプを処理し、テキストのみの生成で満足できない厳格なレイテンシと信頼性の制約の下で運用する必要があります。
ツール拡張されたレコメンダシステムはこの問題の一部に対処する一方で、オーケストレーションの複雑さとエンドツーエンドの最適化の制限を導入している。
我々は、この設定を、LLMを複数のドメイン、ユーザ、言語を、完全に自己完結した方法で共同で理屈に適応する方法という、より広範な研究問題の例として捉えている。
この目的のために,学習済みのデコーダのみのLLMをツールフリーのカタロググラウンドジェネレータに適応させるフレームワークであるNEOを紹介した。
NEOは、アイテムをSIDとして表現し、ひとつのモデルをトレーニングし、自然言語と型付きアイテム識別子を共有シーケンス内でインターリーブする。
テキストはタスク、ターゲットエンティティタイプ、出力フォーマット(ID、テキスト、ミックス)を制御し、制約付きデコードでは、自由形式のテキストを制限することなく、カタログ価値の高いアイテム生成が保証される。
我々は、この命令条件による制御性を、言語ステアビリティ(Language-steerability)と呼ぶ。
我々は、SIDを個別のモダリティとして扱い、段階的アライメントと命令チューニングにより、個別の実体表現をLLMに統合する設計選択について検討する。
我々は,複数のメディアタイプや発見タスク,レコメンデーション,検索,ユーザ理解を含む1,000万項目以上の実世界のカタログ上で,NEOを大規模に評価する。
オフライン実験では、NEOは強いタスク固有のベースラインを一貫して上回り、クロスタスク転送を示す。
関連論文リスト
- Unleashing the Native Recommendation Potential: LLM-Based Generative Recommendation via Structured Term Identifiers [51.64398574262054]
本稿では,意味的にリッチで標準化されたテキストキーワードの集合として定義された用語ID(TID)を導入し,堅牢な項目識別子として機能する。
本稿では,TIDを中心にした新しいフレームワークGRLMを提案し,項目のメタデータを標準化されたTIDに変換し,統合的インストラクションファインタニングを活用して,用語の内部化とシーケンシャルレコメンデーションを協調的に最適化する。
論文 参考訳(メタデータ) (2026-01-11T07:53:20Z) - FABRIC: Framework for Agent-Based Realistic Intelligence Creation [3.940391073007047]
大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-20T18:20:22Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - Chunk-Distilled Language Modeling [25.238256586953487]
Chunk-Distilled Language Modeling (CD-LM)は、現在の大規模言語モデル(LLM)における2つの課題に対処するテキスト生成のアプローチである。
提案手法は,ディープネットワークベースのLCMと簡単な検索モジュールを組み合わせることで,単一のデコードステップでマルチトークンテキストチャンクを生成する。
論文 参考訳(メタデータ) (2024-12-31T08:32:15Z) - Learning Multi-Aspect Item Palette: A Semantic Tokenization Framework for Generative Recommendation [55.99632509895994]
マルチアスペクトセマンティックトークン化のための新しいアプローチであるLAMIAを紹介する。
単一の埋め込みを使用するRQ-VAEとは異なり、LAMIAは独立的でセマンティックな並列な埋め込みの集合である「アイテムパレット」を学習する。
その結果,提案手法よりも提案手法の精度が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - UniMEL: A Unified Framework for Multimodal Entity Linking with Large Language Models [0.42832989850721054]
MEL(Multimodal Entities Linking)は、ウィキペディアのようなマルチモーダル知識ベースの参照エンティティに、多モーダルコンテキスト内で曖昧な言及をリンクすることを目的とした重要なタスクである。
既存の方法はMELタスクを過度に複雑にし、視覚的意味情報を見渡す。
大規模言語モデルを用いたマルチモーダル・エンティティ・リンクタスクを処理するための新しいパラダイムを確立する統一フレームワークUniMELを提案する。
論文 参考訳(メタデータ) (2024-07-23T03:58:08Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。