論文の概要: Catalog-Native LLM: Speaking Item-ID Dialect with Less Entanglement for Recommendation
- arxiv url: http://arxiv.org/abs/2510.05125v1
- Date: Tue, 30 Sep 2025 15:30:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.826214
- Title: Catalog-Native LLM: Speaking Item-ID Dialect with Less Entanglement for Recommendation
- Title(参考訳): Catalog-Native LLM:レコメンデーションのための絡み合いの少ない項目IDダイアレクト
- Authors: Reza Shirkavand, Xiaokai Wei, Chen Wang, Zheng Hui, Heng Huang, Michelle Gong,
- Abstract要約: 本稿では Item-ID + Oral- Language Mixture-of-Experts Language Model (IDIOMoE) を紹介する。
アイテムの相互作用履歴を言語空間内のネイティブな方言として扱い、協調的なシグナルを自然言語と同じ方法で理解できるようにする。
パブリックデータセットとプロプライエタリデータセットの両方で強力なレコメンデーションパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 41.62404367454763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While collaborative filtering delivers predictive accuracy and efficiency, and Large Language Models (LLMs) enable expressive and generalizable reasoning, modern recommendation systems must bring these strengths together. Growing user expectations, such as natural-language queries and transparent explanations, further highlight the need for a unified approach. However, doing so is nontrivial. Collaborative signals are often token-efficient but semantically opaque, while LLMs are semantically rich but struggle to model implicit user preferences when trained only on textual inputs. This paper introduces Item-ID + Oral-language Mixture-of-Experts Language Model (IDIOMoE), which treats item interaction histories as a native dialect within the language space, enabling collaborative signals to be understood in the same way as natural language. By splitting the Feed Forward Network of each block of a pretrained LLM into a separate text expert and an item expert with token-type gating, our method avoids destructive interference between text and catalog modalities. IDIOMoE demonstrates strong recommendation performance across both public and proprietary datasets, while preserving the text understanding of the pretrained model.
- Abstract(参考訳): 協調フィルタリングは予測精度と効率性を提供し、Large Language Models (LLMs) は表現的かつ一般化可能な推論を可能にするが、現代のレコメンデーションシステムはこれらの強みをまとめる必要がある。
自然言語クエリや透過的な説明といったユーザ期待の高まりは、統一されたアプローチの必要性をさらに強調している。
しかし、そうすることは自明ではない。
協調的な信号はしばしばトークン効率が良いが意味的に不透明であるのに対し、LLMは意味的にリッチであるが、テキスト入力のみに基づいてトレーニングされた場合、暗黙的なユーザの好みをモデル化するのに苦労する。
本稿では,項目間相互作用履歴を言語空間内のネイティブ方言として扱い,協調的なシグナルを自然言語と同じ方法で理解できるようにする,項目ID+口頭混合言語モデル(IDIOMoE)を提案する。
事前学習されたLCMの各ブロックのフィードフォワードネットワークを、トークン型ゲーティングの専門家と個別のテキストエキスパートに分割することにより、テキストとカタログのモダリティ間の破壊的干渉を回避することができる。
IDIOMoEは、トレーニング済みモデルのテキスト理解を維持しながら、パブリックデータセットとプロプライエタリデータセットの両方で強力なレコメンデーションパフォーマンスを示す。
関連論文リスト
- ProsodyLM: Uncovering the Emerging Prosody Processing Capabilities in Speech Language Models [70.56468982313834]
本稿では,韻律学習に適した単純なトークン化方式であるProsodyLMを提案する。
ProsodyLMは事前学習だけで驚くほど多様なプロソディ処理能力を学習できることがわかった。
論文 参考訳(メタデータ) (2025-07-27T00:59:01Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - DeSTA2: Developing Instruction-Following Speech Language Model Without Speech Instruction-Tuning Data [84.01401439030265]
最近のエンドツーエンド言語モデル(SLM)は、大規模言語モデル(LLM)の機能に拡張されている。
音声とテキストのペアデータを生成するための,シンプルで効果的な自動処理手法を提案する。
本モデルでは,音声教育データを必要としない音声関連タスクの汎用性を示す。
論文 参考訳(メタデータ) (2024-09-30T07:01:21Z) - Item-Language Model for Conversational Recommendation [24.00379652557269]
ユーザインタラクション信号をエンコードするテキスト整列アイテム表現を生成するために,ILM(Item-Language Model)を提案する。
項目エンコーダにおける言語アライメントの重要性とユーザインタラクション知識の両立を実証する広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-05T01:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。