論文の概要: GRAM: Generative Recommendation via Semantic-aware Multi-granular Late Fusion
- arxiv url: http://arxiv.org/abs/2506.01673v1
- Date: Mon, 02 Jun 2025 13:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.410296
- Title: GRAM: Generative Recommendation via Semantic-aware Multi-granular Late Fusion
- Title(参考訳): GRAM:Semantic-aware Multi-granular Late Fusionによる生成的レコメンデーション
- Authors: Sunkyung Lee, Minjin Choi, Eunseong Choi, Hye-young Kim, Jongwuk Lee,
- Abstract要約: 本稿では,セマンティック・アウェア・マルチグラニュラ・レイトフュージョンを用いたジェネレーティブ・レコメンダを提案する。
まず、暗黙的な階層的・協調的な項目関係を符号化する意味-語彙変換を設計する。
第2に,情報損失を最小限に抑えたリッチなセマンティクスを効率的に統合する多粒ラテックフュージョンを提案する。
- 参考スコア(独自算出の注目度): 10.45619653935024
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative recommendation is an emerging paradigm that leverages the extensive knowledge of large language models by formulating recommendations into a text-to-text generation task. However, existing studies face two key limitations in (i) incorporating implicit item relationships and (ii) utilizing rich yet lengthy item information. To address these challenges, we propose a Generative Recommender via semantic-Aware Multi-granular late fusion (GRAM), introducing two synergistic innovations. First, we design semantic-to-lexical translation to encode implicit hierarchical and collaborative item relationships into the vocabulary space of LLMs. Second, we present multi-granular late fusion to integrate rich semantics efficiently with minimal information loss. It employs separate encoders for multi-granular prompts, delaying the fusion until the decoding stage. Experiments on four benchmark datasets show that GRAM outperforms eight state-of-the-art generative recommendation models, achieving significant improvements of 11.5-16.0% in Recall@5 and 5.3-13.6% in NDCG@5. The source code is available at https://github.com/skleee/GRAM.
- Abstract(参考訳): ジェネレーティブレコメンデーション(Generative Recommation)は、大規模言語モデルの広範な知識を活用して、テキストからテキストへの生成タスクにレコメンデーションを定式化する、新たなパラダイムである。
しかし、既存の研究は2つの重要な限界に直面している。
一 暗黙の項目関係を取り入れること
(二)豊かで長大な情報を活用すること。
これらの課題に対処するために,2つのシナジスティックな革新を導入し,セマンティック・アウェア・マルチグラニュラ・レイトフュージョン(GRAM)を用いたジェネレーション・レコメンダを提案する。
まず,LLMの語彙空間に暗黙的な階層的・協調的な項目関係を符号化する意味-語彙変換を設計する。
第2に,情報損失を最小限に抑えたリッチなセマンティクスを効率的に統合する多粒ラテックフュージョンを提案する。
異なるエンコーダを複数のグラニュラプロンプトに使用し、デコードステージまで融合を遅らせる。
4つのベンチマークデータセットの実験では、GRAMは8つの最先端生成レコメンデーションモデルより優れており、Recall@5では11.5-16.0%、NDCG@5では5.3-13.6%の大幅な改善が達成されている。
ソースコードはhttps://github.com/skleee/GRAMで入手できる。
関連論文リスト
- Bridging Textual-Collaborative Gap through Semantic Codes for Sequential Recommendation [91.13055384151897]
CCFRecは、シーケンシャルレコメンデーションのための新しいコードベースのテキストおよび協調的セマンティックフュージョン法である。
ベクトル量子化手法を用いて,多視点テキスト埋め込みから細粒度セマンティックコードを生成する。
テキスト・コラボレーティブ・セマンティクスの融合をさらに促進するために,最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-03-15T15:54:44Z) - Fine-tuning Multimodal Large Language Models for Product Bundling [53.01642741096356]
Bundle-MLLMは,大規模言語モデル(LLM)をハイブリットアイテムトークン化アプローチにより微調整する新しいフレームワークである。
具体的には、テキスト、メディア、およびリレーショナルデータを統一トークン化に統合し、テキストトークンと非テキストトークンを区別するソフトな分離トークンを導入する。
1)バンドルパターンを学習し,2)製品バンドル固有のマルチモーダルセマンティック理解の強化を行う。
論文 参考訳(メタデータ) (2024-07-16T13:30:14Z) - D2LLM: Decomposed and Distilled Large Language Models for Semantic Search [18.63768158439252]
D2LLMs-Decomposed and Distilled LLMs for semantic search。
クロスエンコーダを効率的なバイエンコーダに分解し,マルチヘッド・アテンションとインタラクション・エミュレーション・モジュールによるポーリングと統合する。
実験の結果,D2LLMは3つのタスクにまたがるすべての指標において,主要なベースラインを5つ超えていることがわかった。
論文 参考訳(メタデータ) (2024-06-25T04:03:04Z) - Learnable Item Tokenization for Generative Recommendation [78.30417863309061]
LETTER (Larnable Tokenizer for generaTivE Recommendation) を提案する。
LETTERは、セマンティック正規化のためのResidual Quantized VAE、協調正規化のためのコントラストアライメント損失、コードの割り当てバイアスを軽減するための多様性損失を組み込んでいる。
論文 参考訳(メタデータ) (2024-05-12T15:49:38Z) - CorpusLM: Towards a Unified Language Model on Corpus for Knowledge-Intensive Tasks [20.390672895839757]
Retrieval-augmented Generation (RAG) は、事実精度を高めるための一般的なソリューションとして登場した。
従来の検索モジュールは、大きなドキュメントインデックスと生成タスクとの切り離しに依存していることが多い。
生成検索,クローズドブック生成,RAGを統合した統一言語モデルである textbfCorpusLM を提案する。
論文 参考訳(メタデータ) (2024-02-02T06:44:22Z) - Hybrid Transformer with Multi-level Fusion for Multimodal Knowledge
Graph Completion [112.27103169303184]
マルチモーダル知識グラフ(MKG)は、視覚テキストの事実知識を整理する。
MKGformerは、マルチモーダルリンク予測、マルチモーダルRE、マルチモーダルNERの4つのデータセット上でSOTA性能を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T23:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。