論文の概要: Progressive Collaborative and Semantic Knowledge Fusion for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2502.06269v1
- Date: Mon, 10 Feb 2025 09:08:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 18:57:51.041087
- Title: Progressive Collaborative and Semantic Knowledge Fusion for Generative Recommendation
- Title(参考訳): ジェネレーティブレコメンデーションのためのプログレッシブ・コラボレーティブ・セマンティック・ナレッジ・フュージョン
- Authors: Longtao Xiao, Haozhao Wang, Cheng Wang, Linfei Ji, Yifan Wang, Jieming Zhu, Zhenhua Dong, Rui Zhang, Ruixuan Li,
- Abstract要約: 本稿では, ProRec という, 進化的協調的・意味的知識融合モデルを提案する。
最初の段階では、意味的知識を協調的な埋め込みに統合する、モダリティ間の知識アライメントタスクを提案する。
第2段階では,意味的・協調的なモダリティから知識を効果的に把握し,統合することを目的とした,モダリティ内知識蒸留タスクを提案する。
- 参考スコア(独自算出の注目度): 36.48113842751375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent surge in interest surrounding generative paradigms, generative recommendation has increasingly attracted the attention of researchers in the recommendation community. This paradigm generally consists of two stages. In the first stage, pretrained semantic embeddings or collaborative ID embeddings are quantized to create item codes, aiming to capture and preserve rich semantic or collaborative knowledge within these codes. The second stage involves utilizing these discrete codes to perform an autoregressive sequence generation task. Existing methods often either overlook collaborative or semantic knowledge, or combine the two roughly. In this paper, we observe that naively concatenating representations from semantic and collaborative modality leads to a semantic domination issue, where the resulting representation is overly influenced by semantic information, effectively overshadowing the collaborative representation. Consequently, downstream recommendation tasks fail to fully exploit the knowledge from both modalities, resulting in suboptimal performance. To address this, we propose a progressive collaborative and semantic knowledge fusion model for generative recommendation, named PRORec, which integrates semantic and collaborative knowledge with a unified code through a two-stage framework. Specifically, in the first stage, we propose a cross-modality knowledge alignment task, which integrates semantic knowledge into collaborative embeddings, enhancing their representational capability. In the second stage, we propose an in-modality knowledge distillation task, designed to effectively capture and integrate knowledge from both semantic and collaborative modalities. Extensive experiments on three widely used benchmarks validate the effectiveness of our approach, demonstrating its superiority compared to existing methods.
- Abstract(参考訳): 生成パラダイムを取り巻く最近の関心の高まりにより、生成的推薦はリコメンデーションコミュニティの研究者の注目を集めている。
このパラダイムは一般的に2つのステージから構成される。
最初の段階では、事前訓練されたセマンティック埋め込みまたはコラボレーティブID埋め込みを定量化し、アイテムコードを作成し、これらのコード内でリッチなセマンティックまたはコラボレーティブな知識を捕捉し保存することを目的としている。
第2段階では、これらの離散コードを利用して自己回帰シーケンス生成タスクを実行する。
既存の手法は、しばしば協調的または意味的な知識を見落としているか、その2つを大まかに組み合わせている。
本稿では,意味的モダリティと協調的モダリティとの因果的結合が意味的支配問題を引き起こし,結果の表現が意味的情報に過度に影響され,協調的表現を効果的に覆い隠すことを観察する。
その結果、下流のレコメンデーションタスクは両方のモダリティからの知識を十分に活用することができず、結果として準最適性能が得られる。
そこで本研究では,2段階のフレームワークを通じて,意味的および協調的な知識を統一されたコードと統合するPropRecという,プロジェクティブレコメンデーションのための,プログレッシブな協調的・意味的知識融合モデルを提案する。
具体的には、第1段階では、意味的知識を協調的な埋め込みに統合し、その表現能力を向上するモダリティ間知識アライメントタスクを提案する。
第2段階では,意味的・協調的なモダリティから知識を効果的に把握し,統合することを目的とした,モダリティ内知識蒸留タスクを提案する。
広範に使用されている3つのベンチマークによる大規模な実験により,提案手法の有効性が検証され,既存手法と比較してその優位性が確認された。
関連論文リスト
- A Simple Contrastive Framework Of Item Tokenization For Generative Recommendation [19.848402658341985]
コントラスト学習に基づく新しい教師なし深層量子化手法SimCITを提案する。
SimCITは、相互に有益なコントラスト学習フレームワークにおいて、マルチモーダルな知識アライメントとセマンティックトークン化を組み合わせる。
論文 参考訳(メタデータ) (2025-06-20T01:54:32Z) - COHESION: Composite Graph Convolutional Network with Dual-Stage Fusion for Multimodal Recommendation [26.169114011402232]
マルチモーダルレコメンデーションにおける2つの重要なプロセスは、モダリティ融合と表現学習である。
我々はCOHESIONと呼ばれるマルチモーダルレコメンデーションのための2段融合を用いたCOmposite grapH畳み込みnEtworkを紹介する。
論文 参考訳(メタデータ) (2025-04-06T11:42:49Z) - Universal Item Tokenization for Transferable Generative Recommendation [89.42584009980676]
本稿では、転送可能な生成レコメンデーションのためのユニバーサルアイテムトークン化手法であるUTGRecを提案する。
木構造コードブックを考案することにより、コンテンツ表現をアイテムトークン化のための対応するコードに識別する。
生のコンテンツ再構成には、アイテムテキストとイメージを離散表現から再構成するために、デュアルライトウェイトデコーダを用いる。
協調的知識統合においては,共起的アイテムが類似していると仮定し,共起的アライメントと再構築を通じて協調的信号を統合する。
論文 参考訳(メタデータ) (2025-04-06T08:07:49Z) - Continual Cross-Modal Generalization [48.56694158680082]
クロスモーダル一般化は、マルチモーダル対から共有表現空間を学ぶことを目的としている。
本稿では,新たなモダリティを仲介者モダリティを介して共有コードブックに漸進的にマッピングする連続学習手法を提案する。
画像-テキスト,音声-テキスト,ビデオ-テキスト,音声-テキストによる実験により,本手法は多種多様なモーダル一般化タスクにおいて高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-04-01T09:16:20Z) - Bridging Textual-Collaborative Gap through Semantic Codes for Sequential Recommendation [91.13055384151897]
CoCoRecは、シーケンシャルレコメンデーションのための新しいコードベースのテキストおよび協調的セマンティックフュージョン法である。
ベクトル量子化手法を用いて,多視点テキスト埋め込みから細粒度セマンティックコードを生成する。
テキスト・コラボレーティブ・セマンティクスの融合をさらに促進するために,最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-03-15T15:54:44Z) - Unity in Diversity: Multi-expert Knowledge Confrontation and Collaboration for Generalizable Vehicle Re-identification [60.20318058777603]
一般化可能な車両再識別(ReID)は、微調整や再訓練を必要とせず、未知のターゲットドメインに適応可能なモデルの開発を目指している。
これまでの研究は主に、ソースドメイン間のデータ分散を調整することで、ドメイン不変の機能の抽出に重点を置いてきた。
そこで本研究では,この問題を解決するために,2段階のMulti-expert Knowledge Confrontation and Collaboration(MiKeCoCo)手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T04:06:39Z) - EAGER: Two-Stream Generative Recommender with Behavior-Semantic Collaboration [63.112790050749695]
本稿では,行動情報と意味情報の両方をシームレスに統合する新しい生成推薦フレームワークであるEAGERを紹介する。
EAGERの有効性を4つの公開ベンチマークで検証し,既存手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-20T06:21:56Z) - Concept Matching with Agent for Out-of-Distribution Detection [19.407364109506904]
本稿では,エージェントパラダイムをアウト・オブ・ディストリビューション(OOD)検出タスクに統合する手法を提案する。
提案手法であるConcept Matching with Agent (CMA) は、CLIPに基づくOOD検出プロセスを強化するために、中性プロンプトをエージェントとして利用する。
実験結果から, ゼロショット法とトレーニング要求法の両方よりもCMAの方が優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-27T02:27:28Z) - Learnable Item Tokenization for Generative Recommendation [78.30417863309061]
LETTER (Larnable Tokenizer for generaTivE Recommendation) を提案する。
LETTERは、セマンティック正規化のためのResidual Quantized VAE、協調正規化のためのコントラストアライメント損失、コードの割り当てバイアスを軽減するための多様性損失を組み込んでいる。
論文 参考訳(メタデータ) (2024-05-12T15:49:38Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - WiCo: Win-win Cooperation of Bottom-up and Top-down Referring Image
Segmentation [37.53063869243558]
We build Win-win Cooperation (WiCo) to exploit complementary nature of two types of method on both interaction and integration aspects。
当社のWiCoでは、いくつかの顕著なトップダウンとボトムアップの組み合わせが、3つの一般的なデータセットに対して、合理的な追加コストで大幅な改善を実現しています。
論文 参考訳(メタデータ) (2023-06-19T07:49:29Z) - REKnow: Enhanced Knowledge for Joint Entity and Relation Extraction [30.829001748700637]
関係抽出はテキストからすべての隠れた関係事実を抽出することを目的とした課題である。
様々な関係抽出設定下でうまく機能する統一されたフレームワークは存在しない。
これら2つの問題を緩和する知識強化型生成モデルを提案する。
本モデルは,WebNLG,NYT10,TACREDなど,複数のベンチマークや設定において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-06-10T13:59:38Z) - Human-Centered Prior-Guided and Task-Dependent Multi-Task Representation
Learning for Action Recognition Pre-Training [8.571437792425417]
本稿では,人間中心の事前知識を利用した行動認識事前学習フレームワークを提案する。
具体的には、人間の構文解析モデルから知識を抽出し、表現の意味的能力を強化する。
さらに,知識蒸留とコントラスト学習を組み合わせることで,タスク依存型マルチタスクフレームワークを構成する。
論文 参考訳(メタデータ) (2022-04-27T06:51:31Z) - PAIR: Leveraging Passage-Centric Similarity Relation for Improving Dense
Passage Retrieval [87.68667887072324]
本稿では,クエリ中心とPAssage中心のsmilarity Relations(PAIR)を併用した新しい手法を提案する。
本稿では,2種類の類似性関係の形式的定式化を導入することにより,3つの主要な技術的貢献を行う。
MSMARCOとNatural Questionsの両方のデータセットにおいて、従来の最先端モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-08-13T02:07:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。