論文の概要: From ID-based to ID-free: Rethinking ID Effectiveness in Multimodal Collaborative Filtering Recommendation
- arxiv url: http://arxiv.org/abs/2507.05715v1
- Date: Tue, 08 Jul 2025 06:58:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.649483
- Title: From ID-based to ID-free: Rethinking ID Effectiveness in Multimodal Collaborative Filtering Recommendation
- Title(参考訳): IDベースからIDフリーへ:多モード協調フィルタリング勧告におけるIDの有効性を再考する
- Authors: Guohao Li, Li Jing, Jia Wu, Xuefei Li, Kai Zhu, Yue He,
- Abstract要約: ID機能は初期埋め込みを提供するが、セマンティック・リッチネスは欠如している。
ユーザとアイテム毎にユニークな識別子を提供するが、トレーニングされていないデータへの一般化を妨げる。
マルチモーダルな特徴の整合と融合を支援するが、表現シフトにつながる可能性がある。
- 参考スコア(独自算出の注目度): 24.73060081099998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing multimodal collaborative filtering recommendation (MCFRec) methods rely heavily on ID features and multimodal content to enhance recommendation performance. However, this paper reveals that ID features are effective but have limited benefits in multimodal collaborative filtering recommendation. Therefore, this paper systematically deconstruct the pros and cons of ID features: (i) they provide initial embedding but lack semantic richness, (ii) they provide a unique identifier for each user and item but hinder generalization to untrained data, and (iii) they assist in aligning and fusing multimodal features but may lead to representation shift. Based on these insights, this paper proposes IDFREE, an ID-free multimodal collaborative Filtering REcommEndation baseline. IDFREE replaces ID features with multimodal features and positional encodings to generate semantically meaningful ID-free embeddings. For ID-free multimodal collaborative filtering, it further proposes an adaptive similarity graph module to construct dynamic user-user and item-item graphs based on multimodal features. Then, an augmented user-item graph encoder is proposed to construct more effective user and item encoding. Finally, IDFREE achieves inter-multimodal alignment based on the contrastive learning and uses Softmax loss as recommendation loss. Basic experiments on three public datasets demonstrate that IDFREE outperforms existing ID-based MCFRec methods, achieving an average performance gain of 72.24% across standard metrics (Recall@5, 10, 20, 50 and NDCG@5, 10, 20, 50). Exploratory and extended experiments further validate our findings on the limitations of ID features in MCFRec. The code is released at https://github.com/G-H-Li/IDFREE.
- Abstract(参考訳): 既存のマルチモーダル・コラボレーティブ・フィルタリング・レコメンデーション(MCFRec)手法の多くは、レコメンデーション性能を高めるために、ID機能とマルチモーダルコンテンツに大きく依存している。
しかし,本論文では,ID機能は有効であるが,マルチモーダル・コラボレーティブ・フィルタリングの推奨には限界があることを明らかにした。
そこで本研究では,ID特徴の長所と短所を体系的に分解する。
(i)初期埋め込みを提供するが、意味豊かさは欠如している。
(二)ユーザとアイテムごとにユニークな識別子を提供するが、訓練されていないデータへの一般化を妨げ、
三 マルチモーダルな特徴の整合と融合を補助するが、表現のシフトにつながる可能性がある。
これらの知見に基づき,IDフリーなマルチモーダル協調フィルタREcommEndationベースラインであるIDFREEを提案する。
IDFREEは、ID機能をマルチモーダルな特徴や位置エンコーディングに置き換え、意味的に意味のあるIDのない埋め込みを生成する。
また,IDフリーなマルチモーダル協調フィルタリングのために,動的ユーザ・アイテム間グラフを多モーダル特徴に基づいて構築する適応類似性グラフモジュールを提案する。
次に、より効率的なユーザおよびアイテムエンコーディングを構築するために、拡張ユーザ-itemグラフエンコーダを提案する。
最後に、IDFREEは、コントラスト学習に基づいてマルチモーダル間アライメントを実現し、Softmax損失をレコメンデーションロスとして利用する。
3つの公開データセットに関する基礎実験によると、IDFREEは既存のIDベースのMCFRecメソッドよりも優れており、標準メトリクス(Recall@5, 10, 20, 50, NDCG@5, 10, 20, 50)の平均的なパフォーマンス向上率は72.24%である。
MCFRecのID特徴の限界について,実験および拡張実験によりさらに検証した。
コードはhttps://github.com/G-H-Li/IDFREEで公開されている。
関連論文リスト
- ReID5o: Achieving Omni Multi-modal Person Re-identification in a Single Model [38.4111384634895]
Omni Multi-modal Person Re-identification (OM-ReID) と呼ばれる新しい課題について検討する。
ORBenchは、5つのモダリティにまたがる1,000のユニークなIDからなる最初の高品質なマルチモーダルデータセットである。
また,ReIDのための新しいマルチモーダル学習フレームワークであるReID5oを提案する。
論文 参考訳(メタデータ) (2025-06-11T04:26:13Z) - Learning Item Representations Directly from Multimodal Features for Effective Recommendation [51.49251689107541]
マルチモーダルレコメンデータシステムは、主にベイズパーソナライズされたランク付け(BPR)最適化を利用してアイテム表現を学習する。
本稿では,マルチモーダルな特徴からアイテム表現を直接学習し,推薦性能を向上する新しいモデル(LIRDRec)を提案する。
論文 参考訳(メタデータ) (2025-05-08T05:42:22Z) - Order-agnostic Identifier for Large Language Model-based Generative Recommendation [94.37662915542603]
アイテムは、ユーザ履歴をエンコードし、次のアイテムを生成するために、LLM(Large Language Models)の識別子に割り当てられる。
既存のアプローチでは、トークンシーケンス識別子を使用して、アイテムを個別のトークンシーケンスとして表現するか、IDまたはセマンティック埋め込みを使用して単一トークン識別子を使用する。
本稿では,セマンティック・トークンライザを利用するSETRecを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:25:38Z) - Molar: Multimodal LLMs with Collaborative Filtering Alignment for Enhanced Sequential Recommendation [4.518104756199573]
Molarは、複数のコンテンツモダリティとID情報を統合するシーケンシャルなレコメンデーションフレームワークで、協調的な信号を効果的にキャプチャする。
マルチモーダルコンテンツと協調フィルタリングの洞察をシームレスに組み合わせることで、Molarはユーザの関心事とコンテキスト意味論の両方をキャプチャし、より優れた推奨精度をもたらす。
論文 参考訳(メタデータ) (2024-12-24T05:23:13Z) - MambaPro: Multi-Modal Object Re-Identification with Mamba Aggregation and Synergistic Prompt [60.10555128510744]
ReID(Multi-modal object Re-IDentification)は、異なるモダリティから補完的な画像情報を活用することで、特定のオブジェクトを検索することを目的としている。
近年、CLIPのような大規模事前学習モデルでは、従来のシングルモーダルオブジェクトReIDタスクで顕著なパフォーマンスを示している。
マルチモーダルオブジェクトReIDのための新しいフレームワークであるMambaProを紹介する。
論文 参考訳(メタデータ) (2024-12-14T06:33:53Z) - Learning ID-free Item Representation with Token Crossing for Multimodal Recommendation [26.737971605928358]
我々はMOTORというIDのないマルチモーダルトークン表現方式を提案する。
まず、各項目のマルチモーダル特徴を離散トークンIDに識別するために、製品量子化を用いる。
次に、これらのトークンIDに対応するトークン埋め込みを暗黙のアイテム機能として解釈する。
結果として得られた表現は、元のID埋め込みを置き換え、元のマルチモーダルレコメンデータをIDフリーシステムに変換することができる。
論文 参考訳(メタデータ) (2024-10-25T03:06:10Z) - ID Embedding as Subtle Features of Content and Structure for Multimodal Recommendation [13.338363107777438]
コンテンツと構造の両方の健全な特徴を高めるために,ID埋め込みを取り入れた新しいレコメンデーションモデルを提案する。
提案手法は,最先端のマルチモーダルレコメンデーション手法や細粒度ID埋め込みの有効性に優れる。
論文 参考訳(メタデータ) (2023-11-10T09:41:28Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。