論文の概要: Train Once, Deploy Anywhere: Matryoshka Representation Learning for Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2409.16627v2
- Date: Wed, 02 Oct 2024 15:57:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 14:58:09.827908
- Title: Train Once, Deploy Anywhere: Matryoshka Representation Learning for Multimodal Recommendation
- Title(参考訳): 列車を一度、どこにでも配置する:マルチモーダル勧告のためのMatryoshka表現学習
- Authors: Yueqi Wang, Zhenrui Yue, Huimin Zeng, Dong Wang, Julian McAuley,
- Abstract要約: マルチモーダルレコメンデーションのための大規模Matryoshka表現学習(fMRLRec)という軽量フレームワークを導入する。
当社のfMRLRecは,複数次元にわたる効率的なレコメンデーションのための情報表現を学習し,各項目の特徴を異なる粒度で捉えている。
複数のベンチマークデータセットに対するfMRLRecの有効性と有効性を示す。
- 参考スコア(独自算出の注目度): 27.243116376164906
- License:
- Abstract: Despite recent advancements in language and vision modeling, integrating rich multimodal knowledge into recommender systems continues to pose significant challenges. This is primarily due to the need for efficient recommendation, which requires adaptive and interactive responses. In this study, we focus on sequential recommendation and introduce a lightweight framework called full-scale Matryoshka representation learning for multimodal recommendation (fMRLRec). Our fMRLRec captures item features at different granularities, learning informative representations for efficient recommendation across multiple dimensions. To integrate item features from diverse modalities, fMRLRec employs a simple mapping to project multimodal item features into an aligned feature space. Additionally, we design an efficient linear transformation that embeds smaller features into larger ones, substantially reducing memory requirements for large-scale training on recommendation data. Combined with improved state space modeling techniques, fMRLRec scales to different dimensions and only requires one-time training to produce multiple models tailored to various granularities. We demonstrate the effectiveness and efficiency of fMRLRec on multiple benchmark datasets, which consistently achieves superior performance over state-of-the-art baseline methods. We make our code and data publicly available at https://github.com/yueqirex/fMRLRec.
- Abstract(参考訳): 近年の言語と視覚モデリングの進歩にもかかわらず、豊富なマルチモーダル知識をレコメンデーターシステムに統合することは大きな課題である。
これは主に、適応的で対話的な応答を必要とする効率的なレコメンデーションを必要とするためである。
本研究では,マルチモーダル・レコメンデーションのためのマルチモーダル・レコメンデーション(fMRLRec)について,シーケンシャル・レコメンデーションに焦点をあて,マルチモーダル・レコメンデーション(fMRLRec)のためのフルスケール・マトリリシカ表現学習という軽量なフレームワークを導入する。
当社のfMRLRecは,複数次元にわたる効率的なレコメンデーションのための情報表現を学習し,各項目の特徴を異なる粒度で捉えている。
多様なモダリティからアイテム機能を統合するために、fMRLRecは、マルチモーダルアイテム機能を整列した機能空間に投影するための単純なマッピングを採用している。
さらに、より小さな機能を大きな機能に組み込んだ効率的な線形変換を設計し、リコメンデーションデータに対する大規模トレーニングのメモリ要求を大幅に削減する。
改良された状態空間モデリング技術と組み合わせて、fMRLRecは異なる次元にスケールし、様々な粒度に合わせて複数のモデルを生成するために1回のトレーニングしか必要としない。
複数のベンチマークデータセットに対するfMRLRecの有効性と有効性を示す。
コードとデータはhttps://github.com/yueqirex/fMRLRec.comで公開しています。
関連論文リスト
- EmbedLLM: Learning Compact Representations of Large Language Models [28.49433308281983]
大規模言語モデルのコンパクトなベクトル表現を学習するためのフレームワークである EmbedLLM を提案する。
このような埋め込みを学習するためのエンコーダ-デコーダアプローチと,その有効性を評価するための体系的なフレームワークを導入する。
EmbedLLMはモデルルーティングにおいて,精度とレイテンシの両方において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-03T05:43:24Z) - An Enhanced-State Reinforcement Learning Algorithm for Multi-Task Fusion in Large-Scale Recommender Systems [12.277443583840963]
Recommender Systems(RS)におけるマルチタスク融合(MTF)のための拡張状態RLと呼ばれる新しい手法を提案する。
提案手法はまず,ユーザの特徴,項目の特徴,その他の重要な特徴を拡張状態として集合的に定義し,さらに,ユーザとイズムのペアに対してより優れたアクションを実現するために,拡張状態を活用する新しいアクタと批判的学習プロセスを提案する。
論文 参考訳(メタデータ) (2024-09-18T03:34:31Z) - Uni-MoE: Scaling Unified Multimodal LLMs with Mixture of Experts [54.529880848937104]
そこで我々は,MoEアーキテクチャをUni-MoEと呼ぶ一貫したMLLMを開発し,様々なモダリティを扱えるようにした。
具体的には、統一マルチモーダル表現のためのコネクタを持つモダリティ特化エンコーダを特徴とする。
マルチモーダルデータセットの包括的集合を用いた命令調整Uni-MoEの評価を行った。
論文 参考訳(メタデータ) (2024-05-18T12:16:01Z) - AlignRec: Aligning and Training in Multimodal Recommendations [29.995007279325947]
マルチモーダル・レコメンデーションは 相互作用を超えて 豊かなコンテキストを活用できる
既存の手法では、主に多モーダル情報を補助的なものとみなし、それを用いてIDの特徴を学習する。
マルチモーダルコンテンツの特徴とIDベースの特徴の間にはセマンティックなギャップがあり、それによってユーザやアイテムの表現の誤調整につながる。
論文 参考訳(メタデータ) (2024-03-19T02:49:32Z) - Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Parameter Efficient Multi-task Model Fusion with Partial Linearization [97.23530944186078]
パラメータ効率のよい微調整技術において,マルチタスク融合を改善する新しい手法を提案する。
提案手法は, アダプタモジュールのみを部分的に線形化し, 線形化アダプタにタスク演算を適用する。
我々の部分線形化手法は、複数のタスクをより効果的に1つのモデルに融合させることを可能にしている。
論文 参考訳(メタデータ) (2023-10-07T08:55:54Z) - Efficient Multimodal Fusion via Interactive Prompting [62.08292938484994]
大規模事前学習は、コンピュータビジョンや自然言語処理のような一助的な分野を新しい時代にもたらした。
本稿では,一様事前学習型変圧器の融合に適した効率的かつ柔軟な多モード融合法PMFを提案する。
論文 参考訳(メタデータ) (2023-04-13T07:31:51Z) - M2TRec: Metadata-aware Multi-task Transformer for Large-scale and
Cold-start free Session-based Recommendations [9.327321259021236]
セッションベース推薦システム(SBRS)は従来の手法よりも優れた性能を示した。
セッションベースレコメンデーションのためのメタデータ対応マルチタスクトランスフォーマモデルであるM2TRecを提案する。
論文 参考訳(メタデータ) (2022-09-23T19:34:29Z) - Towards Universal Sequence Representation Learning for Recommender
Systems [98.02154164251846]
我々はUniSRecという新しいユニバーサルシーケンス表現学習手法を提案する。
提案手法は、項目の関連記述テキストを用いて、異なる推薦シナリオ間で転送可能な表現を学習する。
我々のアプローチは、パラメータ効率のよい方法で、新しいレコメンデーションドメインやプラットフォームに効果的に移行できます。
論文 参考訳(メタデータ) (2022-06-13T07:21:56Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。