論文の概要: Multimodality Invariant Learning for Multimedia-Based New Item Recommendation
- arxiv url: http://arxiv.org/abs/2405.15783v1
- Date: Sun, 28 Apr 2024 14:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-02 14:47:20.235626
- Title: Multimodality Invariant Learning for Multimedia-Based New Item Recommendation
- Title(参考訳): マルチメディアに基づく新しい項目推薦のためのマルチモーダリティ不変学習
- Authors: Haoyue Bai, Le Wu, Min Hou, Miaomiao Cai, Zhuangzhuang He, Yuyang Zhou, Richang Hong, Meng Wang,
- Abstract要約: ユーザ固有のコンテンツ嗜好は安定しており、任意のモダリティの欠如した環境に不変である、と我々は主張する。
この問題に対処するために,新しいマルチモダリティ不変学習(MILK)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.22804304174703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimedia-based recommendation provides personalized item suggestions by learning the content preferences of users. With the proliferation of digital devices and APPs, a huge number of new items are created rapidly over time. How to quickly provide recommendations for new items at the inference time is challenging. What's worse, real-world items exhibit varying degrees of modality missing(e.g., many short videos are uploaded without text descriptions). Though many efforts have been devoted to multimedia-based recommendations, they either could not deal with new multimedia items or assumed the modality completeness in the modeling process. In this paper, we highlight the necessity of tackling the modality missing issue for new item recommendation. We argue that users' inherent content preference is stable and better kept invariant to arbitrary modality missing environments. Therefore, we approach this problem from a novel perspective of invariant learning. However, how to construct environments from finite user behavior training data to generalize any modality missing is challenging. To tackle this issue, we propose a novel Multimodality Invariant Learning reCommendation(a.k.a. MILK) framework. Specifically, MILK first designs a cross-modality alignment module to keep semantic consistency from pretrained multimedia item features. After that, MILK designs multi-modal heterogeneous environments with cyclic mixup to augment training data, in order to mimic any modality missing for invariant user preference learning. Extensive experiments on three real datasets verify the superiority of our proposed framework. The code is available at https://github.com/HaoyueBai98/MILK.
- Abstract(参考訳): マルチメディアベースのレコメンデーションは、ユーザのコンテンツ嗜好を学習することでパーソナライズされたアイテム提案を提供する。
デジタルデバイスやAPPの普及に伴い、時間とともに急速に多くの新しいアイテムが作成される。
推論時に新しい項目のリコメンデーションを素早く提供する方法は難しい。
さらに悪いことに、現実世界のアイテムは様々にモダリティが欠けています(例えば、短いビデオはテキスト記述なしでアップロードされます)。
マルチメディアベースのレコメンデーションに多くの努力が注がれているが、彼らは新しいマルチメディアアイテムに対処できなかったり、モデリングプロセスにおけるモダリティ完全性を仮定できなかった。
本稿では,新項目推薦におけるモダリティの欠落問題に対処する必要性を強調した。
ユーザ固有のコンテンツ嗜好は安定しており、任意のモダリティの欠如した環境に不変である、と我々は主張する。
そこで本研究では,不変学習の新たな視点から,この問題にアプローチする。
しかし, 有限ユーザ行動訓練データから, モダリティの欠如を一般化するための環境構築法は困難である。
この問題に対処するために,MILK(Multimodality Invariant Learning reCommendation)フレームワークを提案する。
具体的には、MILKはまず、事前訓練されたマルチメディアアイテム機能からセマンティック一貫性を維持するために、モダリティアライメントモジュールを設計する。
その後、MILKは、不変ユーザの嗜好学習に欠落するモダリティを模倣するため、循環混合によるトレーニングデータの拡張を行うマルチモーダル異種環境を設計する。
3つの実データセットに対する大規模な実験により、提案したフレームワークの優位性を検証した。
コードはhttps://github.com/HaoyueBai98/MILKで入手できる。
関連論文リスト
- TruthSR: Trustworthy Sequential Recommender Systems via User-generated Multimodal Content [21.90660366765994]
ノイズの多いユーザ生成マルチモーダルコンテンツによる信頼性の高いシーケンシャルレコメンデーション手法を提案する。
具体的には、ノイズ干渉を軽減するために、ユーザ生成したマルチモーダルコンテンツの一貫性と相補性を捉える。
さらに,主観的ユーザ視点と客観的項目視点を統合した信頼性の高い意思決定機構を設計する。
論文 参考訳(メタデータ) (2024-04-26T08:23:36Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - Mirror Gradient: Towards Robust Multimodal Recommender Systems via
Exploring Flat Local Minima [54.06000767038741]
フラットローカルミニマの新しい視点からマルチモーダルリコメンデータシステムの解析を行う。
我々はミラーグラディエント(MG)と呼ばれる簡潔で効果的な勾配戦略を提案する。
提案したMGは、既存の堅牢なトレーニング手法を補完し、多様な高度なレコメンデーションモデルに容易に拡張できることが判明した。
論文 参考訳(メタデータ) (2024-02-17T12:27:30Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Mining Stable Preferences: Adaptive Modality Decorrelation for
Multimedia Recommendation [23.667430143035787]
そこで我々は,ユーザの安定な嗜好を学習するための,新しいモダリティ記述型静的学習フレームワークMODESTを提案する。
サンプル再重み付け手法に着想を得た提案手法は,各項目の重み付けを推定し,重み付け分布の異なるモジュラリティの特徴が重み付けされるようにすることを目的としている。
提案手法は,既存のマルチメディアレコメンデーションバックボーンのプレイ・アンド・プラグモジュールとして利用できる。
論文 参考訳(メタデータ) (2023-06-25T09:09:11Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Diverse Preference Augmentation with Multiple Domains for Cold-start
Recommendations [92.47380209981348]
メタラーニングをベースとした多元的ドメインを用いた多元的推論拡張フレームワークを提案する。
我々は、疎結合の場合の過度な適合を扱うために、新しい関心領域において多様な評価を生成する。
これらの評価は、選好メタラーナーを学ぶためのメタトレーニング手順に導入され、優れた一般化能力が得られる。
論文 参考訳(メタデータ) (2022-04-01T10:10:50Z) - Latent Structures Mining with Contrastive Modality Fusion for Multimedia
Recommendation [22.701371886522494]
マルチモーダルコンテンツに基づく潜在意味的項目-項目構造は,より優れた項目表現を学習する上で有益である,と我々は主張する。
モータリティを意識した構造学習モジュールを考案し,各モータリティの項目間関係を学習する。
論文 参考訳(メタデータ) (2021-11-01T03:37:02Z) - Mining Latent Structures for Multimedia Recommendation [46.70109406399858]
本稿では,マルチモーダル再圧縮のためのLATent sTructureマイニング手法を提案する。
各モダリティの項目構造を学び、複数のモダリティを集約して潜在アイテムグラフを得る。
学習した潜在グラフに基づいてグラフ畳み込みを行い、アイテム表現に高次項目親和性を明示的に注入する。
論文 参考訳(メタデータ) (2021-04-19T03:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。