論文の概要: Multimodal Representation-disentangled Information Bottleneck for Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2509.20225v1
- Date: Wed, 24 Sep 2025 15:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.874757
- Title: Multimodal Representation-disentangled Information Bottleneck for Multimodal Recommendation
- Title(参考訳): マルチモーダルレコメンデーションのためのマルチモーダル表現異方性情報ボトルネック
- Authors: Hui Wang, Jinghui Qin, Wushao Wen, Qingling Li, Shanshan Zhong, Zhongzhan Huang,
- Abstract要約: 我々はMRdIB(Multimodal Representation-disentangled Information Bottleneck)という新しいフレームワークを提案する。
具体的には,まず,入力表現を圧縮するためにマルチモーダル・インフォメーション・ボトルネックを用いる。
そして,レコメンデーションターゲットとの関係に基づいて,情報をユニークで冗長な,シナジスティックなコンポーネントに分解する。
- 参考スコア(独自算出の注目度): 36.338586087343806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal data has significantly advanced recommendation systems by integrating diverse information sources to model user preferences and item characteristics. However, these systems often struggle with redundant and irrelevant information, which can degrade performance. Most existing methods either fuse multimodal information directly or use rigid architectural separation for disentanglement, failing to adequately filter noise and model the complex interplay between modalities. To address these challenges, we propose a novel framework, the Multimodal Representation-disentangled Information Bottleneck (MRdIB). Concretely, we first employ a Multimodal Information Bottleneck to compress the input representations, effectively filtering out task-irrelevant noise while preserving rich semantic information. Then, we decompose the information based on its relationship with the recommendation target into unique, redundant, and synergistic components. We achieve this decomposition with a series of constraints: a unique information learning objective to preserve modality-unique signals, a redundant information learning objective to minimize overlap, and a synergistic information learning objective to capture emergent information. By optimizing these objectives, MRdIB guides a model to learn more powerful and disentangled representations. Extensive experiments on several competitive models and three benchmark datasets demonstrate the effectiveness and versatility of our MRdIB in enhancing multimodal recommendation.
- Abstract(参考訳): マルチモーダルデータには、多様な情報ソースを統合して、ユーザの好みやアイテムの特徴をモデル化することで、かなり高度なレコメンデーションシステムがある。
しかし、これらのシステムは冗長で無関係な情報に悩まされ、性能を低下させることがある。
既存のほとんどの手法は、マルチモーダル情報を直接フューズするか、あるいは難読化のために厳密な構造的分離を使用し、ノイズを適切にフィルタリングし、モーダル間の複雑な相互作用をモデル化しなかった。
これらの課題に対処するため、我々はMultimodal Representation-disentangled Information Bottleneck (MRdIB) という新しいフレームワークを提案する。
具体的には、まずマルチモーダル・インフォメーション・ボトルネックを用いて入力表現を圧縮し、リッチなセマンティック情報を保持しながらタスク非関連ノイズを効果的に除去する。
そして,レコメンデーションターゲットとの関係に基づいて,情報をユニークで冗長な,シナジスティックなコンポーネントに分解する。
本稿では,モダリティ・ユニキ信号を保存するための独特な情報学習目標,重複を最小限に抑える冗長な情報学習目標,創発的な情報を捉えるための相乗的情報学習目標という一連の制約によって,この分解を実現する。
これらの目的を最適化することで、MRdIBはより強力で非絡み合った表現を学ぶためのモデルを導き出す。
複数の競合モデルと3つのベンチマークデータセットに関する大規模な実験は、MRdIBがマルチモーダルレコメンデーションを強化する上での有効性と汎用性を示している。
関連論文リスト
- IDEA: Inverted Text with Cooperative Deformable Aggregation for Multi-modal Object Re-Identification [60.38841251693781]
本稿では,ロバストなマルチモーダルオブジェクトReIDを生成する新しいフレームワークを提案する。
我々のフレームワークは、多モーダル情報と逆テキストからのセマンティックガイダンスを統合するために、Modal PrefixesとInverseNetを使用している。
3つのマルチモーダルオブジェクトReIDベンチマーク実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-03-13T13:00:31Z) - CADMR: Cross-Attention and Disentangled Learning for Multimodal Recommender Systems [0.6037276428689637]
本稿では,新しいオートエンコーダに基づくマルチモーダルレコメンデータシステムCADMRを提案する。
CADMRを3つのベンチマークデータセット上で評価し,最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-12-03T09:09:52Z) - Towards Bridging the Cross-modal Semantic Gap for Multi-modal Recommendation [12.306686291299146]
マルチモーダルレコメンデーションはレコメンデーションシステムの性能を大幅に向上させる。
既存のマルチモーダルレコメンデーションモデルは、マルチメディア情報伝搬プロセスを利用してアイテム表現を豊かにする。
本稿では,モダリティ間のセマンティックギャップをブリッジし,詳細な多視点セマンティック情報を抽出する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T15:56:03Z) - DiffMM: Multi-Modal Diffusion Model for Recommendation [19.43775593283657]
DiffMMと呼ばれる新しいマルチモーダルグラフ拡散モデルを提案する。
本フレームワークは,モダリティを意識したグラフ拡散モデルとクロスモーダルコントラスト学習パラダイムを統合し,モダリティを意識したユーザ表現学習を改善する。
論文 参考訳(メタデータ) (2024-06-17T17:35:54Z) - SynerGraph: An Integrated Graph Convolution Network for Multimodal Recommendation [1.3812010983144802]
本稿では,マルチモーダルデータの統合と浄化に焦点をあてた,マルチモーダルレコメンデーションシステムに対する新しいアプローチを提案する。
各種データからノイズを除去するフィルタを開発し,提案手法の信頼性を高めた。
我々は、各データセットに対するトップKスパリフィケーションの影響を調査し、不適合と過適合のバランスをとる最適な値を発見した。
論文 参考訳(メタデータ) (2024-05-29T12:18:32Z) - BiVRec: Bidirectional View-based Multimodal Sequential Recommendation [55.87443627659778]
我々は,IDとマルチモーダルの両方で推薦タスクを共同で訓練する,革新的なフレームワークであるBivRecを提案する。
BivRecは5つのデータセットで最先端のパフォーマンスを達成し、様々な実用的な利点を示している。
論文 参考訳(メタデータ) (2024-02-27T09:10:41Z) - Mirror Gradient: Towards Robust Multimodal Recommender Systems via
Exploring Flat Local Minima [54.06000767038741]
フラットローカルミニマの新しい視点からマルチモーダルリコメンデータシステムの解析を行う。
我々はミラーグラディエント(MG)と呼ばれる簡潔で効果的な勾配戦略を提案する。
提案したMGは、既存の堅牢なトレーニング手法を補完し、多様な高度なレコメンデーションモデルに容易に拡張できることが判明した。
論文 参考訳(メタデータ) (2024-02-17T12:27:30Z) - Factorized Contrastive Learning: Going Beyond Multi-view Redundancy [116.25342513407173]
本稿では,マルチビュー冗長性を超えた新しいマルチモーダル表現学習法であるFacterCLを提案する。
大規模な実世界のデータセットでは、FacterCLは共有情報とユニークな情報の両方をキャプチャし、最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-06-08T15:17:04Z) - Multimodal Information Bottleneck: Learning Minimal Sufficient Unimodal
and Multimodal Representations [27.855467591358018]
マルチモーダル・インフォメーション・ボトルネック (MIB) を導入し, 強力かつ十分なマルチモーダル表現の学習を目指す。
情報制約の異なる視点に焦点を合わせるために,MIB の3つの変種,すなわちアーリーフュージョン MIB,レイトフュージョン MIB,フルMIB を開発した。
実験結果から,提案手法はマルチモーダル感情分析とマルチモーダル感情認識のタスクにおいて,最先端の性能に達することが示唆された。
論文 参考訳(メタデータ) (2022-10-31T16:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。