論文の概要: Towards Trustworthy Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2602.00730v1
- Date: Sat, 31 Jan 2026 13:47:25 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-02-03 13:37:32.037194
- Title: Towards Trustworthy Multimodal Recommendation
- Title(参考訳): 信頼できるマルチモーダルレコメンデーションに向けて
- Authors: Zixuan Li,
- Abstract要約: 現実のデプロイメントはますます重要になってきていますが、未調査の問題、すなわち信頼性を高めます。
現代のeコマースプラットフォームでは、マルチモーダルコンテンツは誤解を招くか、信頼できない。
本稿では,不確実なモダリティ特徴を緩和するモジュール・アンド・プレイのモダリティレベル補正コンポーネントを提案する。
- 参考スコア(独自算出の注目度): 6.596263763651009
- License:
- Abstract: Recent advances in multimodal recommendation have demonstrated the effectiveness of incorporating visual and textual content into collaborative filtering. However, real-world deployments raise an increasingly important yet underexplored issue: trustworthiness. On modern e-commerce platforms, multimodal content can be misleading or unreliable (e.g., visually inconsistent product images or click-bait titles), injecting untrustworthy signals into multimodal representations and making existing recommenders brittle under modality corruption. In this work, we take a step towards trustworthy multimodal recommendation from both a method and an analysis perspective. First, we propose a plug-and-play modality-level rectification component that mitigates untrustworthy modality features by learning soft correspondences between items and multimodal features. Using lightweight projections and Sinkhorn-based soft matching, the rectification suppresses mismatched modality signals while preserving semantic consistency, and can be integrated into existing multimodal recommenders without architectural modifications. Second, we present two practical insights on interaction-level trustworthiness under noisy collaborative signals: (i) training-set pseudo interactions can help or hurt performance under noise depending on prior-signal alignment; and (ii) propagation-graph pseudo edges can also help or hurt robustness, as message passing may amplify misalignment. Extensive experiments on multiple datasets and backbones under varying corruption levels demonstrate improved robustness from modality rectification and validate the above interaction-level observations.
- Abstract(参考訳): マルチモーダルレコメンデーションの最近の進歩は、視覚的およびテキスト的コンテンツを協調フィルタリングに組み込むことの有効性を実証している。
しかし、現実のデプロイメントはますます重要で未解決の問題、すなわち信頼性を高めている。
現代のeコマースプラットフォームでは、マルチモーダルコンテンツは誤解を招くか、信頼できない(例えば、視覚的に一貫性のない製品イメージやクリックベイトタイトル)。
本研究では,手法と分析の観点から,信頼性の高いマルチモーダルレコメンデーションに向けた一歩を踏み出した。
まず,商品とマルチモーダルの特徴とのソフトな対応を学習することにより,不確実なモダリティ特徴を緩和するプラグアンドプレイのモダリティレベル補正コンポーネントを提案する。
ライトウェイトプロジェクションとシンクホーンベースのソフトマッチングを用いて、整合性はセマンティック一貫性を維持しつつ、ミスマッチしたモダリティ信号を抑制し、アーキテクチャ変更なしに既存のマルチモーダルレコメンデータに統合することができる。
第二に、ノイズの多い協調信号の下での相互作用レベルの信頼性に関する2つの実践的洞察を示す。
一 トレーニングセットの擬似相互作用は、事前の信号のアライメントにより、騒音下での性能を損なうおそれがある。
(ii) 伝搬グラフの擬似エッジは、メッセージパッシングが不一致を増幅する可能性があるため、堅牢性も損なう可能性がある。
複数のデータセットやバックボーンに対する広範囲な実験により、モダリティの修正による堅牢性の向上が示され、上記の相互作用レベルの観測が検証された。
関連論文リスト
- Propagating Similarity, Mitigating Uncertainty: Similarity Propagation-enhanced Uncertainty for Multimodal Recommendation [26.819070711100206]
マルチモーダルレコメンデーション(SPUMR)のための新しいフレームワーク「類似性-強化不確実性」を提案する。
SPUMRは、まずModality similarity GraphとCollaborative similarity Graphを構築し、不確実性を明示的にモデル化し緩和する。
3つのベンチマークデータセットの実験では、SPUMRが既存のリードメソッドよりも大幅に改善されていることが示されている。
論文 参考訳(メタデータ) (2026-01-27T04:53:59Z) - Test-time Adaptive Hierarchical Co-enhanced Denoising Network for Reliable Multimodal Classification [55.56234913868664]
マルチモーダルデータを用いた信頼性学習のためのTAHCD(Test-time Adaptive Hierarchical Co-enhanced Denoising Network)を提案する。
提案手法は,最先端の信頼性の高いマルチモーダル学習手法と比較して,優れた分類性能,堅牢性,一般化を実現する。
論文 参考訳(メタデータ) (2026-01-12T03:14:12Z) - CLAMP: Contrastive Learning with Adaptive Multi-loss and Progressive Fusion for Multimodal Aspect-Based Sentiment Analysis [0.6961946145048322]
本稿では,Adaptive Multi-lossとProgressive Attention Fusionを用いた,エンドツーエンドのコントラスト学習フレームワークを提案する。
このフレームワークは、Progressive Attention Fusion Network、Multi-task Contrastive Learning、Adaptive Multi-loss Aggregationの3つの新しいモジュールで構成されている。
標準の公開ベンチマークによる評価は、CLAMPが既存の最先端技術よりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2025-07-21T11:49:57Z) - CAD: A General Multimodal Framework for Video Deepfake Detection via Cross-Modal Alignment and Distillation [24.952907733127223]
クロスモーダルアライメント・蒸留(CAD)を用いたビデオディープフェイク検出のための一般的なフレームワークを提案する。
1)高レベルのセマンティックシンセシスにおける矛盾を識別するクロスモーダルアライメント(例:リップ音声ミスマッチ)、2)モダリティ特異的な法医学的痕跡(例:合成音声のスペクトル歪み)を保存しながらミスマッチを緩和するクロスモーダル蒸留(例:合成音声のスペクトル歪み)である。
論文 参考訳(メタデータ) (2025-05-21T08:11:07Z) - Asymmetric Reinforcing against Multi-modal Representation Bias [59.685072206359855]
マルチモーダル表現バイアス(ARM)に対する非対称強化法を提案する。
我々のARMは、条件付き相互情報を通じて支配的なモダリティを表現する能力を維持しながら、弱いモダリティを動的に強化する。
我々はマルチモーダル学習の性能を著しく改善し、不均衡なマルチモーダル学習の軽減に顕著な進展をもたらした。
論文 参考訳(メタデータ) (2025-01-02T13:00:06Z) - Adaptive Contrastive Learning on Multimodal Transformer for Review
Helpfulness Predictions [40.70793282367128]
本稿では,MRHP(Multimodal Review Helpfulness Prediction)問題に対するマルチモーダルコントラスト学習を提案する。
さらに,コントラスト学習における適応重み付け方式を提案する。
最後に,マルチモーダルデータの不整合性に対処するマルチモーダルインタラクションモジュールを提案する。
論文 参考訳(メタデータ) (2022-11-07T13:05:56Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Robust Contrastive Learning against Noisy Views [79.71880076439297]
ノイズの多い視点に対して頑健な新しいコントラスト損失関数を提案する。
提案手法は,最新の画像,ビデオ,グラフのコントラスト学習ベンチマークに対して一貫した改善を提供する。
論文 参考訳(メタデータ) (2022-01-12T05:24:29Z) - Robust Latent Representations via Cross-Modal Translation and Alignment [36.67937514793215]
ほとんどのマルチモーダル機械学習手法では、トレーニングに使用されるすべてのモダリティをテストに利用する必要がある。
この制限に対処するため、トレーニング中のみに複数のモーダルを用いてユニモーダルシステムのテスト性能を向上させることを目的としている。
提案するマルチモーダルトレーニングフレームワークは、クロスモーダル変換と相関に基づく潜在空間アライメントを用いる。
論文 参考訳(メタデータ) (2020-11-03T11:18:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。