論文の概要: DReX: An Explainable Deep Learning-based Multimodal Recommendation Framework
- arxiv url: http://arxiv.org/abs/2602.19702v1
- Date: Mon, 23 Feb 2026 10:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.776627
- Title: DReX: An Explainable Deep Learning-based Multimodal Recommendation Framework
- Title(参考訳): DReX: 説明可能なディープラーニングベースのマルチモーダルレコメンデーションフレームワーク
- Authors: Adamya Shyam, Venkateswara Rao Kagita, Bharti Rana, Vikas Kumar,
- Abstract要約: DReXは、ユーザとアイテムの表現を漸進的に洗練する統合マルチモーダルレコメンデーションフレームワークである。
評価と評価を含む実世界の3つのデータセットに対して,提案手法の性能をインタラクションのモダリティとして評価する。
- 参考スコア(独自算出の注目度): 2.631846982371029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal recommender systems leverage diverse data sources, such as user interactions, content features, and contextual information, to address challenges like cold-start and data sparsity. However, existing methods often suffer from one or more key limitations: processing different modalities in isolation, requiring complete multimodal data for each interaction during training, or independent learning of user and item representations. These factors contribute to increased complexity and potential misalignment between user and item embeddings. To address these challenges, we propose DReX, a unified multimodal recommendation framework that incrementally refines user and item representations by leveraging interaction-level features from multimodal feedback. Our model employs gated recurrent units to selectively integrate these fine-grained features into global representations. This incremental update mechanism provides three key advantages: (1) simultaneous modeling of both nuanced interaction details and broader preference patterns, (2) eliminates the need for separate user and item feature extraction processes, leading to enhanced alignment in their learned representation, and (3) inherent robustness to varying or missing modalities. We evaluate the performance of the proposed approach on three real-world datasets containing reviews and ratings as interaction modalities. By considering review text as a modality, our approach automatically generates interpretable keyword profiles for both users and items, which supplement the recommendation process with interpretable preference indicators. Experiment results demonstrate that our approach outperforms state-of-the-art methods across all evaluated datasets.
- Abstract(参考訳): マルチモーダルレコメンダシステムは,ユーザインタラクションやコンテンツ機能,コンテキスト情報など,さまざまなデータソースを活用して,コールドスタートやデータの分散といった課題に対処する。
しかしながら、既存の手法では、異なるモダリティを個別に処理すること、トレーニング中の各インタラクションに完全なマルチモーダルデータを必要とすること、ユーザとアイテム表現の独立した学習など、ひとつ以上の重要な制限に悩まされることが多い。
これらの要因は、ユーザとアイテムの埋め込みの複雑さと潜在的なミスアライメントの増加に寄与する。
これらの課題に対処するため,ユーザとアイテムの表現を漸進的に洗練する統合マルチモーダルレコメンデーションフレームワークであるDReXを提案する。
我々のモデルは、これらの細粒度特徴をグローバル表現に選択的に統合するためにゲートリカレント単位を用いる。
この漸進的な更新メカニズムは、(1)ニュアンス化された相互作用の詳細とより広範な嗜好パターンの同時モデリング、(2)ユーザーとアイテムの特徴抽出プロセスの分離の必要性を排除し、学習表現の整合性を高め、(3)モダリティの変化や欠落に固有の堅牢性を提供する。
評価と評価を含む実世界の3つのデータセットに対して,提案手法の性能をインタラクションのモダリティとして評価する。
レビューテキストをモダリティとして考えることで、ユーザとアイテムの両方の解釈可能なキーワードプロファイルを自動的に生成し、解釈可能な選好指標で推奨プロセスを補完する。
実験の結果,提案手法は評価されたすべてのデータセットで最先端の手法よりも優れていることがわかった。
関連論文リスト
- Structurally Refined Graph Transformer for Multimodal Recommendation [13.296555757708298]
構造的に最適化されたマルチモーダルレコメンデーションモデルSRGFormerを提案する。
モデルへのより良い統合のためにトランスフォーマーを変更することで、ユーザの全体的な行動パターンをキャプチャします。
そして,マルチモーダル情報をハイパーグラフ構造に埋め込み,ユーザとアイテム間の局所構造を学習する。
論文 参考訳(メタデータ) (2025-11-01T15:18:00Z) - Multimodal Difference Learning for Sequential Recommendation [5.243083216855681]
ユーザの関心とアイテムの関係は、さまざまなモダリティによって異なる、と我々は主張する。
本稿では,MDSRec のシークエンシャルレコメンデーションのための新しいマルチモーダルラーニングフレームワークを提案する。
5つの実世界のデータセットの結果は、最先端のベースラインよりもMDSRecの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-12-11T05:08:19Z) - InterFormer: Effective Heterogeneous Interaction Learning for Click-Through Rate Prediction [83.7578502046955]
我々はインターリービング方式で異種情報インタラクションを学習するInterFormerという新しいモジュールを提案する。
提案するInterFormerは,3つのパブリックデータセットと大規模産業データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-15T00:20:36Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Multimodal Fusion Interactions: A Study of Human and Automatic
Quantification [116.55145773123132]
我々は、人間がマルチモーダル相互作用の2つの分類に注釈を付ける方法を研究する。
本稿では,部分的および対実的ラベルのアノテーションを情報分解に自動的に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T03:44:50Z) - GIMIRec: Global Interaction Information Aware Multi-Interest Framework
for Sequential Recommendation [5.416421678129053]
本稿では,GIMIレコメンデーションのための多目的フレームワーク(Global Interaction Aware Multi-Interest Framework for Sequential Recommendation,GIMIRec)という新たなレコメンデーションモデルを提案する。
Recall、NDCG、Hit RateインジケータにおけるGIMIRecの性能は、最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-12-16T09:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。