論文の概要: Dual-Perspective Disentangled Multi-Intent Alignment for Enhanced Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2506.11538v2
- Date: Mon, 30 Jun 2025 13:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 15:08:39.655008
- Title: Dual-Perspective Disentangled Multi-Intent Alignment for Enhanced Collaborative Filtering
- Title(参考訳): 協調フィルタ強化のための双対遠絡多点アライメント
- Authors: Shanfan Zhang, Yongyi Lin, Yuan Rao, Chenlong Zhang,
- Abstract要約: 暗黙のフィードバックからユーザ意図を遠ざけることは、レコメンデーションシステムの正確性と解釈可能性を高めるための有望な戦略として現れてきた。
DMICFは、意図のアライメント、構造融合、識別訓練を統一する、二重パースペクティブな協調フィルタリングフレームワークである。
DMICFは、さまざまなインタラクション分布を持つデータセット間で、一貫して堅牢なパフォーマンスを提供します。
- 参考スコア(独自算出の注目度): 7.031525324133112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentangling user intents from implicit feedback has emerged as a promising strategy for enhancing both the accuracy and interpretability of recommendation systems. However, existing methods often model user and item intents independently and rely heavily on implicit structural signals, lacking explicit guidance to uncover the joint semantics that drive user-item interactions. To address these limitations, we propose DMICF, a dual-perspective collaborative filtering framework that unifies intent alignment, structural fusion, and discriminative training into a cohesive architecture. DMICF jointly encodes user-item graphs from both user and item views, leveraging cross-perspective structural signals to reinforce representation learning, especially under sparse or long-tail scenarios. A sub-intent alignment mechanism is introduced to uncover fine-grained semantic correspondences between users and items, enabling adaptive refinement of interaction representations. To enhance prediction quality, DMICF employs an intent-aware scoring module that aggregates compatibility signals across matched latent intents. Furthermore, a multi-negative softmax-based supervision strategy is incorporated to promote semantic disentanglement, encouraging alignment between relevant intents while suppressing spurious or entangled components. Extensive experiments confirm that DMICF consistently delivers robust performance across datasets with diverse interaction distributions. Qualitative analysis confirms that DMICF disentangles interaction intents and adaptively structures intent subspaces into semantically coherent clusters, enabling fine-grained personalization.
- Abstract(参考訳): 暗黙のフィードバックからユーザ意図を遠ざけることは、レコメンデーションシステムの正確性と解釈可能性の両方を高めるための有望な戦略として現れてきた。
しかし、既存の手法は、ユーザとアイテムの意図を独立してモデル化し、暗黙的な構造的信号に強く依存することが多く、ユーザとイテムのインタラクションを駆動する共同セマンティクスを明らかにするための明確なガイダンスが欠如している。
これらの制約に対処するために、意図のアライメント、構造的融合、識別訓練を結合型アーキテクチャに統一する、二重パースペクティブな協調フィルタリングフレームワークであるDMICFを提案する。
DMICFはユーザビューとアイテムビューの両方からユーザテムグラフを共同でエンコードし、特にスパースやロングテールのシナリオにおいて、クロスパースペクティブな構造信号を活用して表現学習を強化する。
ユーザとアイテム間の微粒なセマンティック対応を明らかにするためのサブインテントアライメント機構を導入し、インタラクション表現の適応的洗練を可能にする。
予測品質を向上させるため、DMICFでは、一致した遅延インテント間で互換性信号を集約するインテント対応スコアリングモジュールを採用している。
さらに、意味的絡み合いを促進し、関連する意図間の整合を促進しつつ、刺激的または絡み合いのあるコンポーネントを抑えるために、多負のソフトマックスに基づく監督戦略が組み込まれている。
大規模な実験により、DMICFは多様な相互作用分布を持つデータセット間で一貫して堅牢なパフォーマンスを提供することを確認した。
定性的分析により、DMICFは相互作用意図を歪め、目的部分空間を意味的に一貫性のあるクラスタに適応的に構造化し、きめ細かいパーソナライゼーションを可能にする。
関連論文リスト
- Semantic-Aligned Learning with Collaborative Refinement for Unsupervised VI-ReID [82.12123628480371]
教師なしの人物再識別(USL-VI-ReID)は、モデル学習のための人間のアノテーションを使わずに、同じ人物の歩行者像を異なるモードでマッチングすることを目指している。
従来の手法では、ラベルアソシエーションアルゴリズムを用いて異質な画像の擬似ラベルを統一し、グローバルな特徴学習のためのコントラスト学習フレームワークを設計していた。
本稿では,各モダリティによって強調される特定のきめ細かいパターンを対象とするSALCR(Semantic-Aligned Learning with Collaborative Refinement)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-27T13:58:12Z) - BBQRec: Behavior-Bind Quantization for Multi-Modal Sequential Recommendation [15.818669767036592]
本稿では,2列列の量子化とセマンティックス・アウェア・シーケンス・モデリングを備えたBBQRec(Behavior-Bind Multi-modal Quantization for Sequential Recommendation)を提案する。
BBQRecは、コントラストのあるコードブック学習を通じて、ノイズの多いモダリティ特有の特徴からモダリティに依存しない行動パターンを分離する。
我々は、量子化された意味関係を用いて自己注意スコアを動的に調整する離散化類似度再重み付け機構を設計する。
論文 参考訳(メタデータ) (2025-04-09T07:19:48Z) - Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation [84.45144851024257]
離散コードによるより強力な協調情報を用いて、コントラスト的なビューを構築することにより、グラフのコントラスト学習を強化することを目的とした、新しいフレームワークを提案する。
中心となる考え方は、ユーザとアイテムを協調情報に富んだ離散コードにマッピングし、信頼性と情報に富んだコントラッシブなビュー生成を可能にすることである。
論文 参考訳(メタデータ) (2024-09-09T14:04:17Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。