論文の概要: Dataset and Models for Item Recommendation Using Multi-Modal User Interactions
- arxiv url: http://arxiv.org/abs/2405.04246v1
- Date: Tue, 07 May 2024 12:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 00:58:59.018842
- Title: Dataset and Models for Item Recommendation Using Multi-Modal User Interactions
- Title(参考訳): マルチモーダルユーザインタラクションを用いた項目推薦のためのデータセットとモデル
- Authors: Simone Borg Bruun, Krisztian Balog, Maria Maistro,
- Abstract要約: マルチモーダルなユーザインタラクションを,複数のチャネルを通じてユーザがサービスプロバイダと対話する環境で検討する。
このような場合、すべてのユーザが利用可能なすべてのチャンネルを介して対話するわけではないため、不完全なモダリティが自然に発生する。
本稿では,ユーザインタラクションを共通機能空間にマッピングすることで,モダリティの欠如に対処する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.054250597878465
- License:
- Abstract: While recommender systems with multi-modal item representations (image, audio, and text), have been widely explored, learning recommendations from multi-modal user interactions (e.g., clicks and speech) remains an open problem. We study the case of multi-modal user interactions in a setting where users engage with a service provider through multiple channels (website and call center). In such cases, incomplete modalities naturally occur, since not all users interact through all the available channels. To address these challenges, we publish a real-world dataset that allows progress in this under-researched area. We further present and benchmark various methods for leveraging multi-modal user interactions for item recommendations, and propose a novel approach that specifically deals with missing modalities by mapping user interactions to a common feature space. Our analysis reveals important interactions between the different modalities and that a frequently occurring modality can enhance learning from a less frequent one.
- Abstract(参考訳): マルチモーダルな項目表現(画像、音声、テキスト)を持つレコメンダシステムは広く研究されているが、マルチモーダルなユーザインタラクション(例えば、クリックや音声)からのレコメンデーションは未解決のままである。
本稿では,複数のチャンネル(Webサイトとコールセンタ)を通じて,ユーザがサービスプロバイダと対話する環境でのマルチモーダルユーザインタラクションの事例について検討する。
このような場合、すべてのユーザが利用可能なすべてのチャンネルを介して対話するわけではないため、不完全なモダリティが自然に発生する。
これらの課題に対処するために、この未調査領域の進捗を可能にする現実世界のデータセットを公開します。
さらに,複数モーダルなユーザインタラクションをアイテムレコメンデーションに活用するための様々な手法を提示,ベンチマークし,ユーザインタラクションを共通の特徴空間にマッピングすることで,欠落したモダリティを具体的に扱う新しいアプローチを提案する。
分析の結果,異なるモダリティ間の重要な相互作用が明らかとなり,頻繁に発生するモダリティによって,より頻度の低いモダリティからの学習が促進されることがわかった。
関連論文リスト
- DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - Unveiling the Impact of Multi-Modal Interactions on User Engagement: A Comprehensive Evaluation in AI-driven Conversations [17.409790984399052]
本稿では,画像と音声をテキストと併用したマルチモーダルインタラクションがユーザエンゲージメントに与える影響について検討する。
本研究は,テキストのみの対話に比べて,マルチモーダルインタラクションによるユーザエンゲージメントが著しく向上していることを明らかにする。
その結果,マルチモーダルインタラクションは認知処理を最適化し,より豊かな情報理解を促進することが示唆された。
論文 参考訳(メタデータ) (2024-06-21T09:26:55Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Multimodal Learning Without Labeled Multimodal Data: Guarantees and Applications [90.6849884683226]
ラベル付き単調データのみを用いた半教師付き環境における相互作用定量化の課題について検討する。
相互作用の正確な情報理論的定義を用いて、我々の重要な貢献は下界と上界の導出である。
本稿では、これらの理論結果を用いてマルチモーダルモデルの性能を推定し、データ収集をガイドし、様々なタスクに対して適切なマルチモーダルモデルを選択する方法について述べる。
論文 参考訳(メタデータ) (2023-06-07T15:44:53Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - Multiplex Behavioral Relation Learning for Recommendation via Memory
Augmented Transformer Network [25.563806871858073]
本研究では,メモリ拡張トランスフォーマーネットワーク(MATN)を提案する。
MATNフレームワークでは、まずトランスフォーマーに基づくマルチビヘイビア関係エンコーダを開発し、学習された相互作用表現をクロスタイプ行動関係を反映させる。
MATNをスーパーチャージするメモリアテンションネットワークを提案し、異なる種類の振る舞いのコンテキスト信号をカテゴリ固有の潜在埋め込み空間にキャプチャする。
論文 参考訳(メタデータ) (2021-10-08T09:54:43Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Graph Meta Network for Multi-Behavior Recommendation [24.251784947151755]
本稿では,マルチビヘイビアパターンモデリングをメタラーニングパラダイムに組み込むために,グラフメタネットワークを用いたマルチビヘイビアレコメンデーションフレームワークを提案する。
我々の開発したMB-GMNは、型に依存した行動表現を明らかにする能力により、ユーザ-イテム相互作用学習を増強する。
論文 参考訳(メタデータ) (2021-10-08T08:38:27Z) - Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation [65.16624625748068]
利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
論文 参考訳(メタデータ) (2021-04-01T07:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。