論文の概要: Orthogonal Hyper-category Guided Multi-interest Elicitation for Micro-video Matching
- arxiv url: http://arxiv.org/abs/2407.14741v1
- Date: Sat, 20 Jul 2024 03:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 21:04:01.107164
- Title: Orthogonal Hyper-category Guided Multi-interest Elicitation for Micro-video Matching
- Title(参考訳): 直交型ハイパーカテゴリガイドによるマイクロビデオマッチング
- Authors: Beibei Li, Beihong Jin, Yisong Yu, Yiyuan Zheng, Jiageng Song, Wei Zhuo, Tao Xiang,
- Abstract要約: マイクロビデオマッチングのためのOPALモデルを提案する。
OPALは、ユーザの多種多様な興味を引き出すために、複数のソフトおよびハードな関心の埋め込みを分離する。
OPALはリコールとヒット率の点で6つの最先端モデルを上回っている。
- 参考スコア(独自算出の注目度): 43.79560010763052
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Watching micro-videos is becoming a part of public daily life. Usually, user watching behaviors are thought to be rooted in their multiple different interests. In the paper, we propose a model named OPAL for micro-video matching, which elicits a user's multiple heterogeneous interests by disentangling multiple soft and hard interest embeddings from user interactions. Moreover, OPAL employs a two-stage training strategy, in which the pre-train is to generate soft interests from historical interactions under the guidance of orthogonal hyper-categories of micro-videos and the fine-tune is to reinforce the degree of disentanglement among the interests and learn the temporal evolution of each interest of each user. We conduct extensive experiments on two real-world datasets. The results show that OPAL not only returns diversified micro-videos but also outperforms six state-of-the-art models in terms of recall and hit rate.
- Abstract(参考訳): マイクロビデオを見ることは、日々の生活の一部になりつつある。
通常、ユーザーの観察行動は、複数の異なる関心事に根ざしていると考えられている。
本稿では,ユーザインタラクションから複数のソフトな,ハードな埋め込みを分離することで,ユーザの多種多様な興味を引き出す,マイクロビデオマッチングのためのOPALモデルを提案する。
さらに、OPALは、マイクロビデオの直交的ハイパーカテゴリの指導の下で、歴史的相互作用からソフトな関心を生み出すための2段階のトレーニング戦略を採用し、微調整は、各ユーザの興味のゆがみの程度を補強し、それぞれの興味の時間的進化を学習する。
実世界の2つのデータセットについて広範な実験を行う。
その結果、OPALはマイクロビデオの多様化だけでなく、リコールやヒット率の点で6つの最先端モデルよりも優れていることがわかった。
関連論文リスト
- MUFM: A Mamba-Enhanced Feedback Model for Micro Video Popularity Prediction [1.7040391128945196]
ユーザフィードバックと動的イベントインタラクションにおける長期的依存関係をキャプチャするフレームワークを導入する。
大規模なオープンソースマルチモーダルデータセットに関する我々の実験は、我々のモデルが最先端のアプローチを23.2%上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-23T05:13:27Z) - Multi-queue Momentum Contrast for Microvideo-Product Retrieval [57.527227171945796]
マルチモーダルインスタンスとマルチモーダルインスタンス間の検索を探索する最初の試みであるマイクロビデオ製品検索タスクを定式化する。
双方向検索のためのMulti-Queue Momentum Contrast(MQMC)ネットワークという新しい手法を提案する。
マルチキューを用いた識別的選択戦略は、カテゴリによって異なる負の重要性を区別するために用いられる。
論文 参考訳(メタデータ) (2022-12-22T03:47:14Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation [65.16624625748068]
利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
論文 参考訳(メタデータ) (2021-04-01T07:20:15Z) - Learning Modality Interaction for Temporal Sentence Localization and
Event Captioning in Videos [76.21297023629589]
そこで本稿では,ビデオの各対のモダリティの相補的情報をよりよく活用するために,ペアワイズなモダリティ相互作用を学習するための新しい手法を提案する。
提案手法は,4つの標準ベンチマークデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-28T12:40:59Z) - Predicting the Popularity of Micro-videos with Multimodal Variational
Encoder-Decoder Framework [54.194340961353944]
マイクロビデオ人気タスクのためのマルチモーダル変分エンコーダ・デコーダフレームワークを提案する。
MMVEDは、その人気レベルに情報を与えるマイクロビデオの埋め込みを学習する。
Xiguaから収集した公開データセットとデータセットで実施された実験は、提案したMMVEDフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-28T06:08:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。