論文の概要: A Behavior-aware Graph Convolution Network Model for Video
Recommendation
- arxiv url: http://arxiv.org/abs/2106.15402v1
- Date: Sun, 27 Jun 2021 08:24:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:24:42.335842
- Title: A Behavior-aware Graph Convolution Network Model for Video
Recommendation
- Title(参考訳): ビデオレコメンデーションのための行動認識型グラフ畳み込みネットワークモデル
- Authors: Wei Zhuo, Kunchi Liu, Taofeng Xue, Beihong Jin, Beibei Li, Xinzhou
Dong, He Chen, Wenhai Pan, Xuejian Zhang, Shuo Zhou
- Abstract要約: ユーザとビデオ間の影響を捉えるために,Sagittariusというモデルを提案する。
Sagittariusは重み付けによって異なるユーザの振る舞いを区別する。
そして、ユーザー行動の意味をユーザーとビデオの埋め込みに融合させる。
- 参考スコア(独自算出の注目度): 9.589431810005774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactions between users and videos are the major data source of performing
video recommendation. Despite lots of existing recommendation methods, user
behaviors on videos, which imply the complex relations between users and
videos, are still far from being fully explored. In the paper, we present a
model named Sagittarius. Sagittarius adopts a graph convolutional neural
network to capture the influence between users and videos. In particular,
Sagittarius differentiates between different user behaviors by weighting and
fuses the semantics of user behaviors into the embeddings of users and videos.
Moreover, Sagittarius combines multiple optimization objectives to learn user
and video embeddings and then achieves the video recommendation by the learned
user and video embeddings. The experimental results on multiple datasets show
that Sagittarius outperforms several state-of-the-art models in terms of
recall, unique recall and NDCG.
- Abstract(参考訳): ユーザとビデオ間のインタラクションは、ビデオレコメンデーションを行う主要なデータソースである。
既存のレコメンデーション手法はたくさんあるが、ユーザーとビデオの複雑な関係を示唆するビデオ上のユーザー行動は、まだ完全には調査されていない。
本論文では, sagittarius というモデルを紹介する。
sagittariusはグラフ畳み込みニューラルネットワークを採用し、ユーザとビデオ間の影響力を捉える。
特に、Sagittariusはユーザー行動の重み付けによって異なるユーザー行動の区別をし、ユーザー行動の意味をユーザーとビデオの埋め込みに融合させる。
さらに、Sagittariusは複数の最適化目標を組み合わせてユーザとビデオの埋め込みを学習し、学習したユーザとビデオの埋め込みによるビデオレコメンデーションを達成する。
複数のデータセットの実験的結果は、sagittariusがリコール、ユニークリコール、ndcgの点で最先端モデルを上回ることを示している。
関連論文リスト
- Intent-aware Multi-source Contrastive Alignment for Tag-enhanced
Recommendation [46.04494053005958]
我々は,情報ソースをまたいだ自己教師型学習を通じて,軽量で効果的な代替フレームワークを模索する。
我々は、ユーザと以前対話したアイテムに関連する補助情報とをペアリングするために、セルフスーパービジョン信号を使用する。
また,本手法はトレーニング時間を短縮しつつ,より優れた性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-11-11T17:43:19Z) - Weakly-Supervised Action Detection Guided by Audio Narration [50.4318060593995]
ナレーション管理から学習し,RGB,モーションフロー,環境音などのマルチモーダル特徴を利用するモデルを提案する。
実験の結果,ノイズの多い音声ナレーションは優れた行動検出モデルを学ぶのに十分であることがわかった。
論文 参考訳(メタデータ) (2022-05-12T06:33:24Z) - Bridge-Prompt: Towards Ordinal Action Understanding in Instructional
Videos [92.18898962396042]
本稿では,隣接するアクション間のセマンティクスをモデル化する,プロンプトベースのフレームワークであるBridge-Promptを提案する。
我々は個々のアクションラベルを、個々のアクションセマンティクスのギャップを埋める監視のための統合テキストプロンプトとして再構成する。
Br-Promptは複数のベンチマークで最先端を達成する。
論文 参考訳(メタデータ) (2022-03-26T15:52:27Z) - Multi-Behavior Enhanced Recommendation with Cross-Interaction
Collaborative Relation Modeling [42.6279077675585]
本稿では,グラフニューラルマルチビヘイビア拡張レコメンデーションフレームワークを提案する。
グラフベースのメッセージパッシングアーキテクチャの下で、異なるタイプのユーザ-テムインタラクション間の依存関係を明示的にモデル化します。
実世界のレコメンデーションデータセットの実験は、GNMRが最先端の手法を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-01-07T03:12:37Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Concept-Aware Denoising Graph Neural Network for Micro-Video
Recommendation [30.67251766249372]
マイクロビデオレコメンデーションのための新しい概念認識型グラフニューラルネットワーク(CONDE)を提案する。
提案したCONDEは、既存の最先端ソリューションよりも大幅に優れたレコメンデーション性能を実現する。
論文 参考訳(メタデータ) (2021-09-28T07:02:52Z) - Hyper Meta-Path Contrastive Learning for Multi-Behavior Recommendation [61.114580368455236]
マルチビヘイビア情報によるユーザ購入予測は、現在のレコメンデーションシステムでは難しい問題である。
本稿では,ハイパーメタパスやハイパーメタグラフを構築するためのハイパーメタパスの概念を提案する。
最近のグラフコントラスト学習の成功により、異なる振る舞い間の依存関係を理解するために固定されたスキームを割り当てるのではなく、ユーザ行動パターンの埋め込みを適応的に学習する。
論文 参考訳(メタデータ) (2021-09-07T04:28:09Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Self-supervised Video Representation Learning Using Inter-intra
Contrastive Framework [43.002621928500425]
ビデオから特徴表現を学習するための自己教師付き手法を提案する。
映像表現が重要であるので、負のサンプルを非負のサンプルによって拡張する。
学習した映像表現を用いて,映像検索と映像認識タスクの実験を行う。
論文 参考訳(メタデータ) (2020-08-06T09:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。