論文の概要: A Behavior-aware Graph Convolution Network Model for Video
Recommendation
- arxiv url: http://arxiv.org/abs/2106.15402v1
- Date: Sun, 27 Jun 2021 08:24:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:24:42.335842
- Title: A Behavior-aware Graph Convolution Network Model for Video
Recommendation
- Title(参考訳): ビデオレコメンデーションのための行動認識型グラフ畳み込みネットワークモデル
- Authors: Wei Zhuo, Kunchi Liu, Taofeng Xue, Beihong Jin, Beibei Li, Xinzhou
Dong, He Chen, Wenhai Pan, Xuejian Zhang, Shuo Zhou
- Abstract要約: ユーザとビデオ間の影響を捉えるために,Sagittariusというモデルを提案する。
Sagittariusは重み付けによって異なるユーザの振る舞いを区別する。
そして、ユーザー行動の意味をユーザーとビデオの埋め込みに融合させる。
- 参考スコア(独自算出の注目度): 9.589431810005774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactions between users and videos are the major data source of performing
video recommendation. Despite lots of existing recommendation methods, user
behaviors on videos, which imply the complex relations between users and
videos, are still far from being fully explored. In the paper, we present a
model named Sagittarius. Sagittarius adopts a graph convolutional neural
network to capture the influence between users and videos. In particular,
Sagittarius differentiates between different user behaviors by weighting and
fuses the semantics of user behaviors into the embeddings of users and videos.
Moreover, Sagittarius combines multiple optimization objectives to learn user
and video embeddings and then achieves the video recommendation by the learned
user and video embeddings. The experimental results on multiple datasets show
that Sagittarius outperforms several state-of-the-art models in terms of
recall, unique recall and NDCG.
- Abstract(参考訳): ユーザとビデオ間のインタラクションは、ビデオレコメンデーションを行う主要なデータソースである。
既存のレコメンデーション手法はたくさんあるが、ユーザーとビデオの複雑な関係を示唆するビデオ上のユーザー行動は、まだ完全には調査されていない。
本論文では, sagittarius というモデルを紹介する。
sagittariusはグラフ畳み込みニューラルネットワークを採用し、ユーザとビデオ間の影響力を捉える。
特に、Sagittariusはユーザー行動の重み付けによって異なるユーザー行動の区別をし、ユーザー行動の意味をユーザーとビデオの埋め込みに融合させる。
さらに、Sagittariusは複数の最適化目標を組み合わせてユーザとビデオの埋め込みを学習し、学習したユーザとビデオの埋め込みによるビデオレコメンデーションを達成する。
複数のデータセットの実験的結果は、sagittariusがリコール、ユニークリコール、ndcgの点で最先端モデルを上回ることを示している。
関連論文リスト
- HAVANA: Hierarchical stochastic neighbor embedding for Accelerated Video ANnotAtions [59.71751978599567]
本稿では,時間的ビデオアノテーションプロセスの高速化のために,事前抽出した特徴量と次元減少量を用いた新しいアノテーションパイプラインを提案する。
従来のリニア手法と比較して,アノテーションの取り組みが大幅に改善され,12時間以上のビデオのアノテートに要するクリック数が10倍以上に短縮された。
論文 参考訳(メタデータ) (2024-09-16T18:15:38Z) - A Vlogger-augmented Graph Neural Network Model for Micro-video Recommendation [7.54949302096348]
本稿では, vloggers の効果を考慮した vlogger-augmented graph neural network model VA-GNN を提案する。
具体的には、ユーザ、マイクロビデオ、vloggerをノードとして三部グラフを構築し、異なるビューからユーザの好みをキャプチャする。
次のユーザとビデオのインタラクションを予測する際に、ビデオ自体とvloggerに対するユーザの好みを適応的に組み合わせます。
論文 参考訳(メタデータ) (2024-05-28T15:13:29Z) - Knowledge-Aware Multi-Intent Contrastive Learning for Multi-Behavior Recommendation [6.522900133742931]
マルチ行動レコメンデーションは、ビュー、カートの追加、購入など、さまざまな行動に基づいたより正確な選択を提供する。
本稿では,KAMCL(Knowledge-Aware Multi-Intent Contrastive Learning)モデルを提案する。
このモデルは、インテントを構築するために知識グラフ内の関係を利用し、より正確なレコメンデーションを達成するためのインテントの観点から、ユーザのマルチビヘイビア間の接続をマイニングすることを目的としている。
論文 参考訳(メタデータ) (2024-04-18T08:39:52Z) - A Large Language Model Enhanced Sequential Recommender for Joint Video and Comment Recommendation [77.42486522565295]
我々は、パーソナライズされたビデオとコメントのレコメンデーションを共同で行うLSVCRと呼ばれる新しいレコメンデーション手法を提案する。
提案手法は,逐次レコメンデーション(SR)モデルと補足型大規模言語モデル(LLM)レコメンデーションという2つの重要なコンポーネントから構成される。
特に、コメント視聴時間の4.13%が大幅に向上した。
論文 参考訳(メタデータ) (2024-03-20T13:14:29Z) - Multi-Behavior Enhanced Recommendation with Cross-Interaction
Collaborative Relation Modeling [42.6279077675585]
本稿では,グラフニューラルマルチビヘイビア拡張レコメンデーションフレームワークを提案する。
グラフベースのメッセージパッシングアーキテクチャの下で、異なるタイプのユーザ-テムインタラクション間の依存関係を明示的にモデル化します。
実世界のレコメンデーションデータセットの実験は、GNMRが最先端の手法を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-01-07T03:12:37Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Concept-Aware Denoising Graph Neural Network for Micro-Video
Recommendation [30.67251766249372]
マイクロビデオレコメンデーションのための新しい概念認識型グラフニューラルネットワーク(CONDE)を提案する。
提案したCONDEは、既存の最先端ソリューションよりも大幅に優れたレコメンデーション性能を実現する。
論文 参考訳(メタデータ) (2021-09-28T07:02:52Z) - Hyper Meta-Path Contrastive Learning for Multi-Behavior Recommendation [61.114580368455236]
マルチビヘイビア情報によるユーザ購入予測は、現在のレコメンデーションシステムでは難しい問題である。
本稿では,ハイパーメタパスやハイパーメタグラフを構築するためのハイパーメタパスの概念を提案する。
最近のグラフコントラスト学習の成功により、異なる振る舞い間の依存関係を理解するために固定されたスキームを割り当てるのではなく、ユーザ行動パターンの埋め込みを適応的に学習する。
論文 参考訳(メタデータ) (2021-09-07T04:28:09Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。