論文の概要: A Vlogger-augmented Graph Neural Network Model for Micro-video Recommendation
- arxiv url: http://arxiv.org/abs/2405.18260v1
- Date: Tue, 28 May 2024 15:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 23:33:17.058136
- Title: A Vlogger-augmented Graph Neural Network Model for Micro-video Recommendation
- Title(参考訳): マイクロビデオレコメンデーションのためのVlogger-augmented Graph Neural Network Model
- Authors: Weijiang Lai, Beihong Jin, Beibei Li, Yiyuan Zheng, Rui Zhao,
- Abstract要約: 本稿では, vloggers の効果を考慮した vlogger-augmented graph neural network model VA-GNN を提案する。
具体的には、ユーザ、マイクロビデオ、vloggerをノードとして三部グラフを構築し、異なるビューからユーザの好みをキャプチャする。
次のユーザとビデオのインタラクションを予測する際に、ビデオ自体とvloggerに対するユーザの好みを適応的に組み合わせます。
- 参考スコア(独自算出の注目度): 7.54949302096348
- License:
- Abstract: Existing micro-video recommendation models exploit the interactions between users and micro-videos and/or multi-modal information of micro-videos to predict the next micro-video a user will watch, ignoring the information related to vloggers, i.e., the producers of micro-videos. However, in micro-video scenarios, vloggers play a significant role in user-video interactions, since vloggers generally focus on specific topics and users tend to follow the vloggers they are interested in. Therefore, in the paper, we propose a vlogger-augmented graph neural network model VA-GNN, which takes the effect of vloggers into consideration. Specifically, we construct a tripartite graph with users, micro-videos, and vloggers as nodes, capturing user preferences from different views, i.e., the video-view and the vlogger-view. Moreover, we conduct cross-view contrastive learning to keep the consistency between node embeddings from the two different views. Besides, when predicting the next user-video interaction, we adaptively combine the user preferences for a video itself and its vlogger. We conduct extensive experiments on two real-world datasets. The experimental results show that VA-GNN outperforms multiple existing GNN-based recommendation models.
- Abstract(参考訳): 既存のマイクロビデオレコメンデーションモデルは、ユーザとマイクロビデオのインタラクションやマイクロビデオのマルチモーダル情報を利用して、ユーザが次に見るマイクロビデオを予測する。
しかしながら、マイクロビデオのシナリオでは、vloggerはユーザーとビデオのインタラクションにおいて重要な役割を果たす。
そこで本稿では, vlogger の効果を考慮した vlogger-augmented graph neural network model VA-GNN を提案する。
具体的には、ユーザ、マイクロビデオ、およびvloggersをノードとして三部グラフを構築し、異なるビュー、すなわちビデオビューとvlogger-viewからユーザの好みをキャプチャする。
さらに,2つの異なる視点からノード埋め込み間の整合性を維持するために,クロスビューコントラスト学習を行う。
さらに、次のユーザとビデオのインタラクションを予測する際に、ビデオ自体とそのvloggerに対するユーザの好みを適応的に組み合わせる。
実世界の2つのデータセットについて広範な実験を行う。
実験の結果,VA-GNNは既存のGNNベースレコメンデーションモデルよりも優れていた。
関連論文リスト
- Vlogger: Make Your Dream A Vlog [67.50445251570173]
Vloggerは、ユーザ記述のミニレベルビデオブログ(vlog)を生成する汎用AIシステムである。
Script, (2) Actor, (3) ShowMaker, (4) Voicer など,vlog のプロフェッショナルにとって重要な役割を果たすために,様々な基礎モデルを実行します。
Vloggerは、スクリプトとアクターのビデオコヒーレンスを失うことなく、オープンワールドの説明から5分以上のvlogを生成することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:12Z) - Micro-video Tagging via Jointly Modeling Social Influence and Tag
Relation [56.23157334014773]
85.7%のマイクロビデオにはアノテーションがない。
既存の手法は、主にビデオコンテンツの分析、ユーザの社会的影響やタグ関係を無視することに焦点を当てている。
構築したヘテロジニアスネットワークにおけるリンク予測問題として,マイクロビデオタギングを定式化する。
論文 参考訳(メタデータ) (2023-03-15T02:13:34Z) - Towards Micro-video Thumbnail Selection via a Multi-label
Visual-semantic Embedding Model [0.0]
サムネイルは、マイクロビデオの初見として、ユーザーがクリックして視聴する際の重要な役割を担っている。
本稿では,各フレーム間の類似度と,ユーザが興味を持っている話題との類似度を推定するために,マルチラベルのビジュアル・セマンティック・埋め込みモデルを提案する。
我々は、各フレームの視覚的表現スコアと人気スコアを融合させ、与えられたマイクロビデオの魅力的なサムネイルを選択する。
論文 参考訳(メタデータ) (2022-02-07T04:15:26Z) - Concept-Aware Denoising Graph Neural Network for Micro-Video
Recommendation [30.67251766249372]
マイクロビデオレコメンデーションのための新しい概念認識型グラフニューラルネットワーク(CONDE)を提案する。
提案したCONDEは、既存の最先端ソリューションよりも大幅に優れたレコメンデーション性能を実現する。
論文 参考訳(メタデータ) (2021-09-28T07:02:52Z) - A Behavior-aware Graph Convolution Network Model for Video
Recommendation [9.589431810005774]
ユーザとビデオ間の影響を捉えるために,Sagittariusというモデルを提案する。
Sagittariusは重み付けによって異なるユーザの振る舞いを区別する。
そして、ユーザー行動の意味をユーザーとビデオの埋め込みに融合させる。
論文 参考訳(メタデータ) (2021-06-27T08:24:45Z) - Multiview Pseudo-Labeling for Semi-supervised Learning from Video [102.36355560553402]
本稿では,映像における半教師付き学習において,外観と動作情報という形で相補的視点を用いた新しい枠組みを提案する。
提案手法は複数のビューを対象とするが,それでも外観と動作の入力間で共有されるモデルを訓練する。
複数のビデオ認識データセットにおいて,本手法は教師あり映像表現学習における従来の標準ベンチマークと比較し,教師あり映像表現学習における従来の手法と比較した。
論文 参考訳(メタデータ) (2021-04-01T17:59:48Z) - Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation [65.16624625748068]
利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
論文 参考訳(メタデータ) (2021-04-01T07:20:15Z) - Predicting the Popularity of Micro-videos with Multimodal Variational
Encoder-Decoder Framework [54.194340961353944]
マイクロビデオ人気タスクのためのマルチモーダル変分エンコーダ・デコーダフレームワークを提案する。
MMVEDは、その人気レベルに情報を与えるマイクロビデオの埋め込みを学習する。
Xiguaから収集した公開データセットとデータセットで実施された実験は、提案したMMVEDフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-28T06:08:16Z) - Multimodal Matching Transformer for Live Commenting [97.06576354830736]
自動的なライブコメントは、視聴者にリアルタイムでビデオに対するコメントを提供することを目的としている。
このタスクの最近の研究は、コメントを生成するエンコーダ-デコーダモデルを採用している。
本稿では,コメント,視覚,音声間の関係を捉えるマルチモーダルマッチング変換器を提案する。
論文 参考訳(メタデータ) (2020-02-07T07:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。