論文の概要: HOTVCOM: Generating Buzzworthy Comments for Videos
- arxiv url: http://arxiv.org/abs/2409.15196v1
- Date: Mon, 23 Sep 2024 16:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 14:02:53.174679
- Title: HOTVCOM: Generating Buzzworthy Comments for Videos
- Title(参考訳): HOTVCOM:ビデオにふさわしいコメントを生成する
- Authors: Yuyan Chen, Yiwen Qian, Songzhou Yan, Jiyuan Jia, Zhixu Li, Yanghua Xiao, Xiaobo Li, Ming Yang, Qingpei Guo,
- Abstract要約: この研究は、中国最大のビデオコンテンツデータセットであるtextscHotVComを紹介し、94万の多様なビデオと1億1700万のコメントからなる。
また、中国語のビデオデータセット上で、視覚的、聴覚的、テキスト的データを相乗的に統合し、影響力のあるホットコンテンツを生成するtexttComHeatフレームワークを提案する。
- 参考スコア(独自算出の注目度): 49.39846630199698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of social media video platforms, popular ``hot-comments'' play a crucial role in attracting user impressions of short-form videos, making them vital for marketing and branding purpose. However, existing research predominantly focuses on generating descriptive comments or ``danmaku'' in English, offering immediate reactions to specific video moments. Addressing this gap, our study introduces \textsc{HotVCom}, the largest Chinese video hot-comment dataset, comprising 94k diverse videos and 137 million comments. We also present the \texttt{ComHeat} framework, which synergistically integrates visual, auditory, and textual data to generate influential hot-comments on the Chinese video dataset. Empirical evaluations highlight the effectiveness of our framework, demonstrating its excellence on both the newly constructed and existing datasets.
- Abstract(参考訳): ソーシャルメディアビデオプラットフォームの時代において、人気の高い「ホット・コメンツ」はショートビデオのユーザー印象を惹きつける上で重要な役割を担っており、マーケティングやブランディングの目的に欠かせないものとなっている。
しかし、既存の研究は主に記述的なコメントや「だんまく」を英語で生成することに焦点を当てており、特定のビデオモーメントに対する即時反応を提供する。
このギャップに対処するため,中国最大のビデオ配信データセットである『textsc{HotVCom}』を紹介した。
このフレームワークは、視覚、聴覚、テキストデータを相乗的に統合し、中国のビデオデータセットに影響を及ぼすホットコメンデーションを生成する。
実験的な評価は、新たに構築されたデータセットと既存のデータセットの両方に優れた性能を示すとともに、我々のフレームワークの有効性を強調します。
関連論文リスト
- Enhancing Multimodal Affective Analysis with Learned Live Comment Features [12.437191675553423]
ライブコメント(ライブコメント、Danmaku)は、ビデオコンテンツと同期されたユーザー生成メッセージである。
まず、英語と中国語のビデオのライブコメントを含むLive Comment for Affective Analysisデータセットを構築した。
次に、コントラスト学習を用いてビデオエンコーダを訓練し、マルチモーダルな感情コンテンツ分析の強化のための合成ライブコメント機能を生成する。
論文 参考訳(メタデータ) (2024-10-21T18:19:09Z) - Delving Deep into Engagement Prediction of Short Videos [34.38399476375175]
本研究は,ユーザインタラクションが限定されたビデオのエンゲージメント予測の難しさを深く掘り下げるものである。
Snapchatの90,000の現実世界のショートビデオからなる、実質的なデータセットを紹介します。
本手法は,映像コンテンツから映像のエンゲージメントを純粋に予測できることを示す。
論文 参考訳(メタデータ) (2024-09-30T23:57:07Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - VTC: Improving Video-Text Retrieval with User Comments [22.193221760244707]
本稿では,ビデオ,タイトル,コメントの新しいデータセットを紹介する。
コメントを用いることで、画像、ビデオ、音声の表現をより良く、より文脈的に学習することができる。
論文 参考訳(メタデータ) (2022-10-19T18:11:39Z) - Taking an Emotional Look at Video Paragraph Captioning [38.98567869515748]
本研究は,映像の段落レベルの記述を生成することを目標として,ビデオ段落のキャプションで実施する。
そこで本研究では,この課題に対して,大規模感情と論理駆動型多言語データセットを構築することを提案する。
このデータセットはEMVPCと名付けられ、毎日53件の広く使われている感情、これらの感情に対応する376件の一般的なシーン、10,291件の高品質ビデオ、20,582件の詳細な文節と英語と中国語のバージョンが含まれている。
論文 参考訳(メタデータ) (2022-03-12T06:19:48Z) - QVHighlights: Detecting Moments and Highlights in Videos via Natural
Language Queries [89.24431389933703]
Query-based Video Highlights (QVHighlights) データセットを提示する。
これは1万本以上のYouTubeビデオで構成され、幅広いトピックをカバーしている。
データセット内の各ビデオには、(1)人書き自由形式のNLクエリ、(2)クエリに関するビデオw.r.t.の関連モーメント、(3)クエリに関連するすべてのクリップに対する5ポイントスケールのサリエンシスコアが注釈付けされている。
論文 参考訳(メタデータ) (2021-07-20T16:42:58Z) - QuerYD: A video dataset with high-quality text and audio narrations [85.6468286746623]
ビデオの検索とイベントのローカライゼーションのための大規模データセットQuerYDを紹介する。
データセットのユニークな特徴は、ビデオ毎に2つのオーディオトラック(オリジナルオーディオと高品質な音声記述)が利用可能であることです。
YouDescribeは、既存のYouTubeビデオに音声ナレーションを付加することで視覚障害者を支援するボランティアプロジェクトだ。
論文 参考訳(メタデータ) (2020-11-22T17:33:44Z) - Comprehensive Information Integration Modeling Framework for Video
Titling [124.11296128308396]
エンド・ツー・エンド・エンド・モデリング・フレームワークにおいて、消費者生成ビデオの内容、消費者から提供される物語コメント文、製品属性などの包括的情報ソースを統合する。
この問題に対処するため,提案手法は,粒度レベルの相互作用モデリングと抽象レベルのストーリーライン要約という2つのプロセスから構成される。
グローバルなeコマースプラットフォームであるTaobaoの実際のデータから、大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2020-06-24T10:38:15Z) - Text Synopsis Generation for Egocentric Videos [72.52130695707008]
我々は、長い自我中心の動画の中で最も重要な出来事を記述したいくつかの文からなるテキスト合成を生成することを提案する。
ユーザーは短いテキストを読んでビデオについての洞察を得ることができ、さらに重要なのは、大きなビデオデータベースのコンテンツを効率的に検索できることだ。
論文 参考訳(メタデータ) (2020-05-08T00:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。