論文の概要: An Estimation of Online Video User Engagement from Features of
Continuous Emotions
- arxiv url: http://arxiv.org/abs/2105.01633v1
- Date: Tue, 4 May 2021 17:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:54:05.733099
- Title: An Estimation of Online Video User Engagement from Features of
Continuous Emotions
- Title(参考訳): 連続感情の特徴によるオンラインビデオユーザのエンゲージメントの推定
- Authors: Lukas Stappen, Alice Baird, Michelle Lienhart, Annalena B\"atz,
Bj\"orn Schuller
- Abstract要約: ポートレイティングの感情と信頼性は、ビデオコンテンツの魅力を高めることが知られている。
これらの信号から抽出した特徴をユーザエンゲージメント指標に対して検討する。
その結果,より小さな境界範囲とゆらぎがユーザのエンゲージメントを増加させることが示された。
複数のユーザーエンゲージメント指標を自動的に予測するためのアプローチについて、効果的な機能の組み合わせを概説します。
- 参考スコア(独自算出の注目度): 13.244780102036069
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Portraying emotion and trustworthiness is known to increase the appeal of
video content. However, the causal relationship between these signals and
online user engagement is not well understood. This limited understanding is
partly due to a scarcity in emotionally annotated data and the varied
modalities which express user engagement online. In this contribution, we
utilise a large dataset of YouTube review videos which includes ca. 600 hours
of dimensional arousal, valence and trustworthiness annotations. We investigate
features extracted from these signals against various user engagement
indicators including views, like/dislike ratio, as well as the sentiment of
comments. In doing so, we identify the positive and negative influences which
single features have, as well as interpretable patterns in each dimension which
relate to user engagement. Our results demonstrate that smaller boundary ranges
and fluctuations for arousal lead to an increase in user engagement.
Furthermore, the extracted time-series features reveal significant (p<0.05)
correlations for each dimension, such as, count below signal mean (arousal),
number of peaks (valence), and absolute energy (trustworthiness). From this, an
effective combination of features is outlined for approaches aiming to
automatically predict several user engagement indicators. In a user engagement
prediction paradigm we compare all features against semi-automatic
(cross-task), and automatic (task-specific) feature selection methods. These
selected feature sets appear to outperform the usage of all features, e.g.,
using all features achieves 1.55 likes per day (Lp/d) mean absolute error from
valence; this improves through semi-automatic and automatic selection to 1.33
and 1.23 Lp/d, respectively (data mean 9.72 Lp/d with a std. 28.75 Lp/d).
- Abstract(参考訳): ポートレイティングの感情と信頼性は、ビデオコンテンツの魅力を高めることが知られている。
しかし、これらの信号とオンラインユーザエンゲージメントの因果関係はよく理解されていない。
この限定的な理解は、感情的な注釈付きデータの不足と、オンラインでのユーザエンゲージメントを表現するさまざまなモダリティが原因である。
このコントリビューションでは,caを含むYouTubeレビュービデオの大規模なデータセットを活用する。
600時間分の次元覚醒 原子価 信頼力のアノテーション
我々は,これらの信号から抽出した特徴を,コメントの感情だけでなく,ビュー,類似/非類似比率などの様々なユーザエンゲージメント指標に対して検討する。
そこで我々は,単一機能の持つ肯定的および否定的な影響と,ユーザのエンゲージメントに関連する各次元の解釈可能なパターンを識別する。
その結果,ユーザエンゲージメントの増大につながる境界範囲やゆらぎが小さいことが示唆された。
さらに,抽出された時系列の特徴は,信号平均(覚醒)以下,ピーク数(価),絶対エネルギー(信頼度)など,各次元において有意な相関(p<0.05)を示す。
そこから、複数のユーザエンゲージメント指標を自動的に予測することを目的とした、効果的な機能の組み合わせを概説する。
ユーザエンゲージメント予測パラダイムでは、すべての機能をセミオートマチック(クロスタスク)と自動(タスク固有の)機能選択方法と比較する。
これらの選択された特徴セットは、すべての特徴(例えば、すべての特徴を使用すると、1日あたり1.55の類似(Lp/d)は、原子価から絶対誤差を意味する)を達成し、それぞれ半自動選択と自動選択により1.33Lp/dに改善する(平均は9.72Lp/d)。
28.75 Lp/d)。
関連論文リスト
- AdaptSSR: Pre-training User Model with Augmentation-Adaptive
Self-Supervised Ranking [19.1857792382924]
本稿では,Augmentation-Supervised Ranking (AdaptSSR)を提案する。
我々は、暗黙的に拡張されたビュー、明示的な拡張されたビュー、および他のユーザからのビューの類似性の順序をキャプチャするために、ユーザモデルを訓練する複数のペアランキング損失を採用する。
6つの下流タスクを持つパブリックデータセットとインダストリアルデータセットの実験は、AdaptSSRの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-15T02:19:28Z) - Temporal Interest Network for User Response Prediction [33.95334897033641]
本稿では,行動と対象間の意味的・時間的相関を同時に捉えるための時間的関心ネットワーク(TIN)を提案する。
TINは2023年10月から運用に成功し、WeChat Momentsのトラフィックに対応している。
論文 参考訳(メタデータ) (2023-08-15T05:48:44Z) - Continuous Attribution of Episodical Outcomes for More Efficient and
Targeted Online Measurement [4.361526134899724]
本研究では,段階的に観察される主指標を用いて,長期的結果のモデル化に因果サロガシーを適用した。
Airbnbのゲスト予約基準にこのアプローチを適用することで、50%から85%のばらつきが大幅に低減された。
論文 参考訳(メタデータ) (2022-10-28T19:20:20Z) - Disentangled Representation Learning for Text-Video Retrieval [51.861423831566626]
テキスト・ビデオ検索(TVR)における相互モダリティの相互作用
我々は相互作用のパラダイムを深く研究し、その計算を2つの項に分けることができることを示した。
本稿では,逐次的かつ階層的な表現を捉えるための非絡み合いフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-14T13:55:33Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild [0.2216657815393579]
本稿では,ABAW(Affective Behavior Analysis in-the-Wild)2020 Contestに提出された感情認識手法を紹介する。
感情行動には独自の時間枠を持つ観測可能な多くの特徴があるため、複数の最適化された時間窓を導入しました。
時間ごとの感情認識モデルを作成し、これらのモデルをまとめました。
論文 参考訳(メタデータ) (2020-09-29T09:24:29Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z) - Multi-Granularity Reference-Aided Attentive Feature Aggregation for
Video-based Person Re-identification [98.7585431239291]
ビデオベースの人物再識別は、同じ人物をビデオクリップ間でマッチングすることを目的としている。
本稿では,マルチグラニュラリティ参照属性集約モジュールMG-RAFAを提案する。
本フレームワークは,3つのベンチマークデータセット上での最先端のアブレーション性能を実現する。
論文 参考訳(メタデータ) (2020-03-27T03:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。