論文の概要: Scaling New Peaks: A Viewership-centric Approach to Automated Content
Curation
- arxiv url: http://arxiv.org/abs/2108.04187v1
- Date: Mon, 9 Aug 2021 17:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 14:56:43.040965
- Title: Scaling New Peaks: A Viewership-centric Approach to Automated Content
Curation
- Title(参考訳): 新しいピークのスケーリング: コンテンツキュレーションを自動化するビューアシップ中心のアプローチ
- Authors: Subhabrata Majumdar, Deirdre Paul, Eric Zavesky
- Abstract要約: 本稿では,様々なセグメント識別目標に対応するビューアシップ駆動自動手法を提案する。
衛星テレビ視聴データを用いて、視聴者関心の「シード」セグメントを特定するために、視聴者関心の源泉として、視聴者関心の時系列に統計的異常検出を適用した。
我々は、2019年12月19日にアメリカ合衆国民主党大統領討論会と、2019年ウィンブルドン女子最終討論会で2つのケーススタディを提示した。
- 参考スコア(独自算出の注目度): 4.38301148531795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Summarizing video content is important for video streaming services to engage
the user in a limited time span. To this end, current methods involve manual
curation or using passive interest cues to annotate potential high-interest
segments to form the basis of summarized videos, and are costly and unreliable.
We propose a viewership-driven, automated method that accommodates a range of
segment identification goals. Using satellite television viewership data as a
source of ground truth for viewer interest, we apply statistical anomaly
detection on a timeline of viewership metrics to identify 'seed' segments of
high viewer interest. These segments are post-processed using empirical rules
and several sources of content metadata, e.g. shot boundaries, adding in
personalization aspects to produce the final highlights video.
To demonstrate the flexibility of our approach, we present two case studies,
on the United States Democratic Presidential Debate on 19th December 2019, and
Wimbledon Women's Final 2019. We perform qualitative comparisons with their
publicly available highlights, as well as early vs. late viewership comparisons
for insights into possible media and social influence on viewing behavior.
- Abstract(参考訳): ビデオコンテンツの要約は、ビデオストリーミングサービスがユーザーを限られた時間でエンゲージする上で重要である。
この目的のために、現在の手法では、手作業によるキュレーションや受動的興味の手がかりを用いて、潜在的な高関心セグメントに注釈を付け、要約されたビデオの基礎を形成し、コストがかかり信頼性が低い。
本稿では,セグメント識別目標の範囲に対応する視聴者主導自動化手法を提案する。
衛星テレビ視聴率データを視聴者の興味の源として利用し,視聴率指標の時系列に統計的異常検出を適用し,高い視聴者の「シード」セグメントを識別する。
これらのセグメントは経験則といくつかのコンテンツメタデータのソースを使って後処理される。
ショット境界、パーソナライゼーションの側面を追加して、最終的なハイライトビデオを生成する。
このアプローチの柔軟性を示すために,2019年12月19日のアメリカ合衆国大統領選挙討論会とwinbledon women's final 2019の2つの事例研究を行った。
メディアや社会的影響が視聴行動に与える影響についての洞察を得るために、公開ハイライトと早期対後期視聴の比較を行う。
関連論文リスト
- Which Viewpoint Shows it Best? Language for Weakly Supervising View Selection in Multi-view Videos [66.1935609072708]
鍵となる仮説は、個々のビューがより正確にビューに依存しないテキストの要約を予測できるほど、それがより情報的になるということである。
本稿では,ビュー依存キャプション予測の相対的精度を,擬似ラベルを最もよく見るためのプロキシとして利用するフレームワークを提案する。
推論の間、我々のモデルは多視点ビデオ(言語やカメラのポーズなし)のみを入力として取り、各タイミングで見るのに最適な視点を返します。
論文 参考訳(メタデータ) (2024-11-13T16:31:08Z) - Delving Deep into Engagement Prediction of Short Videos [34.38399476375175]
本研究は,ユーザインタラクションが限定されたビデオのエンゲージメント予測の難しさを深く掘り下げるものである。
Snapchatの90,000の現実世界のショートビデオからなる、実質的なデータセットを紹介します。
本手法は,映像コンテンツから映像のエンゲージメントを純粋に予測できることを示す。
論文 参考訳(メタデータ) (2024-09-30T23:57:07Z) - SWaT: Statistical Modeling of Video Watch Time through User Behavior Analysis [15.246875830547056]
本稿では,ビデオの視聴時の様々なユーザの行動仮定を統計的視聴時間モデルに変換するホワイトボックス統計フレームワークを提案する。
当社のモデルは、2つのパブリックデータセット、大規模なオフライン産業データセット、および数億人のデイリーアクティブユーザを持つ短いビデオプラットフォーム上でオンラインA/Bテストで広範囲にテストしています。
論文 参考訳(メタデータ) (2024-08-14T18:19:35Z) - Unsupervised Video Highlight Detection by Learning from Audio and Visual Recurrence [13.2968942989609]
手動のアノテーションを不要にしながら、教師なしのビデオハイライト検出に重点を置いている。
クラスタリング手法により、ビデオの擬似カテゴリを特定し、各ビデオの擬似ハイライトスコアを計算する。
また、視覚的特徴を用いて、各ビデオの視覚的擬似ハイライトスコアも計算する。
論文 参考訳(メタデータ) (2024-07-18T23:09:14Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Show Me What I Like: Detecting User-Specific Video Highlights Using Content-Based Multi-Head Attention [52.84233165201391]
そこで本稿では,従来視聴したビデオに表示されていたハイライトクリップに基づいて,対象ビデオの個別化ハイライトを検出する手法を提案する。
本手法は,対象物と人的活動の事前学習機能を用いて,好むクリップの内容と対象ビデオの両方を明示的に活用する。
論文 参考訳(メタデータ) (2022-07-18T02:32:48Z) - QVHighlights: Detecting Moments and Highlights in Videos via Natural
Language Queries [89.24431389933703]
Query-based Video Highlights (QVHighlights) データセットを提示する。
これは1万本以上のYouTubeビデオで構成され、幅広いトピックをカバーしている。
データセット内の各ビデオには、(1)人書き自由形式のNLクエリ、(2)クエリに関するビデオw.r.t.の関連モーメント、(3)クエリに関連するすべてのクリップに対する5ポイントスケールのサリエンシスコアが注釈付けされている。
論文 参考訳(メタデータ) (2021-07-20T16:42:58Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Generic Event Boundary Detection: A Benchmark for Event Segmentation [21.914662894860474]
本稿では,ビデオ全体をチャンクに分割する一般的な分類のないイベント境界を検出するための新しいベンチマークとともに,新しいタスクを提案する。
本稿では,ジェネリックイベント境界検出(GEBD)と新しいベンチマークKinetics-GEBDを提案する。
人間が未来を正確に予測できない地点で境界をマークするという認知的発見に触発されて、教師なしのアプローチを探求する。
論文 参考訳(メタデータ) (2021-01-26T01:31:30Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - A gaze driven fast-forward method for first-person videos [2.362412515574206]
我々は、入力ビデオの高速化版を作成し、重要な瞬間をレコーダーに強調することにより、ファースト・パーソン・ビデオにおける関連情報へのアクセスの問題に対処する。
本手法は,映像の各フレームのセマンティックスコアを提供する,視線と視覚的シーン分析によって駆動される注目モデルに基づく。
論文 参考訳(メタデータ) (2020-06-10T00:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。