論文の概要: Scaling New Peaks: A Viewership-centric Approach to Automated Content
Curation
- arxiv url: http://arxiv.org/abs/2108.04187v1
- Date: Mon, 9 Aug 2021 17:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 14:56:43.040965
- Title: Scaling New Peaks: A Viewership-centric Approach to Automated Content
Curation
- Title(参考訳): 新しいピークのスケーリング: コンテンツキュレーションを自動化するビューアシップ中心のアプローチ
- Authors: Subhabrata Majumdar, Deirdre Paul, Eric Zavesky
- Abstract要約: 本稿では,様々なセグメント識別目標に対応するビューアシップ駆動自動手法を提案する。
衛星テレビ視聴データを用いて、視聴者関心の「シード」セグメントを特定するために、視聴者関心の源泉として、視聴者関心の時系列に統計的異常検出を適用した。
我々は、2019年12月19日にアメリカ合衆国民主党大統領討論会と、2019年ウィンブルドン女子最終討論会で2つのケーススタディを提示した。
- 参考スコア(独自算出の注目度): 4.38301148531795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Summarizing video content is important for video streaming services to engage
the user in a limited time span. To this end, current methods involve manual
curation or using passive interest cues to annotate potential high-interest
segments to form the basis of summarized videos, and are costly and unreliable.
We propose a viewership-driven, automated method that accommodates a range of
segment identification goals. Using satellite television viewership data as a
source of ground truth for viewer interest, we apply statistical anomaly
detection on a timeline of viewership metrics to identify 'seed' segments of
high viewer interest. These segments are post-processed using empirical rules
and several sources of content metadata, e.g. shot boundaries, adding in
personalization aspects to produce the final highlights video.
To demonstrate the flexibility of our approach, we present two case studies,
on the United States Democratic Presidential Debate on 19th December 2019, and
Wimbledon Women's Final 2019. We perform qualitative comparisons with their
publicly available highlights, as well as early vs. late viewership comparisons
for insights into possible media and social influence on viewing behavior.
- Abstract(参考訳): ビデオコンテンツの要約は、ビデオストリーミングサービスがユーザーを限られた時間でエンゲージする上で重要である。
この目的のために、現在の手法では、手作業によるキュレーションや受動的興味の手がかりを用いて、潜在的な高関心セグメントに注釈を付け、要約されたビデオの基礎を形成し、コストがかかり信頼性が低い。
本稿では,セグメント識別目標の範囲に対応する視聴者主導自動化手法を提案する。
衛星テレビ視聴率データを視聴者の興味の源として利用し,視聴率指標の時系列に統計的異常検出を適用し,高い視聴者の「シード」セグメントを識別する。
これらのセグメントは経験則といくつかのコンテンツメタデータのソースを使って後処理される。
ショット境界、パーソナライゼーションの側面を追加して、最終的なハイライトビデオを生成する。
このアプローチの柔軟性を示すために,2019年12月19日のアメリカ合衆国大統領選挙討論会とwinbledon women's final 2019の2つの事例研究を行った。
メディアや社会的影響が視聴行動に与える影響についての洞察を得るために、公開ハイライトと早期対後期視聴の比較を行う。
関連論文リスト
- How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Show Me What I Like: Detecting User-Specific Video Highlights Using
Content-Based Multi-Head Attention [58.44096082508686]
そこで本稿では,従来視聴したビデオに表示されていたハイライトクリップに基づいて,対象ビデオの個別化ハイライトを検出する手法を提案する。
本手法は,対象物と人的活動の事前学習機能を用いて,好むクリップの内容と対象ビデオの両方を明示的に活用する。
論文 参考訳(メタデータ) (2022-07-18T02:32:48Z) - Panoptic Segmentation: A Review [2.270719568619559]
本稿では,既存の汎視的セグメンテーション手法の包括的レビューを行う。
パノプティクスのセグメンテーションは現在、ビデオ監視、群衆のカウント、自動運転、医療画像分析などの画像シーンに関する、より精巧な知識を得るために研究中である。
論文 参考訳(メタデータ) (2021-11-19T14:40:24Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - QVHighlights: Detecting Moments and Highlights in Videos via Natural
Language Queries [89.24431389933703]
Query-based Video Highlights (QVHighlights) データセットを提示する。
これは1万本以上のYouTubeビデオで構成され、幅広いトピックをカバーしている。
データセット内の各ビデオには、(1)人書き自由形式のNLクエリ、(2)クエリに関するビデオw.r.t.の関連モーメント、(3)クエリに関連するすべてのクリップに対する5ポイントスケールのサリエンシスコアが注釈付けされている。
論文 参考訳(メタデータ) (2021-07-20T16:42:58Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Generic Event Boundary Detection: A Benchmark for Event Segmentation [21.914662894860474]
本稿では,ビデオ全体をチャンクに分割する一般的な分類のないイベント境界を検出するための新しいベンチマークとともに,新しいタスクを提案する。
本稿では,ジェネリックイベント境界検出(GEBD)と新しいベンチマークKinetics-GEBDを提案する。
人間が未来を正確に予測できない地点で境界をマークするという認知的発見に触発されて、教師なしのアプローチを探求する。
論文 参考訳(メタデータ) (2021-01-26T01:31:30Z) - Understanding YouTube Communities via Subscription-based Channel
Embeddings [0.0]
本稿では,YouTubeチャンネルの発見と分類を行う新しい手法を提案する。
これらの手法は、コメントの公開購読ページを活用する自己教師付き学習アプローチを使用する。
異なる政治コンテンツへのトラフィック量を分析するために、新しいデータセットを作成します。
論文 参考訳(メタデータ) (2020-10-19T22:00:04Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - A gaze driven fast-forward method for first-person videos [2.362412515574206]
我々は、入力ビデオの高速化版を作成し、重要な瞬間をレコーダーに強調することにより、ファースト・パーソン・ビデオにおける関連情報へのアクセスの問題に対処する。
本手法は,映像の各フレームのセマンティックスコアを提供する,視線と視覚的シーン分析によって駆動される注目モデルに基づく。
論文 参考訳(メタデータ) (2020-06-10T00:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。