論文の概要: Analysing the Memorability of a Procedural Crime-Drama TV Series, CSI
- arxiv url: http://arxiv.org/abs/2208.03479v1
- Date: Sat, 6 Aug 2022 09:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:44:59.432840
- Title: Analysing the Memorability of a Procedural Crime-Drama TV Series, CSI
- Title(参考訳): 手続き型犯罪ドラマシリーズCSIの記憶可能性の分析
- Authors: Sean Cummins and Lorin Sweeney and Alan F. Smeaton
- Abstract要約: 人気テレビシリーズ『CSI』の5シーズンスパンの記憶可能性について検討した。
ビデオ撮影で生成した記憶力スコアから意味を抽出する方法を示す。
- 参考スコア(独自算出の注目度): 2.7393821783237184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the memorability of a 5-season span of a popular crime-drama
TV series, CSI, through the application of a vision transformer fine-tuned on
the task of predicting video memorability. By investigating the popular genre
of crime-drama TV through the use of a detailed annotated corpus combined with
video memorability scores, we show how to extrapolate meaning from the
memorability scores generated on video shots. We perform a quantitative
analysis to relate video shot memorability to a variety of aspects of the show.
The insights we present in this paper illustrate the importance of video
memorability in applications which use multimedia in areas like education,
marketing, indexing, as well as in the case here namely TV and film production.
- Abstract(参考訳): 我々は,映像の暗記性を予測するタスクを微調整した視覚変換器を用いて,人気テレビシリーズCSIの5シーズンスパンの記憶可能性について検討した。
ビデオの暗記性スコアを付加した詳細な注釈付きコーパスを用いて、一般的な犯罪ドラマテレビのジャンルを調査することにより、映像の暗記性スコアから意味を抽出する方法を示す。
映像の記憶可能性と番組の様々な側面を関連付けるための定量的分析を行う。
本稿では,教育,マーケティング,インデクシングといった分野のマルチメディアを利用したアプリケーションにおいて,テレビや映画製作などにおいて,映像の記憶可能性の重要性について考察する。
関連論文リスト
- ActAnywhere: Subject-Aware Video Background Generation [62.57759679425924]
映画産業や視覚効果のコミュニティにとって,前景運動に合わせた映像背景の生成は重要な課題である。
この課題は、前景の主題の動きと外観と整合する背景と、芸術家の創造的な意図に合致する。
私たちは、伝統的に面倒な手作業を必要とするこのプロセスを自動化する生成モデルであるActAnywhereを紹介します。
論文 参考訳(メタデータ) (2024-01-19T17:16:16Z) - Decoding the Popularity of TV Series: A Network Analysis Perspective [0.0]
ノード度やグラフ密度など,各エピソードのネットワークメトリクスを算出し,ネットワークメトリクスとIMDBのTVシリーズレビューとの関係について検討する。
本結果より,テレビシリーズのレビュースコアとエピソード中のキャラクターの相互作用のネットワーク指標が強い相関関係があることが示唆された。
我々の研究は、テレビプロデューサーが将来のエピソードのキャラクターのダイナミクスをどう調整して観客にアピールするかを理解するのに役立つ、より定量的な情報を提供することを目的としている。
論文 参考訳(メタデータ) (2023-07-04T18:16:58Z) - Scaling New Peaks: A Viewership-centric Approach to Automated Content
Curation [4.38301148531795]
本稿では,様々なセグメント識別目標に対応するビューアシップ駆動自動手法を提案する。
衛星テレビ視聴データを用いて、視聴者関心の「シード」セグメントを特定するために、視聴者関心の源泉として、視聴者関心の時系列に統計的異常検出を適用した。
我々は、2019年12月19日にアメリカ合衆国民主党大統領討論会と、2019年ウィンブルドン女子最終討論会で2つのケーススタディを提示した。
論文 参考訳(メタデータ) (2021-08-09T17:17:29Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - The VIP Gallery for Video Processing Education [51.722183438644905]
このデモンストレーションギャラリーは、テキサス大学オースティン校の大学院クラスのデジタルビデオ''で効果的に使用されています。
現実世界のコンテンツにおけるDVPの例と、多数の重要なDVPトピックを整理するユーザフレンドリーなインターフェースを提供する。
これらのツールの教育的価値をよりよく理解するために,質問紙調査と質問紙調査を行った。
論文 参考訳(メタデータ) (2020-12-29T06:40:41Z) - Movie Summarization via Sparse Graph Construction [65.16768855902268]
マルチモーダル情報を用いて構築された,シーン間の関係を表すスパースなムービーグラフを構築することで,TPシーンを識別するモデルを提案する。
人間の判断によれば、我々のアプローチによって作成された要約は、シーケンスベースモデルや汎用的な要約アルゴリズムの出力よりも、より情報的で完全であり、より高い評価を受けている。
論文 参考訳(メタデータ) (2020-12-14T13:54:34Z) - A Unified Framework for Shot Type Classification Based on Subject
Centric Lens [89.26211834443558]
主観的誘導ネットワーク(SGNet)を用いたショット型認識のための学習フレームワークを提案する。
SGNetは、ショットの主題と背景を2つのストリームに分け、それぞれがスケールとムーブメントタイプの分類のための別々のガイダンスマップとして機能する。
大規模なデータセットであるMovieShotsを構築し、7Kフィルムトレーラーから46K枚の写真と、それらのスケールとムーブメントのアノテーションを含む。
論文 参考訳(メタデータ) (2020-08-08T15:49:40Z) - Multi-Modal Video Forensic Platform for Investigating Post-Terrorist
Attack Scenarios [55.82693757287532]
大規模ビデオ分析プラットフォーム(VAP)は、容疑者を特定し証拠を確保するために法執行機関(LEA)を支援する。
本稿では,視覚・音声分析モジュールを統合し,監視カメラからの情報と目撃者からの映像アップロードを融合するビデオ分析プラットフォームを提案する。
論文 参考訳(メタデータ) (2020-04-02T14:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。