論文の概要: Where to look at the movies : Analyzing visual attention to understand
movie editing
- arxiv url: http://arxiv.org/abs/2102.13378v1
- Date: Fri, 26 Feb 2021 09:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 20:31:37.160071
- Title: Where to look at the movies : Analyzing visual attention to understand
movie editing
- Title(参考訳): 映画をどこに見るか : 映像編集を理解するための視覚的注意の分析
- Authors: Alexandre Bruckert, Marc Christie, Olivier Le Meur
- Abstract要約: 映画シーケンスの視線パターン情報を含む新しい視線追跡データベースを提案する。
このデータセット上で、最先端の計算サリエンシー技術がどのように振る舞うかを示す。
- 参考スコア(独自算出の注目度): 75.16856363008128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the process of making a movie, directors constantly care about where the
spectator will look on the screen. Shot composition, framing, camera movements
or editing are tools commonly used to direct attention. In order to provide a
quantitative analysis of the relationship between those tools and gaze
patterns, we propose a new eye-tracking database, containing gaze pattern
information on movie sequences, as well as editing annotations, and we show how
state-of-the-art computational saliency techniques behave on this dataset. In
this work, we expose strong links between movie editing and spectators
scanpaths, and open several leads on how the knowledge of editing information
could improve human visual attention modeling for cinematic content. The
dataset generated and analysed during the current study is available at
https://github.com/abruckert/eye_tracking_filmmaking
- Abstract(参考訳): 映画制作の過程では、監督は観客が画面を見る場所を常に気にしている。
ショット構成、フレーミング、カメラの動き、編集は、注意を向けるために一般的に使用されるツールである。
そこで本研究では,これらのツールと視線パターンの関係を定量的に解析するために,映画シーケンスの視線パターン情報とアノテーションの編集を含む新しい視線追跡データベースを提案する。
本研究では,映像編集と観客のスカンパスとの強い関連を明らかにするとともに,編集情報の知識が映像コンテンツに対する人間の視覚の注意モデリングをいかに改善するかについて,いくつかの手がかりを開く。
現在の研究中に生成されたデータセットは、https://github.com/abruckert/eye_tracking_filmmakingで入手できる。
関連論文リスト
- Temporally Consistent Object Editing in Videos using Extended Attention [9.605596668263173]
本稿では,事前学習した画像拡散モデルを用いて映像を編集する手法を提案する。
編集された情報がすべてのビデオフレームで一貫していることを保証する。
論文 参考訳(メタデータ) (2024-06-01T02:31:16Z) - MagicStick: Controllable Video Editing via Control Handle Transformations [49.29608051543133]
MagicStickは、抽出した内部制御信号の変換を利用してビデオプロパティを編集する、制御可能なビデオ編集方法である。
統合フレームワークにおける多数の実例について実験を行った。
また、形状対応テキストベースの編集や手作り動画生成と比較し、従来の作品よりも優れた時間的一貫性と編集能力を示した。
論文 参考訳(メタデータ) (2023-12-05T17:58:06Z) - FLATTEN: optical FLow-guided ATTENtion for consistent text-to-video
editing [65.60744699017202]
拡散モデルのU-Netにおける注目モジュールに光フローを導入し,テキスト対ビデオ編集の不整合問題に対処する。
提案手法であるFLATTENでは,異なるフレームにまたがる同一フローパス上のパッチを適用して,アテンションモジュール内の相互にアテンションする。
既存のテキスト・ビデオ編集ベンチマークの結果から,提案手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-10-09T17:59:53Z) - MoviePuzzle: Visual Narrative Reasoning through Multimodal Order
Learning [54.73173491543553]
MoviePuzzleは、ビジュアルな物語の推論と全体論的映画理解をターゲットとする、新しい挑戦である。
本研究では,映像モデルの時間的特徴学習と構造学習を増幅するMoviePuzzleタスクを提案する。
提案手法はMoviePuzzleベンチマークの既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-06-04T03:51:54Z) - The Anatomy of Video Editing: A Dataset and Benchmark Suite for
AI-Assisted Video Editing [90.59584961661345]
この研究は、AIによるビデオ編集の研究を促進するために、データセットとベンチマークであるビデオ編集の解剖学を導入している。
本ベンチマークスイートでは,映像の自動撮影やビデオ組み立て支援など,視覚効果以外の映像編集作業に重点を置いている。
これらの前線の研究を可能にするために、196176年の映画シーンから採取した150万枚以上のタグと、撮影技術に関する概念を注釈付けした。
論文 参考訳(メタデータ) (2022-07-20T10:53:48Z) - Film Trailer Generation via Task Decomposition [65.16768855902268]
私たちは映画をグラフとしてモデル化し、ノードはショットであり、エッジはそれらの間のセマンティックな関係を表す。
スクリーンプレイから特権的テキスト情報を活用する共同コントラストトレーニングを用いて,これらの関係を学習する。
教師なしのアルゴリズムがグラフを横切り、人間の審査員が競争的な教師付きアプローチによって生成されるトレーラーを生成する。
論文 参考訳(メタデータ) (2021-11-16T20:50:52Z) - GAZED- Gaze-guided Cinematic Editing of Wide-Angle Monocular Video
Recordings [6.980491499722598]
本稿では,GAZED- eye GAZe-guided EDiting for video capture by asolary, static, wide-angle and high- resolution camera。
視覚ゲームは、興味深いシーンコンテンツをキャプチャするためのキューとして、計算応用に効果的に利用されている。
論文 参考訳(メタデータ) (2020-10-22T17:27:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。