論文の概要: Where to look at the movies : Analyzing visual attention to understand
movie editing
- arxiv url: http://arxiv.org/abs/2102.13378v1
- Date: Fri, 26 Feb 2021 09:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 20:31:37.160071
- Title: Where to look at the movies : Analyzing visual attention to understand
movie editing
- Title(参考訳): 映画をどこに見るか : 映像編集を理解するための視覚的注意の分析
- Authors: Alexandre Bruckert, Marc Christie, Olivier Le Meur
- Abstract要約: 映画シーケンスの視線パターン情報を含む新しい視線追跡データベースを提案する。
このデータセット上で、最先端の計算サリエンシー技術がどのように振る舞うかを示す。
- 参考スコア(独自算出の注目度): 75.16856363008128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the process of making a movie, directors constantly care about where the
spectator will look on the screen. Shot composition, framing, camera movements
or editing are tools commonly used to direct attention. In order to provide a
quantitative analysis of the relationship between those tools and gaze
patterns, we propose a new eye-tracking database, containing gaze pattern
information on movie sequences, as well as editing annotations, and we show how
state-of-the-art computational saliency techniques behave on this dataset. In
this work, we expose strong links between movie editing and spectators
scanpaths, and open several leads on how the knowledge of editing information
could improve human visual attention modeling for cinematic content. The
dataset generated and analysed during the current study is available at
https://github.com/abruckert/eye_tracking_filmmaking
- Abstract(参考訳): 映画制作の過程では、監督は観客が画面を見る場所を常に気にしている。
ショット構成、フレーミング、カメラの動き、編集は、注意を向けるために一般的に使用されるツールである。
そこで本研究では,これらのツールと視線パターンの関係を定量的に解析するために,映画シーケンスの視線パターン情報とアノテーションの編集を含む新しい視線追跡データベースを提案する。
本研究では,映像編集と観客のスカンパスとの強い関連を明らかにするとともに,編集情報の知識が映像コンテンツに対する人間の視覚の注意モデリングをいかに改善するかについて,いくつかの手がかりを開く。
現在の研究中に生成されたデータセットは、https://github.com/abruckert/eye_tracking_filmmakingで入手できる。
関連論文リスト
- EditIQ: Automated Cinematic Editing of Static Wide-Angle Videos via Dialogue Interpretation and Saliency Cues [6.844857856353673]
我々は、静止画、大視野、高解像度カメラで撮影されたシーンを撮影的に編集する、完全に自動化されたフレームワークEditIQを提案する。
静的カメラフィードから、EditIQは最初、複数の仮想フィードを生成し、カメラマンのチームをエミュレートする。
これらの仮想カメラショットは後に自動編集アルゴリズムを用いて組み立てられ、その目的は視聴者に最も鮮明なシーンコンテンツを提示することである。
論文 参考訳(メタデータ) (2025-02-04T09:45:52Z) - Temporally Consistent Object Editing in Videos using Extended Attention [9.605596668263173]
本稿では,事前学習した画像拡散モデルを用いて映像を編集する手法を提案する。
編集された情報がすべてのビデオフレームで一貫していることを保証する。
論文 参考訳(メタデータ) (2024-06-01T02:31:16Z) - MagicStick: Controllable Video Editing via Control Handle Transformations [49.29608051543133]
MagicStickは、抽出した内部制御信号の変換を利用してビデオプロパティを編集する、制御可能なビデオ編集方法である。
統合フレームワークにおける多数の実例について実験を行った。
また、形状対応テキストベースの編集や手作り動画生成と比較し、従来の作品よりも優れた時間的一貫性と編集能力を示した。
論文 参考訳(メタデータ) (2023-12-05T17:58:06Z) - FLATTEN: optical FLow-guided ATTENtion for consistent text-to-video
editing [65.60744699017202]
拡散モデルのU-Netにおける注目モジュールに光フローを導入し,テキスト対ビデオ編集の不整合問題に対処する。
提案手法であるFLATTENでは,異なるフレームにまたがる同一フローパス上のパッチを適用して,アテンションモジュール内の相互にアテンションする。
既存のテキスト・ビデオ編集ベンチマークの結果から,提案手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-10-09T17:59:53Z) - MoviePuzzle: Visual Narrative Reasoning through Multimodal Order
Learning [54.73173491543553]
MoviePuzzleは、ビジュアルな物語の推論と全体論的映画理解をターゲットとする、新しい挑戦である。
本研究では,映像モデルの時間的特徴学習と構造学習を増幅するMoviePuzzleタスクを提案する。
提案手法はMoviePuzzleベンチマークの既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-06-04T03:51:54Z) - The Anatomy of Video Editing: A Dataset and Benchmark Suite for
AI-Assisted Video Editing [90.59584961661345]
この研究は、AIによるビデオ編集の研究を促進するために、データセットとベンチマークであるビデオ編集の解剖学を導入している。
本ベンチマークスイートでは,映像の自動撮影やビデオ組み立て支援など,視覚効果以外の映像編集作業に重点を置いている。
これらの前線の研究を可能にするために、196176年の映画シーンから採取した150万枚以上のタグと、撮影技術に関する概念を注釈付けした。
論文 参考訳(メタデータ) (2022-07-20T10:53:48Z) - Finding the Right Moment: Human-Assisted Trailer Creation via Task Composition [63.842627949509414]
我々は、トレーラーに含まれる可能性がある映画、すなわちショットのトレーラーの瞬間を見つけることに重点を置いている。
私たちは映画をグラフとしてモデル化し、ノードはショットであり、エッジはそれらの間のセマンティックな関係を表す。
教師なしのアルゴリズムがグラフを横切り、人間の審査員が競争監督のアプローチで選択した映画からトレーラーの瞬間を選択する。
このツールを使うと、30分以内のトレーラーショットを選択でき、完全に自動的な方法よりも優れており、専門家による(排他的な)手動選択に匹敵する。
論文 参考訳(メタデータ) (2021-11-16T20:50:52Z) - GAZED- Gaze-guided Cinematic Editing of Wide-Angle Monocular Video
Recordings [6.980491499722598]
本稿では,GAZED- eye GAZe-guided EDiting for video capture by asolary, static, wide-angle and high- resolution camera。
視覚ゲームは、興味深いシーンコンテンツをキャプチャするためのキューとして、計算応用に効果的に利用されている。
論文 参考訳(メタデータ) (2020-10-22T17:27:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。