論文の概要: GAZED- Gaze-guided Cinematic Editing of Wide-Angle Monocular Video
Recordings
- arxiv url: http://arxiv.org/abs/2010.11886v1
- Date: Thu, 22 Oct 2020 17:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:18:30.686740
- Title: GAZED- Gaze-guided Cinematic Editing of Wide-Angle Monocular Video
Recordings
- Title(参考訳): 視線ガイドによる広角単眼映像の映像編集
- Authors: K L Bhanu Moorthy, Moneish Kumar, Ramanathan Subramaniam, Vineet
Gandhi
- Abstract要約: 本稿では,GAZED- eye GAZe-guided EDiting for video capture by asolary, static, wide-angle and high- resolution camera。
視覚ゲームは、興味深いシーンコンテンツをキャプチャするためのキューとして、計算応用に効果的に利用されている。
- 参考スコア(独自算出の注目度): 6.980491499722598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present GAZED- eye GAZe-guided EDiting for videos captured by a solitary,
static, wide-angle and high-resolution camera. Eye-gaze has been effectively
employed in computational applications as a cue to capture interesting scene
content; we employ gaze as a proxy to select shots for inclusion in the edited
video. Given the original video, scene content and user eye-gaze tracks are
combined to generate an edited video comprising cinematically valid actor shots
and shot transitions to generate an aesthetic and vivid representation of the
original narrative. We model cinematic video editing as an energy minimization
problem over shot selection, whose constraints capture cinematographic editing
conventions. Gazed scene locations primarily determine the shots constituting
the edited video. Effectiveness of GAZED against multiple competing methods is
demonstrated via a psychophysical study involving 12 users and twelve
performance videos.
- Abstract(参考訳): 本稿では,単眼・静止・広角・高解像度カメラで撮影された映像の視線ガイド付き編集について述べる。
eye-gazeは、興味深いシーンコンテンツをキャプチャするための手掛かりとして、計算アプリケーションで効果的に使われている。
オリジナル映像とシーンコンテンツとユーザ視線トラックを組み合わせて、撮影に有効なアクターショットとショットトランジションからなる編集ビデオを生成し、オリジナル物語の美的かつ鮮明な表現を生成する。
撮影選択よりもエネルギー最小化問題として映画映像編集をモデル化し,その制約が撮影編集規約をキャプチャする。
注視されたシーンの場所は、主に編集されたビデオを構成するショットを決定する。
GAZEDの複数の競合する手法に対する効果は、12人のユーザと12人のパフォーマンスビデオを含む精神物理学的な研究によって実証された。
関連論文リスト
- DeCo: Decoupled Human-Centered Diffusion Video Editing with Motion Consistency [66.49423641279374]
DeCoは、人間と背景を別々に編集可能なターゲットとして扱うように設計された、新しいビデオ編集フレームワークである。
そこで本研究では,人体を利用した非結合型動的人体表現法を提案する。
本研究は, 通常の空間と画像空間にスコア蒸留サンプリングの計算を拡張し, 最適化時の人間のテクスチャを向上する。
論文 参考訳(メタデータ) (2024-08-14T11:53:40Z) - ReVideo: Remake a Video with Motion and Content Control [67.5923127902463]
本稿では,コンテンツと動画の両方の仕様により,特定の領域における正確な映像編集を可能にするビデオリメイク(VideoRe)を提案する。
VideoReは、コンテンツとモーションコントロールの結合とトレーニングの不均衡を含む新しいタスクに対処する。
また,本手法は,特定のトレーニングを変更することなく,その柔軟性と堅牢性を示すことなく,これらのアプリケーションをマルチエリア編集にシームレスに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T17:46:08Z) - DreamMotion: Space-Time Self-Similar Score Distillation for Zero-Shot Video Editing [48.238213651343784]
ビデオスコアの蒸留は、ターゲットテキストで示される新しいコンテンツを導入することができるが、構造や動きのずれを引き起こすこともある。
本稿では, 原ビデオの時空間自己相似性と, スコア蒸留中の編集ビデオとを一致させることを提案する。
我々のアプローチはモデルに依存しないもので、カスケードと非カスケードの両方の動画拡散フレームワークに適用できる。
論文 参考訳(メタデータ) (2024-03-18T17:38:53Z) - Action Reimagined: Text-to-Pose Video Editing for Dynamic Human Actions [49.14827857853878]
ReimaginedActはビデオ理解、推論、編集モジュールを含む。
提案手法は, 直接指示文のプロンプトだけでなく, 行動変化を予測するための質問も受けられる。
論文 参考訳(メタデータ) (2024-03-11T22:46:46Z) - UniEdit: A Unified Tuning-Free Framework for Video Motion and Appearance Editing [28.140945021777878]
ビデオモーションと外観編集の両方をサポートする、チューニング不要のフレームワークであるUniEditを提示する。
映像コンテンツを保存しながら動きの編集を実現するため,補助的な動き参照と再構成のブランチを導入する。
得られた特徴は、時間的および空間的自己注意層を介して、主編集経路に注入される。
論文 参考訳(メタデータ) (2024-02-20T17:52:12Z) - SAVE: Protagonist Diversification with Structure Agnostic Video Editing [29.693364686494274]
従来の作品は通常、自明で一貫した形状でうまく機能し、元のものと大きく異なる体形を持つ難しいターゲットで容易に崩壊する。
動きのパーソナライズを単一音源映像から分離し,それに応じて動きの調整を行う。
我々はまた、新しい擬似光学フローを導入することにより、動き語を適切な動き関連領域に適応するように調整する。
論文 参考訳(メタデータ) (2023-12-05T05:13:20Z) - Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts [116.05656635044357]
我々はMake-A-Protagonistと呼ばれる一般的なビデオ編集フレームワークを提案する。
具体的には、複数の専門家を利用してソース映像を解析し、視覚的・テキスト的手がかりをターゲットとし、視覚的・テキスト的映像生成モデルを提案する。
その結果,Make-A-Protagonistの多種多様な編集能力を実証した。
論文 参考訳(メタデータ) (2023-05-15T17:59:03Z) - The Anatomy of Video Editing: A Dataset and Benchmark Suite for
AI-Assisted Video Editing [90.59584961661345]
この研究は、AIによるビデオ編集の研究を促進するために、データセットとベンチマークであるビデオ編集の解剖学を導入している。
本ベンチマークスイートでは,映像の自動撮影やビデオ組み立て支援など,視覚効果以外の映像編集作業に重点を置いている。
これらの前線の研究を可能にするために、196176年の映画シーンから採取した150万枚以上のタグと、撮影技術に関する概念を注釈付けした。
論文 参考訳(メタデータ) (2022-07-20T10:53:48Z) - Automatic Non-Linear Video Editing Transfer [7.659780589300858]
本稿では,ソースビデオ中の編集スタイルを抽出し,一致した映像に編集を適用する自動手法を提案する。
コンピュータビジョンに基づく手法では,各入力映像セグメントのフレーミング,コンテンツタイプ,再生速度,照明について検討する。
論文 参考訳(メタデータ) (2021-05-14T17:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。