論文の概要: Automatic Non-Linear Video Editing Transfer
- arxiv url: http://arxiv.org/abs/2105.06988v1
- Date: Fri, 14 May 2021 17:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:41:15.639082
- Title: Automatic Non-Linear Video Editing Transfer
- Title(参考訳): 自動非線形ビデオ編集転送
- Authors: Nathan Frey, Peggy Chi, Weilong Yang, Irfan Essa
- Abstract要約: 本稿では,ソースビデオ中の編集スタイルを抽出し,一致した映像に編集を適用する自動手法を提案する。
コンピュータビジョンに基づく手法では,各入力映像セグメントのフレーミング,コンテンツタイプ,再生速度,照明について検討する。
- 参考スコア(独自算出の注目度): 7.659780589300858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an automatic approach that extracts editing styles in a source
video and applies the edits to matched footage for video creation. Our Computer
Vision based techniques considers framing, content type, playback speed, and
lighting of each input video segment. By applying a combination of these
features, we demonstrate an effective method that automatically transfers the
visual and temporal styles from professionally edited videos to unseen raw
footage. We evaluated our approach with real-world videos that contained a
total of 3872 video shots of a variety of editing styles, including different
subjects, camera motions, and lighting. We reported feedback from survey
participants who reviewed a set of our results.
- Abstract(参考訳): 本稿では,ソースビデオ中の編集スタイルを抽出し,一致した映像に編集を適用する自動手法を提案する。
コンピュータビジョンに基づく手法では,各入力映像セグメントのフレーミング,コンテンツタイプ,再生速度,照明について検討する。
これらの特徴を組み合わせることで、プロが編集したビデオから視覚的・時間的スタイルを自動的に生の映像に転送する効果的な方法を示す。
提案手法を実世界ビデオを用いて評価し,様々な編集スタイル(被写体,カメラの動作,照明など)の合計3872本のビデオ撮影を行った。
結果の集合をレビューした調査参加者からのフィードバックを報告する。
関連論文リスト
- Action Reimagined: Text-to-Pose Video Editing for Dynamic Human Actions [49.14827857853878]
ReimaginedActはビデオ理解、推論、編集モジュールを含む。
提案手法は, 直接指示文のプロンプトだけでなく, 行動変化を予測するための質問も受けられる。
論文 参考訳(メタデータ) (2024-03-11T22:46:46Z) - UniEdit: A Unified Tuning-Free Framework for Video Motion and Appearance
Editing [29.552092989541006]
ビデオモーションと外観編集の両方をサポートする、チューニング不要のフレームワークであるUniEditを提示する。
映像コンテンツを保存しながら動きの編集を実現するため,補助的な動き参照と再構成のブランチを導入する。
得られた特徴は、時間的および空間的自己注意層を介して、主編集経路に注入される。
論文 参考訳(メタデータ) (2024-02-20T17:52:12Z) - Consistent Video-to-Video Transfer Using Synthetic Dataset [12.323784941805519]
テキストベースのビデオ・ビデオ編集のための,新しい,効率的なアプローチを提案する。
私たちのアプローチの核心は、ビデオ間転送タスクに適した合成ペアビデオデータセットです。
Instruct Pix2Pix's image transfer by editing instruction, we adapt this paradigm to the video domain。
論文 参考訳(メタデータ) (2023-11-01T01:20:12Z) - Ground-A-Video: Zero-shot Grounded Video Editing using Text-to-image
Diffusion Models [65.268245109828]
Ground-A-Videoは、マルチ属性ビデオ編集のためのビデオからビデオへの変換フレームワークである。
トレーニング不要な方法で、時間的に一貫した入力ビデオの編集を可能にする。
実験と応用により、Ground-A-Videoのゼロショットキャパシティは、編集精度とフレームの整合性の観点から、他のベースライン手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-02T11:28:37Z) - MagicProp: Diffusion-based Video Editing via Motion-aware Appearance
Propagation [74.32046206403177]
MagicPropは、ビデオ編集プロセスを、外観編集とモーション対応の外観伝搬という2つのステージに分割する。
第一段階では、MagicPropは入力ビデオから単一のフレームを選択し、フレームの内容やスタイルを変更するために画像編集技術を適用する。
第2段階では、MagicPropは編集されたフレームを外観参照として使用し、自動回帰レンダリングアプローチを使用して残りのフレームを生成する。
論文 参考訳(メタデータ) (2023-09-02T11:13:29Z) - Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts [116.05656635044357]
我々はMake-A-Protagonistと呼ばれる一般的なビデオ編集フレームワークを提案する。
具体的には、複数の専門家を利用してソース映像を解析し、視覚的・テキスト的手がかりをターゲットとし、視覚的・テキスト的映像生成モデルを提案する。
その結果,Make-A-Protagonistの多種多様な編集能力を実証した。
論文 参考訳(メタデータ) (2023-05-15T17:59:03Z) - The Anatomy of Video Editing: A Dataset and Benchmark Suite for
AI-Assisted Video Editing [90.59584961661345]
この研究は、AIによるビデオ編集の研究を促進するために、データセットとベンチマークであるビデオ編集の解剖学を導入している。
本ベンチマークスイートでは,映像の自動撮影やビデオ組み立て支援など,視覚効果以外の映像編集作業に重点を置いている。
これらの前線の研究を可能にするために、196176年の映画シーンから採取した150万枚以上のタグと、撮影技術に関する概念を注釈付けした。
論文 参考訳(メタデータ) (2022-07-20T10:53:48Z) - GAZED- Gaze-guided Cinematic Editing of Wide-Angle Monocular Video
Recordings [6.980491499722598]
本稿では,GAZED- eye GAZe-guided EDiting for video capture by asolary, static, wide-angle and high- resolution camera。
視覚ゲームは、興味深いシーンコンテンツをキャプチャするためのキューとして、計算応用に効果的に利用されている。
論文 参考訳(メタデータ) (2020-10-22T17:27:03Z) - Task-agnostic Temporally Consistent Facial Video Editing [84.62351915301795]
タスクに依存しない、時間的に一貫した顔画像編集フレームワークを提案する。
3次元再構成モデルに基づいて,本フレームワークはより統一的で不整合な方法で複数の編集タスクを処理するように設計されている。
現状の顔画像編集法と比較すると,本フレームワークはより写実的で時間的に滑らかな映像像を生成する。
論文 参考訳(メタデータ) (2020-07-03T02:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。