論文の概要: VideoMap: Video Editing in Latent Space
- arxiv url: http://arxiv.org/abs/2211.12492v1
- Date: Tue, 22 Nov 2022 18:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 19:32:25.794229
- Title: VideoMap: Video Editing in Latent Space
- Title(参考訳): videomap: 潜在空間での動画編集
- Authors: David Chuan-En Lin, Fabian Caba Heilbron, Joon-Young Lee, Oliver Wang,
Nikolas Martelaro
- Abstract要約: 動画を2次元の潜在空間にマッピングし、概念実証インターフェースを構築することによって、ビデオ編集の新しいパラダイムを想像する。
本研究では,映像を2次元の潜在空間にマッピングし,概念実証インタフェースを構築することによって,映像編集の新しいパラダイムを想像する。
- 参考スコア(独自算出の注目度): 47.01875880997119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video has become a dominant form of media. However, video editing interfaces
have remained largely unchanged over the past two decades. Such interfaces
typically consist of a grid-like asset management panel and a linear editing
timeline. When working with a large number of video clips, it can be difficult
to sort through them all and identify patterns within (e.g. opportunities for
smooth transitions and storytelling). In this work, we imagine a new paradigm
for video editing by mapping videos into a 2D latent space and building a
proof-of-concept interface.
- Abstract(参考訳): ビデオはメディアの主流になりつつある。
しかし、ビデオ編集のインターフェースは過去20年間、ほとんど変わっていない。
このようなインターフェースは通常、グリッドのようなアセット管理パネルと線形編集タイムラインで構成される。
大量のビデオクリップを扱う場合、それらすべてをソートして、その中のパターンを特定するのは難しい場合がある(例えば、スムーズな移行とストーリーテリングの機会)。
本研究では,映像を2次元潜在空間にマッピングし,概念実証インタフェースを構築することで,映像編集の新しいパラダイムを想像する。
関連論文リスト
- Neural Video Fields Editing [56.558490998753456]
NVEditは、メモリオーバーヘッドを軽減し、一貫性を向上させるために設計された、テキスト駆動のビデオ編集フレームワークである。
我々は、数百フレームの長いビデオのエンコーディングを可能にするために、三面体とスパースグリッドを用いたニューラルビデオフィールドを構築した。
次に、オフザシェルフテキスト・トゥ・イメージ(T2I)モデルを用いて、ビデオフィールドをテキスト駆動編集エフェクトに更新する。
論文 参考訳(メタデータ) (2023-12-12T14:48:48Z) - AVID: Any-Length Video Inpainting with Diffusion Model [32.02147954358712]
拡散モデルを用いたAVID(Any-Length Video Inpainting with Diffusion Model)を提案する。
本モデルは,固定長映像の描画に有効な動作モジュールと調整可能な構造ガイダンスを備える。
実験により,映像の持続時間帯の異なる様々なインパインティングタイプを,高品質で頑健に扱うことが可能であることが確認された。
論文 参考訳(メタデータ) (2023-12-06T18:56:14Z) - MagicStick: Controllable Video Editing via Control Handle
Transformations [109.26314726025097]
MagicStickは、抽出した内部制御信号の変換を利用してビデオプロパティを編集する、制御可能なビデオ編集方法である。
統合フレームワークにおける多数の実例について実験を行った。
また、形状対応テキストベースの編集や手作り動画生成と比較し、従来の作品よりも優れた時間的一貫性と編集能力を示した。
論文 参考訳(メタデータ) (2023-12-05T17:58:06Z) - VIDiff: Translating Videos via Multi-Modal Instructions with Diffusion
Models [96.55004961251889]
Video Instruction Diffusion (VIDiff) は、幅広いビデオタスク用に設計された統合基盤モデルである。
我々のモデルは,ユーザの指示に基づいて,所望の結果を数秒以内に編集し,翻訳することができる。
様々な入力ビデオや書き起こしに対して,質的かつ定量的に,説得力のある生成結果を提供する。
論文 参考訳(メタデータ) (2023-11-30T18:59:52Z) - VidEdit: Zero-Shot and Spatially Aware Text-Driven Video Editing [19.20749207287002]
本稿では,ゼロショットテキストベースのビデオ編集手法であるVidEditを紹介する。
本研究では,アトラスベースと事前学習したテキストと画像の拡散モデルを組み合わせて,学習不要で効率的な編集方法を提案する。
実験により、VidEditはDAVISデータセット上で最先端のメソッドより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-14T19:15:49Z) - Zero-Shot Video Editing Using Off-The-Shelf Image Diffusion Models [68.31777975873742]
ビデオ編集の最近の試みは、トレーニングに大量のテキスト・ビデオデータと計算資源を必要とする。
我々は、ゼロショットビデオ編集のためのシンプルで効果的な方法であるvid2vid-zeroを提案する。
実験と分析は、現実世界のビデオの属性、主題、場所などの編集において有望な結果を示す。
論文 参考訳(メタデータ) (2023-03-30T17:59:25Z) - Edit-A-Video: Single Video Editing with Object-Aware Consistency [49.43316939996227]
本稿では,事前訓練されたTTIモデルと単一のテキスト,ビデオ>ペアのみを付与したビデオ編集フレームワークを提案する。
本フレームワークは,(1)時間モジュールチューニングを付加して2Dモデルを3Dモデルに膨らませること,(2)原動画をノイズに反転させ,対象のテキストプロンプトとアテンションマップインジェクションで編集すること,の2段階からなる。
各種のテキスト・ビデオに対して広範な実験結果を示し,背景整合性,テキストアライメント,ビデオ編集品質の点で,ベースラインに比べて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-03-14T14:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。