論文の概要: Real Time GAZED: Online Shot Selection and Editing of Virtual Cameras
from Wide-Angle Monocular Video Recordings
- arxiv url: http://arxiv.org/abs/2311.15581v1
- Date: Mon, 27 Nov 2023 07:19:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:52:41.501303
- Title: Real Time GAZED: Online Shot Selection and Editing of Virtual Cameras
from Wide-Angle Monocular Video Recordings
- Title(参考訳): リアルタイムGAZED:広角ビデオ録画による仮想カメラのオンラインショット選択と編集
- Authors: Sudheer Achary, Rohit Girmaji, Adhiraj Anil Deshmukh, Vineet Gandhi
- Abstract要約: Real Time GAZEDは、CineFilterと統合されたGAZEDフレームワークのリアルタイム適応である。
プロが編集したビデオをリアルタイムで作成できる。
- 参考スコア(独自算出の注目度): 5.399800035598186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eliminating time-consuming post-production processes and delivering
high-quality videos in today's fast-paced digital landscape are the key
advantages of real-time approaches. To address these needs, we present Real
Time GAZED: a real-time adaptation of the GAZED framework integrated with
CineFilter, a novel real-time camera trajectory stabilization approach. It
enables users to create professionally edited videos in real-time. Comparative
evaluations against baseline methods, including the non-real-time GAZED,
demonstrate that Real Time GAZED achieves similar editing results, ensuring
high-quality video output. Furthermore, a user study confirms the aesthetic
quality of the video edits produced by the Real Time GAZED approach. With these
advancements in real-time camera trajectory optimization and video editing
presented, the demand for immediate and dynamic content creation in industries
such as live broadcasting, sports coverage, news reporting, and social media
content creation can be met more efficiently.
- Abstract(参考訳): ポストプロダクションプロセスの時間的削減と、今日の高速なデジタルランドスケープにおける高品質なビデオ配信は、リアルタイムアプローチの重要な利点である。
これらのニーズに対処するために,新しいリアルタイムカメラ軌道安定化手法であるCineFilterと統合されたリアルタイムGAZEDフレームワークであるReal Time GAZEDを提案する。
ユーザーはプロが編集したビデオをリアルタイムで作成できる。
非リアルタイムガゼッドを含むベースライン手法に対する比較評価は、リアルタイムガゼッドが同様の編集結果を達成し、高品質なビデオ出力を保証していることを示している。
さらに、ユーザ調査により、リアルタイム・アイズド・アプローチによって生成された映像編集の美的品質が確認される。
このようなリアルタイムカメラの軌道最適化やビデオ編集の進歩により、ライブ放送、スポーツ報道、ニュース報道、ソーシャルメディアコンテンツ作成といった産業における即時かつダイナミックなコンテンツ制作の需要はより効率的に満たされる。
関連論文リスト
- VEnhancer: Generative Space-Time Enhancement for Video Generation [123.37212575364327]
VEnhancerは、空間領域に詳細を追加し、時間領域に詳細を合成することにより、既存のテキスト・ビデオの結果を改善する。
我々は、低フレームレートおよび低解像度ビデオの条件として、ビデオ制御ネットをトレーニングし、拡散モデルに注入する。
VEnhancerは、AI生成ビデオの強化において、既存の最先端のビデオ超解像と時空超解像を超越している。
論文 参考訳(メタデータ) (2024-07-10T13:46:08Z) - VIA: Unified Spatiotemporal Video Adaptation Framework for Global and Local Video Editing [91.60658973688996]
グローバルおよびローカルなビデオ編集のためのVIA統合ビデオ適応フレームワークについて紹介する。
我々は,VIAが一貫した長いビデオ編集を数分で達成できることを示し,高度なビデオ編集タスクの可能性を秘めている。
論文 参考訳(メタデータ) (2024-06-18T17:51:37Z) - Streaming Video Diffusion: Online Video Editing with Diffusion Models [30.55613486291111]
本稿では,時間的一貫性を維持しつつ,テキストストリームフレームを編集するオンラインビデオ編集という新しいタスクを提案する。
提案モデルでは,512×512の解像度で15.2FPSのリアルタイム推論速度を実現することにより,高画質動画の編集が可能となる。
論文 参考訳(メタデータ) (2024-05-30T06:16:33Z) - I2VEdit: First-Frame-Guided Video Editing via Image-to-Video Diffusion Models [18.36472998650704]
本稿では,1フレームからビデオ全体への編集を事前学習した画像対ビデオモデルを用いてプロパガンダすることで,画像編集ツールをビデオに適用可能にする,新しい汎用的ソリューションを提案する。
I2VEditと呼ばれる本手法は,編集範囲に応じて映像の視覚的・運動的整合性を適応的に保持する。
論文 参考訳(メタデータ) (2024-05-26T11:47:40Z) - ReVideo: Remake a Video with Motion and Content Control [67.5923127902463]
本稿では,コンテンツと動画の両方の仕様により,特定の領域における正確な映像編集を可能にするビデオリメイク(VideoRe)を提案する。
VideoReは、コンテンツとモーションコントロールの結合とトレーニングの不均衡を含む新しいタスクに対処する。
また,本手法は,特定のトレーニングを変更することなく,その柔軟性と堅牢性を示すことなく,これらのアプリケーションをマルチエリア編集にシームレスに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T17:46:08Z) - FastVideoEdit: Leveraging Consistency Models for Efficient Text-to-Video Editing [8.907836546058086]
既存のビデオ編集における画像生成モデルへのアプローチは、ワンショットの微調整、追加条件抽出、DDIMの逆変換といった時間を要する。
我々は、一貫性モデル(CM)にインスパイアされた効率的なゼロショットビデオ編集手法であるFastVideoEditを提案する。
本手法は,特別な分散スケジュールを用いて,ソース映像からターゲット映像への直接マッピングを可能にする。
論文 参考訳(メタデータ) (2024-03-10T17:12:01Z) - Lumiere: A Space-Time Diffusion Model for Video Generation [75.54967294846686]
本研究では,一度にビデオ全体の時間的持続時間を生成する空間時間U-Netアーキテクチャを提案する。
これは、遠方から後続の時間超解像を合成する既存のビデオモデルとは対照的である。
空間的および(重要な)時間的ダウンサンプリングとアップサンプリングの両方をデプロイすることで、我々のモデルは、フルフレームレートで低解像度のビデオを直接生成することを学ぶ。
論文 参考訳(メタデータ) (2024-01-23T18:05:25Z) - VidToMe: Video Token Merging for Zero-Shot Video Editing [100.79999871424931]
本稿では,フレーム間で自己注意トークンをマージすることで,生成ビデオの時間的一貫性を高める新しい手法を提案する。
本手法は時間的コヒーレンスを改善し,自己アテンション計算におけるメモリ消費を削減する。
論文 参考訳(メタデータ) (2023-12-17T09:05:56Z) - Edit Temporal-Consistent Videos with Image Diffusion Model [49.88186997567138]
大規模テキスト・ツー・イメージ(T2I)拡散モデルがテキスト誘導ビデオ編集のために拡張されている。
Tは、ビデオ時間的一貫性とビデオ編集機能の両方において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-17T16:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。