論文の概要: Real Time GAZED: Online Shot Selection and Editing of Virtual Cameras
from Wide-Angle Monocular Video Recordings
- arxiv url: http://arxiv.org/abs/2311.15581v1
- Date: Mon, 27 Nov 2023 07:19:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:52:41.501303
- Title: Real Time GAZED: Online Shot Selection and Editing of Virtual Cameras
from Wide-Angle Monocular Video Recordings
- Title(参考訳): リアルタイムGAZED:広角ビデオ録画による仮想カメラのオンラインショット選択と編集
- Authors: Sudheer Achary, Rohit Girmaji, Adhiraj Anil Deshmukh, Vineet Gandhi
- Abstract要約: Real Time GAZEDは、CineFilterと統合されたGAZEDフレームワークのリアルタイム適応である。
プロが編集したビデオをリアルタイムで作成できる。
- 参考スコア(独自算出の注目度): 5.399800035598186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eliminating time-consuming post-production processes and delivering
high-quality videos in today's fast-paced digital landscape are the key
advantages of real-time approaches. To address these needs, we present Real
Time GAZED: a real-time adaptation of the GAZED framework integrated with
CineFilter, a novel real-time camera trajectory stabilization approach. It
enables users to create professionally edited videos in real-time. Comparative
evaluations against baseline methods, including the non-real-time GAZED,
demonstrate that Real Time GAZED achieves similar editing results, ensuring
high-quality video output. Furthermore, a user study confirms the aesthetic
quality of the video edits produced by the Real Time GAZED approach. With these
advancements in real-time camera trajectory optimization and video editing
presented, the demand for immediate and dynamic content creation in industries
such as live broadcasting, sports coverage, news reporting, and social media
content creation can be met more efficiently.
- Abstract(参考訳): ポストプロダクションプロセスの時間的削減と、今日の高速なデジタルランドスケープにおける高品質なビデオ配信は、リアルタイムアプローチの重要な利点である。
これらのニーズに対処するために,新しいリアルタイムカメラ軌道安定化手法であるCineFilterと統合されたリアルタイムGAZEDフレームワークであるReal Time GAZEDを提案する。
ユーザーはプロが編集したビデオをリアルタイムで作成できる。
非リアルタイムガゼッドを含むベースライン手法に対する比較評価は、リアルタイムガゼッドが同様の編集結果を達成し、高品質なビデオ出力を保証していることを示している。
さらに、ユーザ調査により、リアルタイム・アイズド・アプローチによって生成された映像編集の美的品質が確認される。
このようなリアルタイムカメラの軌道最適化やビデオ編集の進歩により、ライブ放送、スポーツ報道、ニュース報道、ソーシャルメディアコンテンツ作成といった産業における即時かつダイナミックなコンテンツ制作の需要はより効率的に満たされる。
関連論文リスト
- FastVideoEdit: Leveraging Consistency Models for Efficient Text-to-Video
Editing [10.011515580084243]
既存のビデオ編集における画像生成モデルへのアプローチは、ワンショットの微調整、追加条件抽出、DDIMの逆変換といった時間を要する。
我々は、一貫性モデル(CM)にインスパイアされた効率的なゼロショットビデオ編集手法であるFastVideoEditを提案する。
本手法は,特別な分散スケジュールを用いて,ソース映像からターゲット映像への直接マッピングを可能にする。
論文 参考訳(メタデータ) (2024-03-10T17:12:01Z) - Lumiere: A Space-Time Diffusion Model for Video Generation [75.54967294846686]
本研究では,一度にビデオ全体の時間的持続時間を生成する空間時間U-Netアーキテクチャを提案する。
これは、遠方から後続の時間超解像を合成する既存のビデオモデルとは対照的である。
空間的および(重要な)時間的ダウンサンプリングとアップサンプリングの両方をデプロイすることで、我々のモデルは、フルフレームレートで低解像度のビデオを直接生成することを学ぶ。
論文 参考訳(メタデータ) (2024-01-23T18:05:25Z) - RealCraft: Attention Control as A Tool for Zero-Shot Consistent Video
Editing [10.356815854662862]
本研究では,ゼロショット映像編集のためのアテンション制御方式であるRealCraftを提案する。
新たな特徴注入にクロスアテンションを切り替え、編集対象の空間的注意を緩和することにより、局所的な形状の編集を実現する。
提案するゼロショットアテンション制御方式を,様々なビデオで紹介し,形状,時間一貫性,パラメータフリーな編集方法を示した。
論文 参考訳(メタデータ) (2023-12-19T22:33:42Z) - VidToMe: Video Token Merging for Zero-Shot Video Editing [100.79999871424931]
本稿では,フレーム間で自己注意トークンをマージすることで,生成ビデオの時間的一貫性を高める新しい手法を提案する。
本手法は時間的コヒーレンスを改善し,自己アテンション計算におけるメモリ消費を削減する。
論文 参考訳(メタデータ) (2023-12-17T09:05:56Z) - Edit Temporal-Consistent Videos with Image Diffusion Model [49.88186997567138]
大規模テキスト・ツー・イメージ(T2I)拡散モデルがテキスト誘導ビデオ編集のために拡張されている。
Tは、ビデオ時間的一貫性とビデオ編集機能の両方において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-17T16:40:55Z) - Video Generation Beyond a Single Clip [76.5306434379088]
ビデオ生成モデルは、実際のビデオの長さと比較して比較的短いビデオクリップしか生成できない。
多様なコンテンツや複数のイベントをカバーした長いビデオを生成するために,ビデオ生成プロセスを制御するための追加のガイダンスを提案する。
提案手法は、固定時間ウィンドウ内でリアルな映像を生成することに焦点を当てた、既存の映像生成の取り組みを補完するものである。
論文 参考訳(メタデータ) (2023-04-15T06:17:30Z) - Dreamix: Video Diffusion Models are General Video Editors [22.127604561922897]
テキスト駆動画像とビデオ拡散モデルは最近、前例のない世代のリアリズムを達成した。
一般的なビデオのテキストベースの動きと外観編集を行うことができる最初の拡散ベース手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T18:58:58Z) - Temporally Consistent Semantic Video Editing [44.50322018842475]
本稿では、時間的コヒーレントなビデオ編集を容易にするための、シンプルで効果的な方法を提案する。
我々の中核となる考え方は、潜在コードと事前学習されたジェネレータの両方を最適化することで、時間的測光の不整合を最小限にすることである。
論文 参考訳(メタデータ) (2022-06-21T17:59:59Z) - Transcript to Video: Efficient Clip Sequencing from Texts [65.87890762420922]
Transcript-to-Video - テキストを入力として使用する弱教師付きフレームワークで、広範なショットコレクションからビデオシーケンスを自動的に生成する。
具体的には、視覚言語表現とモデルショットシークエンシングスタイルを学習するためのコンテンツ検索モジュールとテンポラルコヒーレントモジュールを提案する。
高速な推論のために,リアルタイムビデオクリップシークエンシングのための効率的な検索手法を提案する。
論文 参考訳(メタデータ) (2021-07-25T17:24:50Z) - Task-agnostic Temporally Consistent Facial Video Editing [84.62351915301795]
タスクに依存しない、時間的に一貫した顔画像編集フレームワークを提案する。
3次元再構成モデルに基づいて,本フレームワークはより統一的で不整合な方法で複数の編集タスクを処理するように設計されている。
現状の顔画像編集法と比較すると,本フレームワークはより写実的で時間的に滑らかな映像像を生成する。
論文 参考訳(メタデータ) (2020-07-03T02:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。