論文の概要: DAOVI: Distortion-Aware Omnidirectional Video Inpainting
- arxiv url: http://arxiv.org/abs/2509.00396v1
- Date: Sat, 30 Aug 2025 07:27:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.214141
- Title: DAOVI: Distortion-Aware Omnidirectional Video Inpainting
- Title(参考訳): DAOVI:歪みを意識した全方位ビデオインペインティング
- Authors: Ryosuke Seshimo, Mariko Isogawa,
- Abstract要約: 本稿では,DAOVI (Distortion-Aware Omnidirectional Video Inpainting) と呼ばれる一方向ビデオインパインティングのための新しいディープラーニングモデルを提案する。
提案手法は,既存の手法を定量的かつ定性的に上回る。
- 参考スコア(独自算出の注目度): 2.248800010440909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omnidirectional videos that capture the entire surroundings are employed in a variety of fields such as VR applications and remote sensing. However, their wide field of view often causes unwanted objects to appear in the videos. This problem can be addressed by video inpainting, which enables the natural removal of such objects while preserving both spatial and temporal consistency. Nevertheless, most existing methods assume processing ordinary videos with a narrow field of view and do not tackle the distortion in equirectangular projection of omnidirectional videos. To address this issue, this paper proposes a novel deep learning model for omnidirectional video inpainting, called Distortion-Aware Omnidirectional Video Inpainting (DAOVI). DAOVI introduces a module that evaluates temporal motion information in the image space considering geodesic distance, as well as a depth-aware feature propagation module in the feature space that is designed to address the geometric distortion inherent to omnidirectional videos. The experimental results demonstrate that our proposed method outperforms existing methods both quantitatively and qualitatively.
- Abstract(参考訳): 周囲全体を撮影する全方位ビデオは、VRアプリケーションやリモートセンシングなど、さまざまな分野で使用されている。
しかし、その視野が広いため、望ましくない物体がビデオに現れることがしばしばある。
この問題は、空間的および時間的整合性を保ちながら、このような物体を自然に除去できるビデオ塗布によって解決することができる。
それにもかかわらず、既存のほとんどの手法は、視野が狭い普通の動画の処理を前提としており、全方位ビデオの等角投影における歪みに対処しない。
そこで本研究では,DAOVI (Distortion-Aware Omnidirectional Video Inpainting) と呼ばれる全方向ビデオインパインティングのための新しいディープラーニングモデルを提案する。
DAOVIは、測地距離を考慮した画像空間における時間的動き情報を評価するモジュールと、全方位ビデオに固有の幾何歪みに対処するように設計された特徴空間における深度を考慮した特徴伝搬モジュールを導入する。
実験の結果,提案手法は既存手法よりも定量的,定性的に優れていることがわかった。
関連論文リスト
- SVG: 3D Stereoscopic Video Generation via Denoising Frame Matrix [60.48666051245761]
本研究では,3次元立体映像生成のためのポーズフリーかつトレーニングフリーな手法を提案する。
提案手法は, 推定ビデオ深度を用いた立体視ベースライン上のカメラビューにモノクロ映像をワープする。
本研究では,映像の画質向上を図るために,非閉塞境界再注入方式を開発した。
論文 参考訳(メタデータ) (2024-06-29T08:33:55Z) - OmniLocalRF: Omnidirectional Local Radiance Fields from Dynamic Videos [14.965321452764355]
我々はOmnidirectional Local Radiance Fields (OmniLocalRF)と呼ばれる新しいアプローチを導入し、静的のみのシーンビューをレンダリングする。
本手法は局所放射界の原理と全方位光の双方向最適化を組み合わせたものである。
実験により,OmniLocalRFは定性的,定量的に既存手法より優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-31T12:55:05Z) - MoVideo: Motion-Aware Video Generation with Diffusion Models [97.03352319694795]
本稿では,映像深度と光フローの2つの側面から動きを考慮に入れたモーションアウェア・ジェネレーション(MoVideo)フレームワークを提案する。
MoVideoは、テキスト・トゥ・ビデオと画像・トゥ・ビデオ生成の両方で最先端の結果を達成し、期待できる即時一貫性、フレームの整合性、視覚的品質を示す。
論文 参考訳(メタデータ) (2023-11-19T13:36:03Z) - Tracking Everything Everywhere All at Once [111.00807055441028]
ビデオシーケンスから高密度及び長距離運動を推定するための新しいテスト時間最適化法を提案する。
我々はOmniMotionと呼ばれる完全で一貫した動作表現を提案する。
提案手法は,従来の最先端手法よりも定量的にも定性的にも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-06-08T17:59:29Z) - Space-time Neural Irradiance Fields for Free-Viewpoint Video [54.436478702701244]
本稿では,1つのビデオから動的シーンのニューラル照度場を学習する手法を提案する。
私たちの学習した表現は、入力ビデオのフリービューレンダリングを可能にします。
論文 参考訳(メタデータ) (2020-11-25T18:59:28Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。