論文の概要: DAVIDE: Depth-Aware Video Deblurring
- arxiv url: http://arxiv.org/abs/2409.01274v1
- Date: Mon, 2 Sep 2024 14:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:37:11.058845
- Title: DAVIDE: Depth-Aware Video Deblurring
- Title(参考訳): DAVIDE:深度を意識した動画のデブリ
- Authors: German F. Torres, Jussi Kalliola, Soumya Tripathy, Erman Acar, Joni-Kristian Kämäräinen,
- Abstract要約: ビデオのデブロアリングは、ぼやけたフレームの連続からシャープな詳細を回復することを目的としている。
携帯電話の深度センサーの普及にもかかわらず、深度認識の劣化はわずかしか注目されなかった。
本稿では,映像の深度情報の影響を調べるために,「深度対応VIdeo Deblurring」データセットを提案する。
- 参考スコア(独自算出の注目度): 6.063637529640443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video deblurring aims at recovering sharp details from a sequence of blurry frames. Despite the proliferation of depth sensors in mobile phones and the potential of depth information to guide deblurring, depth-aware deblurring has received only limited attention. In this work, we introduce the 'Depth-Aware VIdeo DEblurring' (DAVIDE) dataset to study the impact of depth information in video deblurring. The dataset comprises synchronized blurred, sharp, and depth videos. We investigate how the depth information should be injected into the existing deep RGB video deblurring models, and propose a strong baseline for depth-aware video deblurring. Our findings reveal the significance of depth information in video deblurring and provide insights into the use cases where depth cues are beneficial. In addition, our results demonstrate that while the depth improves deblurring performance, this effect diminishes when models are provided with a longer temporal context. Project page: https://germanftv.github.io/DAVIDE.github.io/ .
- Abstract(参考訳): ビデオのデブロアリングは、ぼやけたフレームの連続からシャープな詳細を回復することを目的としている。
携帯電話における深度センサの普及と,深度情報により深度を誘導する可能性にもかかわらず,深度認識の難読化はわずかしか注目されていない。
本稿では,映像の深度情報の影響を研究するために,DAVIDEデータセットについて紹介する。
データセットは、同期されたぼかし、シャープ、ディープビデオで構成されている。
本稿では,既存の深度RGBビデオデブロアリングモデルに深度情報を注入する方法について検討し,深度対応ビデオデブロアリングのための強力なベースラインを提案する。
ビデオデブリにおける深度情報の意義を明らかにするとともに,深度手がかりが有用である症例について考察した。
さらに, この結果から, 深度が劣化性能を向上する一方で, モデルに時間的コンテキストが長くなると, この効果は低下することが示された。
プロジェクトページ: https://germanftv.github.io/DAVIDE.github.io/
関連論文リスト
- SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - Learning Temporally Consistent Video Depth from Video Diffusion Priors [57.929828486615605]
本研究は,映像深度推定の課題に対処する。
我々は予測タスクを条件付き生成問題に再構成する。
これにより、既存のビデオ生成モデルに埋め込まれた事前の知識を活用することができる。
論文 参考訳(メタデータ) (2024-06-03T16:20:24Z) - Neural Video Depth Stabilizer [74.04508918791637]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
いくつかの方法は、幾何学的制約と再射影制約を用いて、テスト時間中に単一画像深度モデルを微調整することで、時間的整合性を達成する。
本稿では,不整合深度推定を安定化し,余分な労力を伴わずに異なる単一画像深度モデルに適用可能なプラグアンドプレイフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Edge-aware Consistent Stereo Video Depth Estimation [3.611754783778107]
本稿では,高密度映像深度推定のための一貫した手法を提案する。
既存のモノラルな方法とは異なり、ステレオビデオに関係しています。
エッジ対応ステレオビデオモデルにより,深度マップを精度良く推定できることを示す。
論文 参考訳(メタデータ) (2023-05-04T08:30:04Z) - Unsupervised Anomaly Detection from Time-of-Flight Depth Images [11.485364355489462]
ビデオ異常検出(VAD)は、ビデオデータ中の異常事象を自動的に検出する問題に対処する。
本研究では,フォアグラウンドマスクの形でシーン解析のための補助情報を容易に抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-02T11:59:03Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。