論文の概要: DAVIDE: Depth-Aware Video Deblurring
- arxiv url: http://arxiv.org/abs/2409.01274v1
- Date: Mon, 2 Sep 2024 14:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:37:11.058845
- Title: DAVIDE: Depth-Aware Video Deblurring
- Title(参考訳): DAVIDE:深度を意識した動画のデブリ
- Authors: German F. Torres, Jussi Kalliola, Soumya Tripathy, Erman Acar, Joni-Kristian Kämäräinen,
- Abstract要約: ビデオのデブロアリングは、ぼやけたフレームの連続からシャープな詳細を回復することを目的としている。
携帯電話の深度センサーの普及にもかかわらず、深度認識の劣化はわずかしか注目されなかった。
本稿では,映像の深度情報の影響を調べるために,「深度対応VIdeo Deblurring」データセットを提案する。
- 参考スコア(独自算出の注目度): 6.063637529640443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video deblurring aims at recovering sharp details from a sequence of blurry frames. Despite the proliferation of depth sensors in mobile phones and the potential of depth information to guide deblurring, depth-aware deblurring has received only limited attention. In this work, we introduce the 'Depth-Aware VIdeo DEblurring' (DAVIDE) dataset to study the impact of depth information in video deblurring. The dataset comprises synchronized blurred, sharp, and depth videos. We investigate how the depth information should be injected into the existing deep RGB video deblurring models, and propose a strong baseline for depth-aware video deblurring. Our findings reveal the significance of depth information in video deblurring and provide insights into the use cases where depth cues are beneficial. In addition, our results demonstrate that while the depth improves deblurring performance, this effect diminishes when models are provided with a longer temporal context. Project page: https://germanftv.github.io/DAVIDE.github.io/ .
- Abstract(参考訳): ビデオのデブロアリングは、ぼやけたフレームの連続からシャープな詳細を回復することを目的としている。
携帯電話における深度センサの普及と,深度情報により深度を誘導する可能性にもかかわらず,深度認識の難読化はわずかしか注目されていない。
本稿では,映像の深度情報の影響を研究するために,DAVIDEデータセットについて紹介する。
データセットは、同期されたぼかし、シャープ、ディープビデオで構成されている。
本稿では,既存の深度RGBビデオデブロアリングモデルに深度情報を注入する方法について検討し,深度対応ビデオデブロアリングのための強力なベースラインを提案する。
ビデオデブリにおける深度情報の意義を明らかにするとともに,深度手がかりが有用である症例について考察した。
さらに, この結果から, 深度が劣化性能を向上する一方で, モデルに時間的コンテキストが長くなると, この効果は低下することが示された。
プロジェクトページ: https://germanftv.github.io/DAVIDE.github.io/
関連論文リスト
- Compressed Depth Map Super-Resolution and Restoration: AIM 2024 Challenge Results [53.405958915687265]
この課題は、圧縮データから高品質な深度マップを再構築する革新的な深度アップサンプリング技術の開発に焦点が当てられている。
この課題は,深度マップ復元の効率化と品質向上を目的としている。
私たちのゴールは、深度処理技術の最先端を推し進めることで、ARおよびVRアプリケーションにおける全体的なユーザエクスペリエンスを向上させることです。
論文 参考訳(メタデータ) (2024-09-24T17:50:18Z) - DepthCrafter: Generating Consistent Long Depth Sequences for Open-world Videos [51.90501863934735]
DepthCrafterは、オープンワールドビデオの複雑な詳細とともに、時間的に一貫した長い深さのシーケンスを生成する。
トレーニング手法により,最大110フレームまでの異なる長さの深度シーケンスを一度に生成できる。
DepthCrafterは、深度に基づく視覚効果や条件付きビデオ生成など、さまざまなダウンストリームアプリケーションを容易にする。
論文 参考訳(メタデータ) (2024-09-03T17:52:03Z) - SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - NVDS+: Towards Efficient and Versatile Neural Stabilizer for Video Depth Estimation [58.21817572577012]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
プラグ・アンド・プレイ方式で様々な単一画像モデルから推定される不整合深さを安定化するNVDS+を導入する。
このデータセットには、200万フレーム以上の14,203本のビデオが含まれている。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Edge-aware Consistent Stereo Video Depth Estimation [3.611754783778107]
本稿では,高密度映像深度推定のための一貫した手法を提案する。
既存のモノラルな方法とは異なり、ステレオビデオに関係しています。
エッジ対応ステレオビデオモデルにより,深度マップを精度良く推定できることを示す。
論文 参考訳(メタデータ) (2023-05-04T08:30:04Z) - Depth-Relative Self Attention for Monocular Depth Estimation [23.174459018407003]
ディープニューラルネットワークは、RGB情報から抽出されたサイズ、日陰、テクスチャなど、さまざまな視覚的ヒントに依存している。
本稿では,相対深度を自己注意のガイダンスとして用いたRelative Depth Transformer (RED-T) という新しい深度推定モデルを提案する。
提案モデルでは, 単分子深度推定ベンチマークにおいて, 競合する結果が得られ, RGB情報に偏りが小さいことを示す。
論文 参考訳(メタデータ) (2023-04-25T14:20:31Z) - Unsupervised Anomaly Detection from Time-of-Flight Depth Images [11.485364355489462]
ビデオ異常検出(VAD)は、ビデオデータ中の異常事象を自動的に検出する問題に対処する。
本研究では,フォアグラウンドマスクの形でシーン解析のための補助情報を容易に抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-02T11:59:03Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。