論文の概要: DAVIDE: Depth-Aware Video Deblurring
- arxiv url: http://arxiv.org/abs/2409.01274v1
- Date: Mon, 2 Sep 2024 14:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:37:11.058845
- Title: DAVIDE: Depth-Aware Video Deblurring
- Title(参考訳): DAVIDE:深度を意識した動画のデブリ
- Authors: German F. Torres, Jussi Kalliola, Soumya Tripathy, Erman Acar, Joni-Kristian Kämäräinen,
- Abstract要約: ビデオのデブロアリングは、ぼやけたフレームの連続からシャープな詳細を回復することを目的としている。
携帯電話の深度センサーの普及にもかかわらず、深度認識の劣化はわずかしか注目されなかった。
本稿では,映像の深度情報の影響を調べるために,「深度対応VIdeo Deblurring」データセットを提案する。
- 参考スコア(独自算出の注目度): 6.063637529640443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video deblurring aims at recovering sharp details from a sequence of blurry frames. Despite the proliferation of depth sensors in mobile phones and the potential of depth information to guide deblurring, depth-aware deblurring has received only limited attention. In this work, we introduce the 'Depth-Aware VIdeo DEblurring' (DAVIDE) dataset to study the impact of depth information in video deblurring. The dataset comprises synchronized blurred, sharp, and depth videos. We investigate how the depth information should be injected into the existing deep RGB video deblurring models, and propose a strong baseline for depth-aware video deblurring. Our findings reveal the significance of depth information in video deblurring and provide insights into the use cases where depth cues are beneficial. In addition, our results demonstrate that while the depth improves deblurring performance, this effect diminishes when models are provided with a longer temporal context. Project page: https://germanftv.github.io/DAVIDE.github.io/ .
- Abstract(参考訳): ビデオのデブロアリングは、ぼやけたフレームの連続からシャープな詳細を回復することを目的としている。
携帯電話における深度センサの普及と,深度情報により深度を誘導する可能性にもかかわらず,深度認識の難読化はわずかしか注目されていない。
本稿では,映像の深度情報の影響を研究するために,DAVIDEデータセットについて紹介する。
データセットは、同期されたぼかし、シャープ、ディープビデオで構成されている。
本稿では,既存の深度RGBビデオデブロアリングモデルに深度情報を注入する方法について検討し,深度対応ビデオデブロアリングのための強力なベースラインを提案する。
ビデオデブリにおける深度情報の意義を明らかにするとともに,深度手がかりが有用である症例について考察した。
さらに, この結果から, 深度が劣化性能を向上する一方で, モデルに時間的コンテキストが長くなると, この効果は低下することが示された。
プロジェクトページ: https://germanftv.github.io/DAVIDE.github.io/
関連論文リスト
- DepthLab: From Partial to Complete [80.58276388743306]
不足する値は、幅広いアプリケーションにわたる深度データにとって共通の課題である。
この作業は、イメージ拡散プリエントを利用した基礎深度塗装モデルであるDepthLabと、このギャップを埋めるものだ。
提案手法は,3Dシーンのインペイント,テキストから3Dシーン生成,DUST3Rによるスパースビュー再構成,LiDAR深度補完など,様々なダウンストリームタスクにおいて有用であることを示す。
論文 参考訳(メタデータ) (2024-12-24T04:16:38Z) - Align3R: Aligned Monocular Depth Estimation for Dynamic Videos [50.28715151619659]
動的ビデオの時間的一貫した深度マップを推定するために,Align3Rと呼ばれる新しいビデオ深度推定法を提案する。
我々のキーとなる考え方は、最近のDUSt3Rモデルを用いて、異なる時間ステップの単分子深度マップを整列させることである。
実験により、Align3Rは一貫したビデオ深度を推定し、カメラはベースライン法よりも優れた性能を持つ単眼ビデオのポーズを示す。
論文 参考訳(メタデータ) (2024-12-04T07:09:59Z) - Compressed Depth Map Super-Resolution and Restoration: AIM 2024 Challenge Results [53.405958915687265]
この課題は、圧縮データから高品質な深度マップを再構築する革新的な深度アップサンプリング技術の開発に焦点が当てられている。
この課題は,深度マップ復元の効率化と品質向上を目的としている。
私たちのゴールは、深度処理技術の最先端を推し進めることで、ARおよびVRアプリケーションにおける全体的なユーザエクスペリエンスを向上させることです。
論文 参考訳(メタデータ) (2024-09-24T17:50:18Z) - DepthCrafter: Generating Consistent Long Depth Sequences for Open-world Videos [51.90501863934735]
本稿では,オープンワールドビデオの複雑な詳細を伴う時間的に一貫した長深さシーケンスを生成するDepthCrafterを提案する。
オープンワールドビデオの一般化能力は、事前訓練された画像間拡散モデルからビデオ間拡散モデルを訓練することによって達成される。
トレーニング手法により、モデルは、最大110フレームまでの可変長の深度シーケンスを生成し、リアルかつ合成されたデータセットから、正確な深度の詳細と豊富な内容の多様性を抽出することができる。
論文 参考訳(メタデータ) (2024-09-03T17:52:03Z) - SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - NVDS+: Towards Efficient and Versatile Neural Stabilizer for Video Depth Estimation [58.21817572577012]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
プラグ・アンド・プレイ方式で様々な単一画像モデルから推定される不整合深さを安定化するNVDS+を導入する。
このデータセットには、200万フレーム以上の14,203本のビデオが含まれている。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Edge-aware Consistent Stereo Video Depth Estimation [3.611754783778107]
本稿では,高密度映像深度推定のための一貫した手法を提案する。
既存のモノラルな方法とは異なり、ステレオビデオに関係しています。
エッジ対応ステレオビデオモデルにより,深度マップを精度良く推定できることを示す。
論文 参考訳(メタデータ) (2023-05-04T08:30:04Z) - Depth-Relative Self Attention for Monocular Depth Estimation [23.174459018407003]
ディープニューラルネットワークは、RGB情報から抽出されたサイズ、日陰、テクスチャなど、さまざまな視覚的ヒントに依存している。
本稿では,相対深度を自己注意のガイダンスとして用いたRelative Depth Transformer (RED-T) という新しい深度推定モデルを提案する。
提案モデルでは, 単分子深度推定ベンチマークにおいて, 競合する結果が得られ, RGB情報に偏りが小さいことを示す。
論文 参考訳(メタデータ) (2023-04-25T14:20:31Z) - Unsupervised Anomaly Detection from Time-of-Flight Depth Images [11.485364355489462]
ビデオ異常検出(VAD)は、ビデオデータ中の異常事象を自動的に検出する問題に対処する。
本研究では,フォアグラウンドマスクの形でシーン解析のための補助情報を容易に抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-02T11:59:03Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。