論文の概要: DEHRFormer: Real-time Transformer for Depth Estimation and Haze Removal
from Varicolored Haze Scenes
- arxiv url: http://arxiv.org/abs/2303.06905v1
- Date: Mon, 13 Mar 2023 07:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:04:54.289984
- Title: DEHRFormer: Real-time Transformer for Depth Estimation and Haze Removal
from Varicolored Haze Scenes
- Title(参考訳): DEHRFormer:多色ヘイズシーンからの深度推定とヘイズ除去のためのリアルタイムトランス
- Authors: Sixiang Chen, Tian Ye, Jun Shi, Yun Liu, JingXia Jiang, Erkang Chen,
Peng Chen
- Abstract要約: そこで本研究では,画像深度推定とヘイズ除去を同時に行うリアルタイムトランスフォーマを提案する。
DEHRFormerは1つのエンコーダと2つのタスク固有のデコーダで構成される。
対照的な学習とドメイン整合性学習を利用して、現実のデハジングにおける弱い一般化問題に取り組む新しい学習パラダイムを導入する。
- 参考スコア(独自算出の注目度): 10.174140482558904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Varicolored haze caused by chromatic casts poses haze removal and depth
estimation challenges. Recent learning-based depth estimation methods are
mainly targeted at dehazing first and estimating depth subsequently from
haze-free scenes. This way, the inner connections between colored haze and
scene depth are lost. In this paper, we propose a real-time transformer for
simultaneous single image Depth Estimation and Haze Removal (DEHRFormer).
DEHRFormer consists of a single encoder and two task-specific decoders. The
transformer decoders with learnable queries are designed to decode coupling
features from the task-agnostic encoder and project them into clean image and
depth map, respectively. In addition, we introduce a novel learning paradigm
that utilizes contrastive learning and domain consistency learning to tackle
weak-generalization problem for real-world dehazing, while predicting the same
depth map from the same scene with varicolored haze. Experiments demonstrate
that DEHRFormer achieves significant performance improvement across diverse
varicolored haze scenes over previous depth estimation networks and dehazing
approaches.
- Abstract(参考訳): カラーキャストによる多彩なヘイズは、ヘイズ除去と深さ推定の課題を引き起こす。
近年の学習に基づく深度推定法は, 主に, ヘイズフリーシーンからの深度を推定することを目的としている。
これにより、彩色した風と風景の奥行きとの間の内側のつながりが失われる。
本稿では,Depth Estimation and Haze removal (DEHRFormer) を同時に行うリアルタイムトランスフォーマを提案する。
DEHRFormerは1つのエンコーダと2つのタスク固有のデコーダで構成される。
学習可能なクエリを持つ変換器デコーダは、タスクに依存しないエンコーダから結合機能をデコードし、それらをクリーンな画像と深度マップに投影するように設計されている。
さらに,実世界のデヘイジングにおける弱一般化問題に取り組むために,コントラスト学習とドメイン一貫性学習を利用した新しい学習パラダイムを導入し,同じシーンから同じ深さマップを可変ヘイズで予測する。
DEHRFormerは,従来の深度推定ネットワークやデハジングアプローチよりも多彩なヘイズシーンにおいて,大幅な性能向上を実現している。
関連論文リスト
- HazyDet: Open-source Benchmark for Drone-view Object Detection with Depth-cues in Hazy Scenes [31.411806708632437]
本稿では,ヘイズシーンにおけるドローンによる物体検出に適したデータセットHazyDetを紹介する。
自然環境と通常のシーンの両方から収集された383,000の現実世界のインスタンスを含んでいる。
深度と湿気条件の異なる物体スケールと明度に有意な変動を観測することにより,深度条件検出器を設計した。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Back to the Color: Learning Depth to Specific Color Transformation for Unsupervised Depth Estimation [45.07558105128673]
合成色と実世界の色の違いは、実世界のシーンにおける深度推定に重大な課題をもたらす。
実世界のデータに基づいて訓練されたモデルを用いて,奥行きからリアルな色を予測するフレームワークBack2Colorを提案する。
また、VADepthは、変換器よりも計算量が少なく、精度も高いVision Attention Networkをベースにしている。
論文 参考訳(メタデータ) (2024-06-11T21:55:20Z) - Depth Estimation from a Single Optical Encoded Image using a Learned
Colored-Coded Aperture [18.830374973687416]
State-of-the-artアプローチは、レンズ開口にバイナリ符号化開口(CA)を導入することにより、異なる深さの識別を改善する。
カラー符号化開口(CCA)は、撮影画像に色ずれを生じさせ、不一致を推定することができる。
本稿では,カラーフィルタの多さとスペクトル情報のリッチ化により,関連する深度情報を1枚のスナップショットで光学的に符号化するCCAを提案する。
論文 参考訳(メタデータ) (2023-09-14T21:30:55Z) - SelfPromer: Self-Prompt Dehazing Transformers with Depth-Consistency [51.92434113232977]
本研究は,画像デハージングに有効な深度整合型セルフプロンプトトランスを提案する。
ヘイズ残像とその明確な像の深さが異なるという観測によって動機づけられた。
VQGANに基づくエンコーダ・デコーダネットワークにプロンプト、プロンプト埋め込み、そしてインタプリタを組み込むことにより、より優れた知覚品質を実現することができる。
論文 参考訳(メタデータ) (2023-03-13T11:47:24Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - DiverseDepth: Affine-invariant Depth Prediction Using Diverse Data [110.29043712400912]
本稿では,アフィン変換に至るまでの多様なシーンにおける高品質な深度を予測できるモノクロ画像を用いた深度推定手法を提案する。
実験の結果,提案手法は,ゼロショットテスト設定と大差で8つのデータセットの先行手法より優れていた。
論文 参考訳(メタデータ) (2020-02-03T05:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。