論文の概要: Unsupervised Monocular Depth Estimation for Night-time Images using
Adversarial Domain Feature Adaptation
- arxiv url: http://arxiv.org/abs/2010.01402v1
- Date: Sat, 3 Oct 2020 17:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 11:37:48.920993
- Title: Unsupervised Monocular Depth Estimation for Night-time Images using
Adversarial Domain Feature Adaptation
- Title(参考訳): 逆領域特徴適応を用いた夜間画像の教師なし単眼深度推定
- Authors: Madhu Vankadari, Sourav Garg, Anima Majumder, Swagat Kumar, and
Ardhendu Behera
- Abstract要約: 我々は、制約のないRGB単眼の夜間画像から画素ごとの深度マップを推定する問題を考察する。
夜間画像でテストした場合、最先端の昼時間深度推定法は不幸にも失敗する。
そこで本稿では,昼夜画像で訓練されたネットワークを夜間画像に適応させるドメイン適応問題として取り上げ,この問題を解決することを提案する。
- 参考スコア(独自算出の注目度): 17.067988025947024
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we look into the problem of estimating per-pixel depth maps
from unconstrained RGB monocular night-time images which is a difficult task
that has not been addressed adequately in the literature. The state-of-the-art
day-time depth estimation methods fail miserably when tested with night-time
images due to a large domain shift between them. The usual photo metric losses
used for training these networks may not work for night-time images due to the
absence of uniform lighting which is commonly present in day-time images,
making it a difficult problem to solve. We propose to solve this problem by
posing it as a domain adaptation problem where a network trained with day-time
images is adapted to work for night-time images. Specifically, an encoder is
trained to generate features from night-time images that are indistinguishable
from those obtained from day-time images by using a PatchGAN-based adversarial
discriminative learning method. Unlike the existing methods that directly adapt
depth prediction (network output), we propose to adapt feature maps obtained
from the encoder network so that a pre-trained day-time depth decoder can be
directly used for predicting depth from these adapted features. Hence, the
resulting method is termed as "Adversarial Domain Feature Adaptation (ADFA)"
and its efficacy is demonstrated through experimentation on the challenging
Oxford night driving dataset. Also, The modular encoder-decoder architecture
for the proposed ADFA method allows us to use the encoder module as a feature
extractor which can be used in many other applications. One such application is
demonstrated where the features obtained from our adapted encoder network are
shown to outperform other state-of-the-art methods in a visual place
recognition problem, thereby, further establishing the usefulness and
effectiveness of the proposed approach.
- Abstract(参考訳): 本稿では,未拘束のrgb単眼夜間画像からピクセル単位の深度マップを推定する問題について検討する。
現状の日時深度推定法は,その間に大きなドメインシフトがあるため,夜間画像でテストした場合に不都合に失敗する。
これらのネットワークのトレーニングに使用される通常のフォトメトリックの損失は、昼間画像によく見られる均一な照明がないため、夜間画像では役に立たないため、解決が難しい。
そこで本稿では,昼夜画像で訓練されたネットワークを夜間画像に適応させるドメイン適応問題として,この問題を解決することを提案する。
具体的には、PatchGANに基づく敵対的識別学習法を用いて、昼間画像と区別できない夜間画像から特徴を生成するために、エンコーダを訓練する。
ネットワークの深度予測(ネットワーク出力)を直接適用する既存の手法とは違って,エンコーダネットワークから得られた特徴マップを適応させて,事前学習した日時深度デコーダを直接使用して,これらの特徴から深度を予測する方法を提案する。
したがって、この手法は「Adversarial Domain Feature Adaptation (ADFA)」と呼ばれ、オックスフォードの夜間運転データセットに挑戦する実験を通してその効果を実証する。
また,ADFA方式のモジュール型エンコーダデコーダアーキテクチャでは,他の多くのアプリケーションで使用可能な機能抽出器としてエンコーダモジュールを利用することができる。
適応エンコーダネットワークから得られた特徴が視覚的位置認識問題において他の最先端手法よりも優れており、提案手法の有用性と有効性がさらに確立されることを示す。
関連論文リスト
- Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Self-Supervised Monocular Depth Estimation in the Dark: Towards Data Distribution Compensation [24.382795861986803]
光度一貫性の仮定は、複雑な照明条件下で撮影されたビデオには通常違反するため、自己超越のために夜間画像を使用することは信頼できない。
本研究では,トレーニング中に夜間画像を使用しない夜間単眼深度推定手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T03:39:03Z) - Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - Dark Side Augmentation: Generating Diverse Night Examples for Metric Learning [0.3840425533789961]
我々は、GANベースの合成画像生成装置を訓練し、利用可能な日中の画像例を夜間画像に変換する。
提案手法は,標準の東京24時間7日の検索ベンチマークにおいて,最先端の結果よりも改善されている。
これは、昼と夜の画像に一致する画像のペアを訓練する必要がない。
論文 参考訳(メタデータ) (2023-09-28T11:20:24Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation [17.066753214406525]
本稿では,全日画像の自己教師付き深度推定のための領域分離ネットワークを提案する。
提案手法は,オックスフォード・ロボットカー・データセットにおける全日画像の最先端の深度推定結果を実現する。
論文 参考訳(メタデータ) (2021-08-17T13:52:19Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。