論文の概要: Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation
- arxiv url: http://arxiv.org/abs/2108.07628v1
- Date: Tue, 17 Aug 2021 13:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:17:24.848167
- Title: Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation
- Title(参考訳): ドメイン分離を用いた全日画像の自己教師付き単眼深度推定
- Authors: Lina Liu, Xibin Song, Mengmeng Wang, Yong Liu and Liangjun Zhang
- Abstract要約: 本稿では,全日画像の自己教師付き深度推定のための領域分離ネットワークを提案する。
提案手法は,オックスフォード・ロボットカー・データセットにおける全日画像の最先端の深度推定結果を実現する。
- 参考スコア(独自算出の注目度): 17.066753214406525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remarkable results have been achieved by DCNN based self-supervised depth
estimation approaches. However, most of these approaches can only handle either
day-time or night-time images, while their performance degrades for all-day
images due to large domain shift and the variation of illumination between day
and night images. To relieve these limitations, we propose a domain-separated
network for self-supervised depth estimation of all-day images. Specifically,
to relieve the negative influence of disturbing terms (illumination, etc.), we
partition the information of day and night image pairs into two complementary
sub-spaces: private and invariant domains, where the former contains the unique
information (illumination, etc.) of day and night images and the latter
contains essential shared information (texture, etc.). Meanwhile, to guarantee
that the day and night images contain the same information, the
domain-separated network takes the day-time images and corresponding night-time
images (generated by GAN) as input, and the private and invariant feature
extractors are learned by orthogonality and similarity loss, where the domain
gap can be alleviated, thus better depth maps can be expected. Meanwhile, the
reconstruction and photometric losses are utilized to estimate complementary
information and depth maps effectively. Experimental results demonstrate that
our approach achieves state-of-the-art depth estimation results for all-day
images on the challenging Oxford RobotCar dataset, proving the superiority of
our proposed approach.
- Abstract(参考訳): DCNNをベースとした自己教師型深度推定手法により, 顕著な結果が得られた。
しかし,これらの手法のほとんどは日中・夜のどちらの画像も扱えるが,大きな領域シフトと日夜の照明の変動により,日中画像のパフォーマンスは低下する。
これらの制約を緩和するために,全日画像の自己教師付き深度推定のためのドメイン分離ネットワークを提案する。
具体的には、乱用語(照明等)の悪影響を緩和する。
) 昼夜画像対の情報を2つの補完的な部分空間に分割する: プライベート領域と不変領域、前者はユニークな情報(照明など)を含む。
昼夜画像のうち、後者は本質的な共有情報(テキスト等)を含んでいる。
一方、昼夜画像が同一情報を含むことを保証するため、ドメイン分離ネットワークは、昼夜画像と対応する夜間画像(ganにより生成)を入力とし、ドメインギャップを緩和できる直交性及び類似性損失により、プライベートおよび不変特徴抽出器を学習し、より良好な深度マップを期待できる。
一方、補間情報や深度マップを効果的に推定するために、復元と測光損失を利用する。
実験の結果,提案手法は,オックスフォード・ロボカー・データセット上での1日当たりの深度推定結果を達成し,提案手法の優位性を実証した。
関連論文リスト
- Night-to-Day Translation via Illumination Degradation Disentanglement [51.77716565167767]
ナイト・トゥ・デイの翻訳は、夜間のシーンの昼のようなビジョンを達成することを目的としている。
複雑な劣化を伴う夜間画像の処理は 未熟な条件下では 重要な課題です
夜間画像の劣化パターンを識別するためにtextbfN2D3 を提案する。
論文 参考訳(メタデータ) (2024-11-21T08:51:32Z) - Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - GlocalFuse-Depth: Fusing Transformers and CNNs for All-day
Self-supervised Monocular Depth Estimation [0.12891210250935148]
本稿では,全日画像の自己教師付き深度推定のための2分岐ネットワークGlocalFuse-Depthを提案する。
GlocalFuse-Depthは、Oxford RobotCarデータセット上の全日画像の最先端結果を達成する。
論文 参考訳(メタデータ) (2023-02-20T10:20:07Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Cross-Domain Correlation Distillation for Unsupervised Domain Adaptation
in Nighttime Semantic Segmentation [17.874336775904272]
CCDistillと呼ばれるクロスドメイン相関蒸留による新しいドメイン適応フレームワークを提案する。
特徴に含まれる内容やスタイルの知識を抽出し、2つの画像間の固有または照度差の度合いを算出する。
Dark Zurich と ACDC の実験では,CCDistill が夜間セマンティックセマンティックセグメンテーションの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-05-02T12:42:04Z) - Regularizing Nighttime Weirdness: Efficient Self-supervised Monocular
Depth Estimation in the Dark [20.66405067066299]
未ペア深度マップから分布知識を学習するために,プリエントベース正規化を導入する。
また、画像の可視性とコントラストを高めるために、マッピング一貫性画像強調モジュールを活用している。
筆者らのフレームワークは,2つの夜間データセットに対して,顕著な改善と最先端の結果を達成している。
論文 参考訳(メタデータ) (2021-08-09T06:24:35Z) - Unsupervised Monocular Depth Estimation for Night-time Images using
Adversarial Domain Feature Adaptation [17.067988025947024]
我々は、制約のないRGB単眼の夜間画像から画素ごとの深度マップを推定する問題を考察する。
夜間画像でテストした場合、最先端の昼時間深度推定法は不幸にも失敗する。
そこで本稿では,昼夜画像で訓練されたネットワークを夜間画像に適応させるドメイン適応問題として取り上げ,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-10-03T17:55:16Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。