論文の概要: Self-Supervised Monocular Depth Estimation in the Dark: Towards Data Distribution Compensation
- arxiv url: http://arxiv.org/abs/2404.13854v1
- Date: Mon, 22 Apr 2024 03:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 15:26:21.398667
- Title: Self-Supervised Monocular Depth Estimation in the Dark: Towards Data Distribution Compensation
- Title(参考訳): 暗黒における自己監督単眼深度推定:データ分布補償に向けて
- Authors: Haolin Yang, Chaoqiang Zhao, Lu Sheng, Yang Tang,
- Abstract要約: 光度一貫性の仮定は、複雑な照明条件下で撮影されたビデオには通常違反するため、自己超越のために夜間画像を使用することは信頼できない。
本研究では,トレーニング中に夜間画像を使用しない夜間単眼深度推定手法を提案する。
- 参考スコア(独自算出の注目度): 24.382795861986803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nighttime self-supervised monocular depth estimation has received increasing attention in recent years. However, using night images for self-supervision is unreliable because the photometric consistency assumption is usually violated in the videos taken under complex lighting conditions. Even with domain adaptation or photometric loss repair, performance is still limited by the poor supervision of night images on trainable networks. In this paper, we propose a self-supervised nighttime monocular depth estimation method that does not use any night images during training. Our framework utilizes day images as a stable source for self-supervision and applies physical priors (e.g., wave optics, reflection model and read-shot noise model) to compensate for some key day-night differences. With day-to-night data distribution compensation, our framework can be trained in an efficient one-stage self-supervised manner. Though no nighttime images are considered during training, qualitative and quantitative results demonstrate that our method achieves SoTA depth estimating results on the challenging nuScenes-Night and RobotCar-Night compared with existing methods.
- Abstract(参考訳): 近年,夜間自己監督型単眼深度推定が注目されている。
しかし、光度一貫性の仮定は複雑な照明条件下で撮影されたビデオには通常違反するため、自己超越のために夜間画像を使用することは信頼できない。
ドメイン適応や測光損失の修復であっても、トレーニング可能なネットワーク上での夜間画像の監視が不十分なため、パフォーマンスは依然として制限されている。
本稿では,トレーニング中に夜間画像を使用しない夜間単眼深度推定手法を提案する。
本フレームワークは, 日像を自己監督のための安定な情報源として利用し, 日中の重要な相違を補うために物理的事前(波動光学, リフレクションモデル, リードショットノイズモデル)を適用した。
日毎のデータ配信の補償によって、我々のフレームワークは効率的な1段階のセルフ教師方式で訓練することができる。
トレーニング中は夜間画像は考慮されていないが,定性的,定量的な結果から,既存の手法と比較して難易度の高いnuScenes-NightとRobotCar-NightのSoTA深度推定結果が得られた。
関連論文リスト
- Night-to-Day Translation via Illumination Degradation Disentanglement [51.77716565167767]
ナイト・トゥ・デイの翻訳は、夜間のシーンの昼のようなビジョンを達成することを目的としている。
複雑な劣化を伴う夜間画像の処理は 未熟な条件下では 重要な課題です
夜間画像の劣化パターンを識別するためにtextbfN2D3 を提案する。
論文 参考訳(メタデータ) (2024-11-21T08:51:32Z) - Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - STEPS: Joint Self-supervised Nighttime Image Enhancement and Depth
Estimation [12.392842482031558]
本研究では,夜間画像強調器と深度推定器を両課題に使用せずに共同で学習する手法を提案する。
提案手法は,新たに提案された不確実な画素マスキング戦略を用いて,2つの自己監督タスクを密に絡み合わせる。
提案手法をnuScenesとRobotCarの2つの確立したデータセットでベンチマークする。
論文 参考訳(メタデータ) (2023-02-02T18:59:47Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation [17.066753214406525]
本稿では,全日画像の自己教師付き深度推定のための領域分離ネットワークを提案する。
提案手法は,オックスフォード・ロボットカー・データセットにおける全日画像の最先端の深度推定結果を実現する。
論文 参考訳(メタデータ) (2021-08-17T13:52:19Z) - Regularizing Nighttime Weirdness: Efficient Self-supervised Monocular
Depth Estimation in the Dark [20.66405067066299]
未ペア深度マップから分布知識を学習するために,プリエントベース正規化を導入する。
また、画像の可視性とコントラストを高めるために、マッピング一貫性画像強調モジュールを活用している。
筆者らのフレームワークは,2つの夜間データセットに対して,顕著な改善と最先端の結果を達成している。
論文 参考訳(メタデータ) (2021-08-09T06:24:35Z) - Unsupervised Monocular Depth Estimation for Night-time Images using
Adversarial Domain Feature Adaptation [17.067988025947024]
我々は、制約のないRGB単眼の夜間画像から画素ごとの深度マップを推定する問題を考察する。
夜間画像でテストした場合、最先端の昼時間深度推定法は不幸にも失敗する。
そこで本稿では,昼夜画像で訓練されたネットワークを夜間画像に適応させるドメイン適応問題として取り上げ,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-10-03T17:55:16Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。