論文の概要: SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction
- arxiv url: http://arxiv.org/abs/2010.02893v3
- Date: Tue, 29 Dec 2020 07:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:32:09.768013
- Title: SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction
- Title(参考訳): SAFENet:Semantic-Aware特徴抽出による自己監督単眼深度推定
- Authors: Jaehoon Choi, Dongki Jung, Donghwan Lee, Changick Kim
- Abstract要約: 本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
- 参考スコア(独自算出の注目度): 27.750031877854717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised monocular depth estimation has emerged as a promising method
because it does not require groundtruth depth maps during training. As an
alternative for the groundtruth depth map, the photometric loss enables to
provide self-supervision on depth prediction by matching the input image
frames. However, the photometric loss causes various problems, resulting in
less accurate depth values compared with supervised approaches. In this paper,
we propose SAFENet that is designed to leverage semantic information to
overcome the limitations of the photometric loss. Our key idea is to exploit
semantic-aware depth features that integrate the semantic and geometric
knowledge. Therefore, we introduce multi-task learning schemes to incorporate
semantic-awareness into the representation of depth features. Experiments on
KITTI dataset demonstrate that our methods compete or even outperform the
state-of-the-art methods. Furthermore, extensive experiments on different
datasets show its better generalization ability and robustness to various
conditions, such as low-light or adverse weather.
- Abstract(参考訳): 自己教師付き単眼深度推定は, 訓練中に地中深度マップを必要としないため, 有望な手法である。
基底深度マップの代替として、光度損失は入力された画像フレームをマッチングすることにより、深度予測の自己監督を可能にする。
しかし、測光損失は様々な問題を引き起こし、教師付きアプローチに比べて精度の低い深度値となる。
本稿では,フォトメトリックロスの限界を克服するために,意味情報を活用したsafenetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
そこで本研究では,奥行き特徴の表現に意味認識を組み込むマルチタスク学習方式を提案する。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
さらに、異なるデータセットに対する広範な実験は、低照度や悪天候などの様々な条件に対して、より優れた一般化能力と堅牢性を示す。
関連論文リスト
- Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Unsupervised Light Field Depth Estimation via Multi-view Feature
Matching with Occlusion Prediction [15.421219881815956]
監督訓練に十分な深度ラベルを得ることは費用がかかる。
本稿では,LF画像から深度を推定するための教師なしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-20T06:11:17Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - Unsupervised Monocular Depth Perception: Focusing on Moving Objects [5.489557739480878]
本稿では,光度誤差を意図的に操作することで,効率よく困難に対処できることを示す。
まず、光学誤差マップにおいて、隠蔽または動的画素を統計的外れ値として考慮した外れ値マスキング手法を提案する。
外部マスキングにより、ネットワークはカメラと反対方向に移動する物体の深さをより正確に学習する。
論文 参考訳(メタデータ) (2021-08-30T08:45:02Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Learning Depth via Leveraging Semantics: Self-supervised Monocular Depth
Estimation with Both Implicit and Explicit Semantic Guidance [34.62415122883441]
シーン認識深度推定のための暗黙的意味特徴と深度特徴とを一致させるセマンティック認識空間特徴アライメント方式を提案する。
また,推定深度マップを実シーンの文脈特性と整合性に明示的に制約する意味誘導型ランキング損失を提案する。
複雑なシーンや多様なセマンティックカテゴリで一貫して優れた、高品質な深度マップを作成します。
論文 参考訳(メタデータ) (2021-02-11T14:29:51Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z) - DiPE: Deeper into Photometric Errors for Unsupervised Learning of Depth
and Ego-motion from Monocular Videos [9.255509741319583]
本稿では,光度誤差を慎重に操作することで,これらの問題に対処できることを示す。
主な改善は、測光誤差マップ内の見えないまたは静止しないピクセルを隠蔽する統計技術によって達成される。
また,予測深度マップのアーティファクトを削減するために,効率的な重み付きマルチスケールスキームを提案する。
論文 参考訳(メタデータ) (2020-03-03T07:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。