論文の概要: Feature-metric Loss for Self-supervised Learning of Depth and Egomotion
- arxiv url: http://arxiv.org/abs/2007.10603v1
- Date: Tue, 21 Jul 2020 05:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:58:13.274745
- Title: Feature-metric Loss for Self-supervised Learning of Depth and Egomotion
- Title(参考訳): 自己教師型深度学習における特徴量損失
- Authors: Chang Shu, Kun Yu, Zhixiang Duan, and Kuiyuan Yang
- Abstract要約: 光度損失は、自己監督された深度とエゴモーション推定に広く利用されている。
本研究では,特徴量損失を提案し,特徴表現に基づいて定義する。
可視化による総合的な実験と詳細な分析により,提案した特徴量損失の有効性が示された。
- 参考スコア(独自算出の注目度): 13.995413542601472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Photometric loss is widely used for self-supervised depth and egomotion
estimation. However, the loss landscapes induced by photometric differences are
often problematic for optimization, caused by plateau landscapes for pixels in
textureless regions or multiple local minima for less discriminative pixels. In
this work, feature-metric loss is proposed and defined on feature
representation, where the feature representation is also learned in a
self-supervised manner and regularized by both first-order and second-order
derivatives to constrain the loss landscapes to form proper convergence basins.
Comprehensive experiments and detailed analysis via visualization demonstrate
the effectiveness of the proposed feature-metric loss. In particular, our
method improves state-of-the-art methods on KITTI from 0.885 to 0.925 measured
by $\delta_1$ for depth estimation, and significantly outperforms previous
method for visual odometry.
- Abstract(参考訳): 光度損失は自己監督された深度とエゴモーション推定に広く利用されている。
しかし、光度差による損失景観は、テクスチャのない領域における画素の台地景観や、判別の少ないピクセルに対する複数の局所ミニマにより、最適化にしばしば問題となる。
本研究は,特徴量的損失を特徴表現に基づいて提案し,特徴表現を自己指導的に学習し,一階微分と二階微分の両方で正規化することにより,損失景観を制約し,適切な収束盆地を形成する。
包括的実験と可視化による詳細な解析により,提案する特徴量損失の有効性が示された。
特に, KITTI の最先端手法を 0.885 から 0.925 に改良し, 奥行き推定法として$\delta_1$ で測定し, 従来手法よりも大幅に向上した。
関連論文リスト
- Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - CbwLoss: Constrained Bidirectional Weighted Loss for Self-supervised
Learning of Depth and Pose [13.581694284209885]
光度差は、未ラベルのモノクロビデオから深度とカメラのポーズを推定するためにニューラルネットワークを訓練するために使用される。
本稿では,アフィン変換とビュー合成によって生じる流れ場と深さ構造の違いを利用して,移動物体とオクルージョンを取り扱う。
ネットワークを追加することなく、より意味的な情報と文脈的な情報を持つ特徴の差を測定することにより、テクスチャレス領域がモデル最適化に与える影響を緩和する。
論文 参考訳(メタデータ) (2022-12-12T12:18:24Z) - Frequency-Aware Self-Supervised Monocular Depth Estimation [41.97188738587212]
自己教師付き単眼深度推定モデルを改善するための2つの多目的手法を提案する。
本手法の高一般化性は,測光損失関数の基本的およびユビキタスな問題を解くことによって達成される。
我々は、解釈可能な解析で深度推定器を改善するために、初めてぼやけた画像を提案する。
論文 参考訳(メタデータ) (2022-10-11T14:30:26Z) - DeepWSD: Projecting Degradations in Perceptual Space to Wasserstein
Distance in Deep Feature Space [67.07476542850566]
本稿では,統計的分布の観点から知覚空間の品質劣化をモデル化する。
品質は、深い特徴領域におけるワッサーシュタイン距離に基づいて測定される。
ニューラルネットワークの特徴に基づいて実行されるディープワッサースタイン距離(ディープWSD)は、品質汚染のより良い解釈性をもたらす。
論文 参考訳(メタデータ) (2022-08-05T02:46:12Z) - RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - Degradation-agnostic Correspondence from Resolution-asymmetric Stereo [96.03964515969652]
テレワイドカメラシステムで取得した解像度の異なる2枚の画像からステレオマッチングの問題を考察する。
特徴量整合性という画像空間の代わりに特徴空間に2つのビュー間の整合性を課すことを提案する。
測光損失をトレーニングしたステレオマッチングネットワークは最適ではないが, 特徴抽出器は劣化に依存しない, マッチング特有の特徴を生成できる。
論文 参考訳(メタデータ) (2022-04-04T12:24:34Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - Uncalibrated Neural Inverse Rendering for Photometric Stereo of General
Surfaces [103.08512487830669]
本稿では,測光ステレオ問題に対する無補間深層ニューラルネットワークフレームワークを提案する。
既存のニューラルネットワークベースの方法は、物体の正確な光方向または接地正則のいずれかまたは両方を必要とします。
本稿では,この問題に対する未調整の神経逆レンダリング手法を提案する。
論文 参考訳(メタデータ) (2020-12-12T10:33:08Z) - SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction [27.750031877854717]
本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
論文 参考訳(メタデータ) (2020-10-06T17:22:25Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。