論文の概要: DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning
- arxiv url: http://arxiv.org/abs/2003.13446v1
- Date: Mon, 30 Mar 2020 13:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:04:22.832326
- Title: DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning
- Title(参考訳): DeFeat-Net: 同時教師なし表現学習による一般的な単分子深度
- Authors: Jaime Spencer, Richard Bowden, Simon Hadfield
- Abstract要約: DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
- 参考スコア(独自算出の注目度): 65.94499390875046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the current monocular depth research, the dominant approach is to employ
unsupervised training on large datasets, driven by warped photometric
consistency. Such approaches lack robustness and are unable to generalize to
challenging domains such as nighttime scenes or adverse weather conditions
where assumptions about photometric consistency break down.
We propose DeFeat-Net (Depth & Feature network), an approach to
simultaneously learn a cross-domain dense feature representation, alongside a
robust depth-estimation framework based on warped feature consistency. The
resulting feature representation is learned in an unsupervised manner with no
explicit ground-truth correspondences required.
We show that within a single domain, our technique is comparable to both the
current state of the art in monocular depth estimation and supervised feature
representation learning. However, by simultaneously learning features, depth
and motion, our technique is able to generalize to challenging domains,
allowing DeFeat-Net to outperform the current state-of-the-art with around 10%
reduction in all error measures on more challenging sequences such as nighttime
driving.
- Abstract(参考訳): 現在の単眼深度研究において、主要なアプローチは、非教師なしのトレーニングを大きなデータセットで採用することである。
このようなアプローチは堅牢性に欠けており、夜間のシーンや、フォトメトリックの一貫性に関する仮定が崩れるような悪天候条件といった困難な領域に一般化できない。
DeFeat-Net(Deepth & Feature Network)を提案する。これはドメイン間密な特徴表現を同時に学習する手法であり、歪んだ特徴整合性に基づいた堅牢な深さ推定フレームワークである。
得られた特徴表現は教師なしの方法で学習され、明示的な接地対応は不要である。
一つの領域において,本手法は単分子深度推定と教師付き特徴表現学習における最先端技術に匹敵するものであることを示す。
しかし,特徴,深度,動きを同時に学習することで,DeFeat-Netが夜間運転などのより困難なシーケンスに対するエラー対策を約10%削減し,現在の最先端技術よりも優れているように,課題領域に一般化することができる。
関連論文リスト
- Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Unearthing Common Inconsistency for Generalisable Deepfake Detection [8.327980745153216]
ビデオレベル1は、複数のドメインにまたがる一般化と圧縮に対する堅牢性の両方を持つ可能性を示している。
本稿では,異なる偽造技術に広く存在するフレーム不整合を捉えることによって検出手法を提案する。
本研究では,時間的に保存されたモジュール法を導入し,空間雑音の摂動を導入し,時間的情報に対するモデルの注意を向ける。
論文 参考訳(メタデータ) (2023-11-20T06:04:09Z) - Fine-grained Semantics-aware Representation Enhancement for
Self-supervised Monocular Depth Estimation [16.092527463250708]
自己教師付き単分子深度推定を改善するための新しいアイデアを提案する。
我々は、幾何学的表現強化に暗黙的な意味知識を取り入れることに注力する。
提案手法をKITTIデータセット上で評価し,提案手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-08-19T17:50:51Z) - Causal Navigation by Continuous-time Neural Networks [108.84958284162857]
本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
論文 参考訳(メタデータ) (2021-06-15T17:45:32Z) - Learning a Domain-Agnostic Visual Representation for Autonomous Driving
via Contrastive Loss [25.798361683744684]
ドメイン認識コントラスト学習(Domain-Agnostic Contrastive Learning、DACL)は、2段階の非監視ドメイン適応フレームワークである。
提案手法は,従来の最新手法に比べ,単眼深度推定作業における性能向上を実現した。
論文 参考訳(メタデータ) (2021-03-10T07:06:03Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction [27.750031877854717]
本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
論文 参考訳(メタデータ) (2020-10-06T17:22:25Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - DeepCap: Monocular Human Performance Capture Using Weak Supervision [106.50649929342576]
そこで本研究では,単分子密集型人間のパフォーマンスキャプチャのための新しい深層学習手法を提案する。
本手法は,多視点監視に基づく弱教師付き方式で訓練されている。
我々のアプローチは、品質と堅牢性の観点から、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-03-18T16:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。