論文の概要: Learn to Adapt for Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2203.14005v1
- Date: Sat, 26 Mar 2022 06:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:09:34.637369
- Title: Learn to Adapt for Monocular Depth Estimation
- Title(参考訳): 単眼深度推定への適応を学ぶ
- Authors: Qiyu Sun, Gary G. Yen, Yang Tang, Chaoqiang Zhao
- Abstract要約: 逆深度推定タスクを提案し,メタラーニングのパイプラインでモデルを訓練する。
提案手法は,テスト手順中の数ステップのトレーニングの後,新しいデータセットに順応する。
- 参考スコア(独自算出の注目度): 17.887575611570394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation is one of the fundamental tasks in environmental
perception and has achieved tremendous progress in virtue of deep learning.
However, the performance of trained models tends to degrade or deteriorate when
employed on other new datasets due to the gap between different datasets.
Though some methods utilize domain adaptation technologies to jointly train
different domains and narrow the gap between them, the trained models cannot
generalize to new domains that are not involved in training. To boost the
transferability of depth estimation models, we propose an adversarial depth
estimation task and train the model in the pipeline of meta-learning. Our
proposed adversarial task mitigates the issue of meta-overfitting, since the
network is trained in an adversarial manner and aims to extract domain
invariant representations. In addition, we propose a constraint to impose upon
cross-task depth consistency to compel the depth estimation to be identical in
different adversarial tasks, which improves the performance of our method and
smoothens the training process. Experiments demonstrate that our method adapts
well to new datasets after few training steps during the test procedure.
- Abstract(参考訳): 単眼深度推定は環境認識における基本的な課題の1つであり、深層学習によって著しく進歩した。
しかしながら、トレーニングされたモデルのパフォーマンスは、異なるデータセット間のギャップのため、他の新しいデータセットで使用される場合、劣化するか劣化する傾向がある。
ドメイン適応技術を用いて、異なるドメインを共同で訓練し、それらのギャップを狭める方法もあるが、トレーニングに関わらない新しいドメインに一般化することはできない。
深度推定モデルの伝達可能性を高めるために,逆深度推定タスクを提案し,メタラーニングのパイプラインでモデルを訓練する。
提案課題は,ドメイン不変表現の抽出を目的とし,ネットワークを逆向きに訓練するため,メタオーバーフィッティングの問題を緩和するものである。
さらに,異なる敵タスクにおける深さ推定を同一にすることを強制するために,クロスタスクの深さ一貫性を課す制約を提案し,提案手法の性能を向上し,トレーニングプロセスを円滑化する。
実験により,本手法は試験手順中の数ステップの後に新しいデータセットに順応することを示した。
関連論文リスト
- Continual Learning of Unsupervised Monocular Depth from Videos [19.43053045216986]
連続的教師なし深度推定(CUDE)の課題を捉える枠組みを導入する。
本稿では,時間的整合性を利用したリハーサルベースのデュアルメモリ手法MonoDepthCLを提案する。
論文 参考訳(メタデータ) (2023-11-04T12:36:07Z) - Continual Learning of Neural Machine Translation within Low Forgetting
Risk Regions [21.488675531980444]
我々は,多目的学習を補助的損失で行う,広く用いられている正規化に基づく手法が,誤った問題に悩まされていることを論じる。
実損失の局所的特徴に基づく2段階学習手法を提案する。
ドメイン適応とより困難な言語適応タスクについて実験を行い,実験結果から本手法が大幅な改善を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-11-03T01:21:10Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - MetaComp: Learning to Adapt for Online Depth Completion [47.2074274233496]
本稿では,学習段階の適応ポリシーをシミュレートし,自己教師型テストで新しい環境に適応するメタコンプションを提案する。
入力がマルチモーダルデータであることを考えると、モデルを2つのモーダルのバリエーションに同時に適応させることは困難である。
実験結果と包括的改善により,MetaComp は新たな環境における深度補正に効果的に適応でき,異なるモーダル変化に頑健であることが示唆された。
論文 参考訳(メタデータ) (2022-07-21T17:30:37Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - Focus on Semantic Consistency for Cross-domain Crowd Understanding [34.560447389853614]
いくつかのドメイン適応アルゴリズムは、合成データでモデルをトレーニングすることでそれを解放しようとする。
その結果,背景領域における推定誤差が既存手法の性能を阻害していることが判明した。
本稿では,ドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。