論文の概要: Learn to Adapt for Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2203.14005v1
- Date: Sat, 26 Mar 2022 06:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:09:34.637369
- Title: Learn to Adapt for Monocular Depth Estimation
- Title(参考訳): 単眼深度推定への適応を学ぶ
- Authors: Qiyu Sun, Gary G. Yen, Yang Tang, Chaoqiang Zhao
- Abstract要約: 逆深度推定タスクを提案し,メタラーニングのパイプラインでモデルを訓練する。
提案手法は,テスト手順中の数ステップのトレーニングの後,新しいデータセットに順応する。
- 参考スコア(独自算出の注目度): 17.887575611570394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation is one of the fundamental tasks in environmental
perception and has achieved tremendous progress in virtue of deep learning.
However, the performance of trained models tends to degrade or deteriorate when
employed on other new datasets due to the gap between different datasets.
Though some methods utilize domain adaptation technologies to jointly train
different domains and narrow the gap between them, the trained models cannot
generalize to new domains that are not involved in training. To boost the
transferability of depth estimation models, we propose an adversarial depth
estimation task and train the model in the pipeline of meta-learning. Our
proposed adversarial task mitigates the issue of meta-overfitting, since the
network is trained in an adversarial manner and aims to extract domain
invariant representations. In addition, we propose a constraint to impose upon
cross-task depth consistency to compel the depth estimation to be identical in
different adversarial tasks, which improves the performance of our method and
smoothens the training process. Experiments demonstrate that our method adapts
well to new datasets after few training steps during the test procedure.
- Abstract(参考訳): 単眼深度推定は環境認識における基本的な課題の1つであり、深層学習によって著しく進歩した。
しかしながら、トレーニングされたモデルのパフォーマンスは、異なるデータセット間のギャップのため、他の新しいデータセットで使用される場合、劣化するか劣化する傾向がある。
ドメイン適応技術を用いて、異なるドメインを共同で訓練し、それらのギャップを狭める方法もあるが、トレーニングに関わらない新しいドメインに一般化することはできない。
深度推定モデルの伝達可能性を高めるために,逆深度推定タスクを提案し,メタラーニングのパイプラインでモデルを訓練する。
提案課題は,ドメイン不変表現の抽出を目的とし,ネットワークを逆向きに訓練するため,メタオーバーフィッティングの問題を緩和するものである。
さらに,異なる敵タスクにおける深さ推定を同一にすることを強制するために,クロスタスクの深さ一貫性を課す制約を提案し,提案手法の性能を向上し,トレーニングプロセスを円滑化する。
実験により,本手法は試験手順中の数ステップの後に新しいデータセットに順応することを示した。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - DepthART: Monocular Depth Estimation as Autoregressive Refinement Task [2.3884184860468136]
本稿では,視覚的自己回帰変換器に基づく最初の自己回帰深度推定モデルを提案する。
我々の主な貢献は、Depth Autoregressive Refinement Taskとして定式化された新しいトレーニング手法であるDepthARTである。
実験により,提案手法は,奥行き推定タスクにおいて,次のスケールの予測によって視覚自己回帰モデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2024-09-23T13:36:34Z) - Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Continual Learning of Unsupervised Monocular Depth from Videos [19.43053045216986]
連続的教師なし深度推定(CUDE)の課題を捉える枠組みを導入する。
本稿では,時間的整合性を利用したリハーサルベースのデュアルメモリ手法MonoDepthCLを提案する。
論文 参考訳(メタデータ) (2023-11-04T12:36:07Z) - MetaComp: Learning to Adapt for Online Depth Completion [47.2074274233496]
本稿では,学習段階の適応ポリシーをシミュレートし,自己教師型テストで新しい環境に適応するメタコンプションを提案する。
入力がマルチモーダルデータであることを考えると、モデルを2つのモーダルのバリエーションに同時に適応させることは困難である。
実験結果と包括的改善により,MetaComp は新たな環境における深度補正に効果的に適応でき,異なるモーダル変化に頑健であることが示唆された。
論文 参考訳(メタデータ) (2022-07-21T17:30:37Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。