論文の概要: Lifelong-MonoDepth: Lifelong Learning for Multi-Domain Monocular Metric
Depth Estimation
- arxiv url: http://arxiv.org/abs/2303.05050v2
- Date: Mon, 14 Aug 2023 07:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 22:17:44.003208
- Title: Lifelong-MonoDepth: Lifelong Learning for Multi-Domain Monocular Metric
Depth Estimation
- Title(参考訳): Lifelong-MonoDepth:マルチドメイン単分子距離推定のための生涯学習
- Authors: Junjie Hu, Chenyou Fan, Liguang Zhou, Qing Gao, Honghai Liu, Tin Lun
Lam
- Abstract要約: 生涯学習アプローチは、モデルトレーニング、データストレージ、コレクションの観点から、大幅なコスト削減を提供する可能性がある。
RGB画像と深度マップの品質はセンサ依存であり、現実世界の深度マップはドメイン固有の特徴を示し、深度範囲のバリエーションをもたらす。
これらの課題は、ドメインギャップの小さい生涯学習シナリオと相対深度マップ推定に制限される。
- 参考スコア(独自算出の注目度): 24.74888757777775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancements in autonomous driving and robot navigation, there
is a growing demand for lifelong learning models capable of estimating metric
(absolute) depth. Lifelong learning approaches potentially offer significant
cost savings in terms of model training, data storage, and collection. However,
the quality of RGB images and depth maps is sensor-dependent, and depth maps in
the real world exhibit domain-specific characteristics, leading to variations
in depth ranges. These challenges limit existing methods to lifelong learning
scenarios with small domain gaps and relative depth map estimation. To
facilitate lifelong metric depth learning, we identify three crucial technical
challenges that require attention: i) developing a model capable of addressing
the depth scale variation through scale-aware depth learning, ii) devising an
effective learning strategy to handle significant domain gaps, and iii)
creating an automated solution for domain-aware depth inference in practical
applications. Based on the aforementioned considerations, in this paper, we
present i) a lightweight multi-head framework that effectively tackles the
depth scale imbalance, ii) an uncertainty-aware lifelong learning solution that
adeptly handles significant domain gaps, and iii) an online domain-specific
predictor selection method for real-time inference. Through extensive numerical
studies, we show that the proposed method can achieve good efficiency,
stability, and plasticity, leading the benchmarks by 8% to 15%.
- Abstract(参考訳): 自動運転とロボットナビゲーションの急速な進歩により、メートル法(絶対的)の深さを推定できる生涯学習モデルの需要が高まっている。
生涯学習のアプローチは、モデルトレーニング、データストレージ、収集といった面で大きなコスト削減をもたらす可能性がある。
しかし、RGB画像と深度マップの品質はセンサ依存であり、現実世界の深度マップはドメイン固有の特徴を示し、深度範囲のバリエーションをもたらす。
これらの課題は、ドメインギャップの小さい生涯学習シナリオと相対深度マップ推定に制限される。
生涯にわたるメートル法深度学習を促進するために、注意を要する3つの重要な技術的課題を特定します。
一 スケール認識深度学習により深度スケールの変動に対処できるモデルを開発すること。
二 重要な領域ギャップに対処する効果的な学習戦略を考案し、
三 実用分野におけるドメイン認識深層推論の自動化ソリューションの作成。
上記の考察に基づき,本論文で提示する。
一 深さ規模の不均衡に効果的に取り組む軽量の多頭フレームワーク
二 重要なドメイン間隙を適切に処理する不確実性に気を配る生涯学習ソリューション
三 リアルタイム推論のためのオンラインドメイン固有予測者選択方法
その結果,提案手法は高い効率,安定性,可塑性を達成でき,ベンチマークを8%から15%に向上させることができた。
関連論文リスト
- Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Hyperspectral Image Analysis in Single-Modal and Multimodal setting
using Deep Learning Techniques [1.2328446298523066]
ハイパースペクトルイメージングは、その例外的なスペクトル分解能のため、土地利用とカバーの正確な分類を提供する。
しかし、高次元化と空間分解能の制限による課題は、その効果を妨げている。
本研究では,深層学習技術を用いて特徴を効率的に処理し,抽出し,データを統合的に分類することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-03-03T15:47:43Z) - Depth-discriminative Metric Learning for Monocular 3D Object Detection [14.554132525651868]
本稿では,視覚的属性に関係なく,モデルが深度識別的特徴を抽出することを奨励する新しい計量学習手法を提案する。
本手法は, 各種ベースラインの性能を平均23.51%, 5.78%向上させる。
論文 参考訳(メタデータ) (2024-01-02T07:34:09Z) - ADU-Depth: Attention-based Distillation with Uncertainty Modeling for
Depth Estimation [11.92011909884167]
左右のイメージペアを入力として利用する教師ネットワークをトレーニングすることで,空間的手がかりを導入する。
注意適応型特徴蒸留と焦点深度適応型応答蒸留の両方をトレーニング段階で適用した。
実深度推定データセットKITTI と DrivingStereo に関する実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-09-26T08:12:37Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Unsupervised Domain Adaptation for Monocular 3D Object Detection via
Self-Training [57.25828870799331]
我々は、Mono3D上での教師なしドメイン適応のための新しい自己学習フレームワークSTMono3Dを提案する。
対象ドメイン上で適応的な擬似ラベルを生成するための教師学生パラダイムを開発する。
STMono3Dは、評価されたすべてのデータセットで顕著なパフォーマンスを達成し、KITTI 3Dオブジェクト検出データセットの完全な教師付き結果を超えています。
論文 参考訳(メタデータ) (2022-04-25T12:23:07Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Geometry Uncertainty Projection Network for Monocular 3D Object
Detection [138.24798140338095]
本稿では,予測および学習段階の誤り増幅問題に対処するために,幾何不確実性予測ネットワーク(GUP Net)を提案する。
具体的には, GUPモジュールを提案し, 推定深さの幾何誘導不確かさを求める。
トレーニング段階では,エラー増幅による不安定性を低減するための階層型タスク学習戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T06:59:07Z) - Approaches, Challenges, and Applications for Deep Visual Odometry:
Toward to Complicated and Emerging Areas [6.1102842961275226]
ビジュアル・オドメトリー(VO)は、相対的な局所化問題に対処する一般的な方法である。
ディープラーニングベースの手法は、効果的で堅牢な表現を自動的に学習することができる。
本稿では,ディープラーニングがVOシステムをどのように利益を上げ,最適化するかについて,深い洞察を得ることを目的としている。
論文 参考訳(メタデータ) (2020-09-06T08:25:23Z) - Meta-Gradient Reinforcement Learning with an Objective Discovered Online [54.15180335046361]
本稿では,深層ニューラルネットワークによって柔軟にパラメータ化される,自己目的のメタ段階的降下に基づくアルゴリズムを提案する。
目的はオンラインで発見されるため、時間とともに変化に適応することができる。
Atari Learning Environmentでは、メタグラディエントアルゴリズムが時間とともに適応して、より効率よく学習する。
論文 参考訳(メタデータ) (2020-07-16T16:17:09Z) - SPCNet:Spatial Preserve and Content-aware Network for Human Pose
Estimation [3.2540745519652434]
Dilated Hourglass Module(DHM)とSelective Information Module(SIM)の2つの有効モジュールを含む新しい空間保存・コンテンツ認識ネットワーク(SPCNet)を提案する。
特に,従来の手法を超越して,3つのベンチマークデータセットの最先端性能を実現している。
論文 参考訳(メタデータ) (2020-04-13T09:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。