論文の概要: UnCLe: Unsupervised Continual Learning of Depth Completion
- arxiv url: http://arxiv.org/abs/2410.18074v1
- Date: Wed, 23 Oct 2024 17:56:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:56:47.696845
- Title: UnCLe: Unsupervised Continual Learning of Depth Completion
- Title(参考訳): UnCLe:Depth Completionの教師なし継続的学習
- Authors: Suchisrit Gangopadhyay, Xien Chen, Michael Chu, Patrick Rim, Hyoungseob Park, Alex Wong,
- Abstract要約: UnCLeはマルチモーダル深度推定タスクの教師なし連続学習のための標準ベンチマークである。
連続したデータストリーム上の教師なし学習の実践シナリオ下で、深度補完モデルをベンチマークする。
- 参考スコア(独自算出の注目度): 5.677777151863184
- License:
- Abstract: We propose UnCLe, a standardized benchmark for Unsupervised Continual Learning of a multimodal depth estimation task: Depth completion aims to infer a dense depth map from a pair of synchronized RGB image and sparse depth map. We benchmark depth completion models under the practical scenario of unsupervised learning over continuous streams of data. Existing methods are typically trained on a static, or stationary, dataset. However, when adapting to novel non-stationary distributions, they "catastrophically forget" previously learned information. UnCLe simulates these non-stationary distributions by adapting depth completion models to sequences of datasets containing diverse scenes captured from distinct domains using different visual and range sensors. We adopt representative methods from continual learning paradigms and translate them to enable unsupervised continual learning of depth completion. We benchmark these models for indoor and outdoor and investigate the degree of catastrophic forgetting through standard quantitative metrics. Furthermore, we introduce model inversion quality as an additional measure of forgetting. We find that unsupervised continual learning of depth completion is an open problem, and we invite researchers to leverage UnCLe as a development platform.
- Abstract(参考訳): マルチモーダル深度推定タスクの教師なし連続学習のための標準ベンチマークUnCLeを提案する: 深度補完は、一対の同期RGB画像とスパース深度マップから高密度深度マップを推論することを目的としている。
連続したデータストリーム上の教師なし学習の実践シナリオ下で、深度補完モデルをベンチマークする。
既存のメソッドは通常、静的または定常的なデータセットでトレーニングされる。
しかし、新しい非定常分布に適応すると、彼らは以前に学んだ情報を「破滅的に忘れる」。
UnCLeは、異なる視覚と範囲のセンサーを使用して異なるドメインからキャプチャされた多様なシーンを含むデータセットのシーケンスに深度補完モデルを適用することで、これらの非定常分布をシミュレートする。
我々は、連続学習パラダイムから代表的手法を採用し、それらを翻訳し、教師なしの深度学習を可能にする。
室内および屋外においてこれらのモデルをベンチマークし、標準的な定量的指標を用いて破滅的忘れの程度について検討する。
さらに, モデルインバージョンの品質を, 忘れる余分な尺度として導入する。
また,UnCLeを開発プラットフォームとして活用するよう研究者に求めた。
関連論文リスト
- Continual Learning of Unsupervised Monocular Depth from Videos [19.43053045216986]
連続的教師なし深度推定(CUDE)の課題を捉える枠組みを導入する。
本稿では,時間的整合性を利用したリハーサルベースのデュアルメモリ手法MonoDepthCLを提案する。
論文 参考訳(メタデータ) (2023-11-04T12:36:07Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - DEUX: Active Exploration for Learning Unsupervised Depth Perception [8.044217507775999]
我々は,学習深度完了のための能動的,タスクインフォームドな深度不確実性に基づく運動計画手法を開発した。
提案手法は,ロボット学習に基づく深度推定の統合に関する新たな洞察を提供するとともに,ゼロショットの一般化をさらに改善することを示す。
論文 参考訳(メタデータ) (2023-09-16T23:33:15Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Toward Practical Self-Supervised Monocular Indoor Depth Estimation [17.222362224649544]
自己監督型単眼深度推定法は, 見えない屋内のシーンによく当てはまらない。
本研究では, 既訓練深度推定器からクナックを学習する構造蒸留手法を提案する。
左右の整合性からメトリクスを学習する自己監督ブランチと蒸留を組み合わせることで、一般的な屋内シーンの構造化とメートル法深度が得られる。
論文 参考訳(メタデータ) (2021-12-04T11:02:56Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。