論文の概要: OASIS-DC: Generalizable Depth Completion via Output-level Alignment of Sparse-Integrated Monocular Pseudo Depth
- arxiv url: http://arxiv.org/abs/2602.01268v1
- Date: Sun, 01 Feb 2026 14:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.685019
- Title: OASIS-DC: Generalizable Depth Completion via Output-level Alignment of Sparse-Integrated Monocular Pseudo Depth
- Title(参考訳): OASIS-DC: Sparse-Integrated Monocular Pseudo Depthの出力レベルアライメントによる一般化可能な深さ補完
- Authors: Jaehyeon Cho, Jhonghyun An,
- Abstract要約: 最近の基礎モデルはゼロショット深度推定で優れているが、その出力はメートル法よりも本質的に相対的である。
比較的深度が大域的なレイアウトや境界を保っているという事実を活用し, 疎範囲測定で校正する。
精度の低いラベル付きサンプルから精度の高い測定値の予測が可能となるように,事前の信頼性に追従する改良ネットワークを設計する。
- 参考スコア(独自算出の注目度): 1.4896509623302834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent monocular foundation models excel at zero-shot depth estimation, yet their outputs are inherently relative rather than metric, limiting direct use in robotics and autonomous driving. We leverage the fact that relative depth preserves global layout and boundaries: by calibrating it with sparse range measurements, we transform it into a pseudo metric depth prior. Building on this prior, we design a refinement network that follows the prior where reliable and deviates where necessary, enabling accurate metric predictions from very few labeled samples. The resulting system is particularly effective when curated validation data are unavailable, sustaining stable scale and sharp edges across few-shot regimes. These findings suggest that coupling foundation priors with sparse anchors is a practical route to robust, deployment-ready depth completion under real-world label scarcity.
- Abstract(参考訳): 最近のモノクラー基礎モデルはゼロショット深度推定において優れているが、その出力はメートル法よりも本質的に相対的であり、ロボット工学や自律運転において直接の使用を制限する。
相対深度はグローバルなレイアウトと境界を保ち、疎距離測定でキャリブレーションすることで、それ以前の擬似距離深度に変換する。
この先行して構築された改良ネットワークは,信頼性の低い先を追従し,必要な時を逸脱し,非常に少ないラベル付きサンプルから正確な測定精度の予測を可能にする。
得られたシステムは、キュレートされたバリデーションデータが利用できない場合に特に有効であり、安定なスケールと鋭いエッジを数発のレギュレーションで維持する。
これらの結果から, スパースアンカーとの結合基盤は, 実世界のラベル不足下での, 堅牢で展開可能な奥行き完了への実践的な経路であることが示唆された。
関連論文リスト
- Depth Anything with Any Prior [64.39991799606146]
Prior Depth Anythingは、深さ測定における不完全だが正確な計量情報と深さ予測における相対的だが完全な幾何学的構造を組み合わせたフレームワークである。
本研究では, 単眼深度推定(MDE)モデルを構築し, 深度推定の固有ノイズを改良する。
われわれのモデルは、7つの現実世界のデータセットにまたがる深度補完、超高解像度、インパインティングという、印象的なゼロショットの一般化を見せている。
論文 参考訳(メタデータ) (2025-05-15T17:59:50Z) - SharpDepth: Sharpening Metric Depth Predictions Using Diffusion Distillation [17.88798247412388]
SharpDepthは、識別深度推定法の計量精度と、生成法によって通常達成されるきめ細かい境界シャープネスを組み合わせている。
我々の手法は、距離精度と詳細な境界保存を統合することでこれらの制限を橋渡しし、計量的精度と視覚的シャープさの両方の深さ予測をもたらす。
論文 参考訳(メタデータ) (2024-11-27T11:07:27Z) - TanDepth: Leveraging Global DEMs for Metric Monocular Depth Estimation in UAVs [5.6168844664788855]
本研究は,推定時間における相対的推定から距離深度を求めるための実用的スケール回復手法であるTanDepthを提示する。
提案手法は,GDEM(Global Digital Elevation Models)のスパース計測をカメラビューに投影することで活用する。
推定深度マップから接地点を選択して、投影された基準点と相関するクラスフィルタシミュレーションへの適応を示す。
論文 参考訳(メタデータ) (2024-09-08T15:54:43Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - Do More With What You Have: Transferring Depth-Scale from Labeled to Unlabeled Domains [43.16293941978469]
自己教師付き深度推定器は、ドメイン全体の絶対深度値と線形に相関する大規模予測をもたらす。
トレーニング前の2つのデータセットのフィールド・オブ・ビューの整合性は、両方のドメインに共通な線形関係をもたらすことを示す。
観測された特性を用いて、絶対深度ラベルを持つソースデータセットから、これらの測定を欠いた新しいターゲットデータセットへ、深度スケールを転送する。
論文 参考訳(メタデータ) (2023-03-14T07:07:34Z) - Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular Depth Estimation [42.19770683222846]
単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
本稿では,密集した合成データから深度エッジの位置を検出することを提案する。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - DESC: Domain Adaptation for Depth Estimation via Semantic Consistency [24.13837264978472]
単眼深度推定モデルの訓練のための領域適応手法を提案する。
セマンティックな予測と低レベルのエッジ機能を活用することで、ドメインギャップを埋める。
本手法は,単眼深度推定のための標準領域適応ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2020-09-03T10:54:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。