論文の概要: Any to Full: Prompting Depth Anything for Depth Completion in One Stage
- arxiv url: http://arxiv.org/abs/2603.05711v1
- Date: Thu, 05 Mar 2026 22:08:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.59541
- Title: Any to Full: Prompting Depth Anything for Depth Completion in One Stage
- Title(参考訳): 完ぺきに:1つのステージで奥行きを完了させる方法
- Authors: Zhiyuan Zhou, Ruofeng Liu, Taichi Liu, Weijian Zuo, Shanshan Wang, Zhiqing Hong, Desheng Zhang,
- Abstract要約: 既存のRGBDフューズド・ディープ・コンプリート法は、トレーニングRGB分布と特定のディープ・パターンを併用した事前条件を学習する。
近年の取り組みでは、単分子深度推定モデルを活用して、領域一般幾何学的前提を導入する。
本稿では,1段階,ドメイン一般,パターンに依存しないフレームワークであるAny2Fullについて述べる。
- 参考スコア(独自算出の注目度): 23.09070498141459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate, dense depth estimation is crucial for robotic perception, but commodity sensors often yield sparse or incomplete measurements due to hardware limitations. Existing RGBD-fused depth completion methods learn priors jointly conditioned on training RGB distribution and specific depth patterns, limiting domain generalization and robustness to various depth patterns. Recent efforts leverage monocular depth estimation (MDE) models to introduce domain-general geometric priors, but current two-stage integration strategies relying on explicit relative-to-metric alignment incur additional computation and introduce structured distortions. To this end, we present Any2Full, a one-stage, domain-general, and pattern-agnostic framework that reformulates completion as a scale-prompting adaptation of a pretrained MDE model. To address varying depth sparsity levels and irregular spatial distributions, we design a Scale-Aware Prompt Encoder. It distills scale cues from sparse inputs into unified scale prompts, guiding the MDE model toward globally scale-consistent predictions while preserving its geometric priors. Extensive experiments demonstrate that Any2Full achieves superior robustness and efficiency. It outperforms OMNI-DC by 32.2\% in average AbsREL and delivers a 1.4$\times$ speedup over PriorDA with the same MDE backbone, establishing a new paradigm for universal depth completion. Codes and checkpoints are available at https://github.com/zhiyuandaily/Any2Full.
- Abstract(参考訳): 正確な深度推定はロボットの知覚に不可欠であるが、コモディティセンサーはハードウェアの限界のためにスパースまたは不完全な測定を行うことが多い。
既存のRGBDフューズド・ディープ・コンプリート法は、RGB分布と特定のディープ・パターンの訓練により、様々なディープ・パターンに対するドメインの一般化とロバスト性を制限した事前条件を学習する。
近年の取り組みでは、単分子深度推定(MDE)モデルを用いて、一般の幾何学的先入観を導入したが、現在の2段階の統合戦略は、明示的な相対-距離アライメントによる追加計算と構造的歪みの導入に依存している。
この目的のために、事前訓練されたMDEモデルのスケール・プロンプト適応として、完了を再構成するワンステージ、ドメイン・ジェネラル、パターンに依存しないフレームワークであるAny2Fullを紹介します。
様々な深度空間分布と不規則な空間分布に対処するために,スケール・アウェア・プロンプト・エンコーダを設計する。
スパース入力からのスケールキューを統一されたスケールプロンプトに蒸留し、幾何学的先行性を維持しながら、世界規模でスケール一貫性のある予測に向けてMDEモデルを導く。
大規模な実験は、Any2Fullが優れた堅牢性と効率を達成することを示した。
これは平均的なAbsRELでOMNI-DCを32.2\%上回り、同じMDEバックボーンでOMNI-DCよりも1.4$\times$のスピードアップを提供し、普遍的な深度補完のための新しいパラダイムを確立している。
コードとチェックポイントはhttps://github.com/zhiyuandaily/Any2Full.comで入手できる。
関連論文リスト
- UDPNet: Unleashing Depth-based Priors for Robust Image Dehazing [77.10640210751981]
UDPNetは、大規模で事前訓練された深度推定モデルDepthAnything V2から深度に基づく事前情報を活用する一般的なフレームワークである。
提案手法は,様々なシナリオにまたがる深度認識デハージングのための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2026-01-11T13:29:02Z) - StarryGazer: Leveraging Monocular Depth Estimation Models for Domain-Agnostic Single Depth Image Completion [56.28564075246147]
StarryGazerは、単一のスパース深度画像とRGB画像から高密度深度画像を予測するフレームワークである。
我々は、相対深度画像を生成するために、事前訓練されたMDEモデルを用いる。
モデルの精度とロバスト性を改善するために、相対深度マップとRGBイメージを組み込んだ合成ペアを用いて改良ネットワークを訓練する。
論文 参考訳(メタデータ) (2025-12-15T09:56:09Z) - MT-Depth: Multi-task Instance feature analysis for the Depth Completion [0.0]
本稿では,2値のインスタンスマスクを空間的先行として明示的に統合し,深度予測を洗練させる,インスタンス対応深度補完フレームワークを提案する。
我々のモデルは,凍結したYOLO V11インスタンスセグメンテーションブランチ,U-Netベースの深度補完バックボーン,クロスアテンション融合モジュール,アテンション誘導予測ヘッドの4つの主要コンポーネントを組み合わせている。
提案手法をVirtual KITTI 2データセット上で検証した結果,U-Netのみのベースラインと,それ以前のセマンティック誘導方式と比較して,ルート平均正方形誤差(RMSE)が低いことがわかった。
論文 参考訳(メタデータ) (2025-12-04T12:17:33Z) - Occlusion Boundary and Depth: Mutual Enhancement via Multi-Task Learning [3.4174356345935393]
単一画像から深度とOBを共同で推定する手法であるMoDOTを提案する。
MoDOTにはCASMという新しいモジュールが組み込まれている。これは、クロスアテンションとマルチスケールストリップの畳み込みを組み合わせて、中レベルのOB機能を活用する。
実験では、深度とOBを相互に推定し、MoDOTの設計の有効性を検証する。
論文 参考訳(メタデータ) (2025-05-27T14:15:19Z) - Depth Anything with Any Prior [64.39991799606146]
Prior Depth Anythingは、深さ測定における不完全だが正確な計量情報と深さ予測における相対的だが完全な幾何学的構造を組み合わせたフレームワークである。
本研究では, 単眼深度推定(MDE)モデルを構築し, 深度推定の固有ノイズを改良する。
われわれのモデルは、7つの現実世界のデータセットにまたがる深度補完、超高解像度、インパインティングという、印象的なゼロショットの一般化を見せている。
論文 参考訳(メタデータ) (2025-05-15T17:59:50Z) - UniDepthV2: Universal Monocular Metric Depth Estimation Made Simpler [62.06785782635153]
ドメインをまたいだ単一の画像からメートル法3Dシーンを再構成できる新しいモデルUniDepthV2を提案する。
UniDepthV2は、追加情報なしで、入力画像から推論時にメートル法3Dポイントを直接予測する。
我々のモデルは擬似球面出力表現を利用し、カメラと深度表現をアンタングル化する。
論文 参考訳(メタデータ) (2025-02-27T14:03:15Z) - Progressive Depth Decoupling and Modulating for Flexible Depth Completion [28.693100885012008]
画像誘導深度補正は、疎LiDARデータとRGB画像から高密度深度マップを生成することを目的としている。
近年の手法では,2つのサブタスク(深度離散化と確率予測)で分類問題として再検討し,有望な性能を示した。
本研究では, 深度範囲をビンに漸進的に分離し, マルチスケールの深度マップを適応的に生成するプログレッシブ・ディープ・デカップリング・変調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-15T13:45:33Z) - Towards Domain-agnostic Depth Completion [28.25756709062647]
既存の深度補完法は、しばしば特定のスパース深度型を目標とし、タスク領域をまたいだ一般化が不十分である。
各種センサで得られたスパース/セミデンス,ノイズ,および低分解能深度マップを完備する手法を提案する。
本手法は,最先端の深度補完法に対して優れたクロスドメイン一般化能力を示す。
論文 参考訳(メタデータ) (2022-07-29T04:10:22Z) - Balanced Depth Completion between Dense Depth Inference and Sparse Range
Measurements via KISS-GP [14.158132769768578]
密集した正確な深度マップを推定することは、自動運転とロボット工学にとって重要な要件である。
近年のディープラーニングの進歩により、単一の画像から全解像度での深度推定が可能になった。
この驚くべき結果にもかかわらず、多くのディープラーニングベースの単眼深度推定アルゴリズムは、その精度をメーターレベルの推定誤差に保たない。
論文 参考訳(メタデータ) (2020-08-12T08:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。