論文の概要: ProbeMDE: Uncertainty-Guided Active Proprioception for Monocular Depth Estimation in Surgical Robotics
- arxiv url: http://arxiv.org/abs/2512.11773v3
- Date: Thu, 22 Jan 2026 17:44:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.311621
- Title: ProbeMDE: Uncertainty-Guided Active Proprioception for Monocular Depth Estimation in Surgical Robotics
- Title(参考訳): ProbeMDE:オペティカルロボティクスにおける単眼深度推定のための不確かさ誘導型アクティブプロプライオセプション
- Authors: Britton Jordan, Jordan Thompson, Jesse F. d'Almeida, Hao Li, Nithesh Kumar, Susheela Sharma Stern, James Ferguson, Ipek Oguz, Robert J. Webster, Daniel Brown, Alan Kuntz,
- Abstract要約: 本稿では,RGB画像とスパースプロバイオセプティブ計測を組み合わせた費用対効果を考慮した能動センシングフレームワークProbeMDEを提案する。
提案手法はMDEモデルのアンサンブルを用いて,RGB画像と既知深度測定のスパースセットに条件付き密集深度マップを推定する。
中枢気道閉塞外科ファントムのシミュレーションおよび物理実験において本法の有効性を検証した。
- 参考スコア(独自算出の注目度): 6.233715009617342
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Monocular depth estimation (MDE) provides a useful tool for robotic perception, but its predictions are often uncertain and inaccurate in challenging environments such as surgical scenes where textureless surfaces, specular reflections, and occlusions are common. To address this, we propose ProbeMDE, a cost-aware active sensing framework that combines RGB images with sparse proprioceptive measurements for MDE. Our approach utilizes an ensemble of MDE models to predict dense depth maps conditioned on both RGB images and on a sparse set of known depth measurements obtained via proprioception, where the robot has touched the environment in a known configuration. We quantify predictive uncertainty via the ensemble's variance and measure the gradient of the uncertainty with respect to candidate measurement locations. To prevent mode collapse while selecting maximally informative locations to propriocept (touch), we leverage Stein Variational Gradient Descent (SVGD) over this gradient map. We validate our method in both simulated and physical experiments on central airway obstruction surgical phantoms. Our results demonstrate that our approach outperforms baseline methods across standard depth estimation metrics, achieving higher accuracy while minimizing the number of required proprioceptive measurements. Project page: https://brittonjordan.github.io/probe_mde/
- Abstract(参考訳): 単眼深度推定(MDE)は、ロボットの知覚に有用なツールであるが、その予測は、テクスチャレス表面、特異反射、オクルージョンが一般的である手術シーンのような困難な環境において、しばしば不確かで不正確である。
そこで本稿では,RGB画像とMDEのための疎プロバイオセプティヴな計測値を組み合わせた,費用対効果を考慮したアクティブセンシングフレームワークProbeMDEを提案する。
提案手法では,MDEモデルのアンサンブルを用いて,RGB画像と,ロボットが環境に触れたプロピオセプションによって得られた未知の深度測定のスパースセットに基づいて,密集した深度マップを推定する。
我々は,アンサンブルの分散による予測の不確実性を定量化し,その不確実性の勾配を推定位置に対して測定する。
この勾配図上では,最大情報的位置をプロプリセプション(タッチ)に選択しながらモード崩壊を防止するために,Stein Variational Gradient Descent (SVGD) を利用する。
中枢気道閉塞外科ファントムのシミュレーションおよび物理実験において本法の有効性を検証した。
以上の結果から,本手法は標準深度推定指標のベースライン法より優れており,必要なプロテアーゼ測定回数を最小限に抑えつつ高い精度を実現していることが示された。
プロジェクトページ: https://brittonjordan.github.io/probe_mde/
関連論文リスト
- StarryGazer: Leveraging Monocular Depth Estimation Models for Domain-Agnostic Single Depth Image Completion [56.28564075246147]
StarryGazerは、単一のスパース深度画像とRGB画像から高密度深度画像を予測するフレームワークである。
我々は、相対深度画像を生成するために、事前訓練されたMDEモデルを用いる。
モデルの精度とロバスト性を改善するために、相対深度マップとRGBイメージを組み込んだ合成ペアを用いて改良ネットワークを訓練する。
論文 参考訳(メタデータ) (2025-12-15T09:56:09Z) - Geometry-Aware Sparse Depth Sampling for High-Fidelity RGB-D Depth Completion in Robotic Systems [0.20999222360659608]
RGB-Dとステレオビジョンセンサーは、操作、検査、ナビゲーションを行う産業用ロボットシステムに広く使われている。
現在の深度補完法は、センサの限界と環境条件によりノイズ、不完全、あるいは偏りのある深度マップを生成する。
そこで本研究では,RGB-D点クラウド上でのPCAに基づく表面正規分布推定を利用して,画素毎の深度信頼性を算出した正規誘導型スパースサンプリング手法を提案する。
実験により、我々の幾何学的認識されたスパース深度は精度を向上し、エッジや不連続に近いアーティファクトを削減し、より現実的なトレーニング条件を生成することが示された。
論文 参考訳(メタデータ) (2025-12-09T04:14:05Z) - GeoDiff: Geometry-Guided Diffusion for Metric Depth Estimation [25.50613737995557]
本稿では,立体視誘導を用いた拡散型単分子深度推定(DB-MDE)モデルの改良を目的とした,距離深度推定のための新しいフレームワークを提案する。
トレーニングフリーのソリューションは既存のDB-MDEフレームワークとシームレスに統合され、屋内、屋外、複雑な環境にまたがって一般化されます。
論文 参考訳(メタデータ) (2025-10-21T04:47:36Z) - Zero-Shot Metric Depth Estimation via Monocular Visual-Inertial Rescaling for Autonomous Aerial Navigation [6.996435353737172]
本稿では,単分子RGB画像と慣性測定ユニット(IMU)から距離深度を予測する手法を提案する。
スパース3次元特徴写像を用いて相対深度推定から距離深度を求めるための軽量ゼロショット再スケーリング手法を提案する。
提案手法を移動プリミティブベースプランナと統合した後, 衝突回避効果を示す。
論文 参考訳(メタデータ) (2025-09-09T21:39:13Z) - Revisiting Gradient-based Uncertainty for Monocular Depth Estimation [10.502852645001882]
単分子深度推定モデルに対する勾配に基づく不確実性推定を導入する。
我々は,本手法が再トレーニングを伴わずに不確実性を決定するのに有効であることを実証した。
特に、単分子配列で訓練されたモデルにおいて、最も不確実性が高いため、本手法は関連するアプローチよりも優れる。
論文 参考訳(メタデータ) (2025-02-09T17:21:41Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - Balanced Depth Completion between Dense Depth Inference and Sparse Range
Measurements via KISS-GP [14.158132769768578]
密集した正確な深度マップを推定することは、自動運転とロボット工学にとって重要な要件である。
近年のディープラーニングの進歩により、単一の画像から全解像度での深度推定が可能になった。
この驚くべき結果にもかかわらず、多くのディープラーニングベースの単眼深度推定アルゴリズムは、その精度をメーターレベルの推定誤差に保たない。
論文 参考訳(メタデータ) (2020-08-12T08:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。