論文の概要: IA-MVS: Instance-Focused Adaptive Depth Sampling for Multi-View Stereo
- arxiv url: http://arxiv.org/abs/2505.12714v1
- Date: Mon, 19 May 2025 05:11:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.416849
- Title: IA-MVS: Instance-Focused Adaptive Depth Sampling for Multi-View Stereo
- Title(参考訳): IA-MVS:マルチビューステレオのためのインスタンス焦点適応深さサンプリング
- Authors: Yinzhe Wang, Yiwen Xiao, Hu Wang, Yiping Xu, Yan Tian,
- Abstract要約: プログレッシブ深度仮説絞りに基づく多視点ステレオ(MVS)モデルは顕著な進歩を遂げた。
既存のメソッドでは、個々のインスタンスの深さカバレッジがシーン全体よりも小さいという可能性を十分に活用していません。
本稿では,インスタンス適応型MVS(IA-MVS)を提案する。
深度仮説の範囲を狭め、各インスタンスに精細化を施すことにより、深度推定の精度を高める。
- 参考スコア(独自算出の注目度): 4.804216403519042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-view stereo (MVS) models based on progressive depth hypothesis narrowing have made remarkable advancements. However, existing methods haven't fully utilized the potential that the depth coverage of individual instances is smaller than that of the entire scene, which restricts further improvements in depth estimation precision. Moreover, inevitable deviations in the initial stage accumulate as the process advances. In this paper, we propose Instance-Adaptive MVS (IA-MVS). It enhances the precision of depth estimation by narrowing the depth hypothesis range and conducting refinement on each instance. Additionally, a filtering mechanism based on intra-instance depth continuity priors is incorporated to boost robustness. Furthermore, recognizing that existing confidence estimation can degrade IA-MVS performance on point clouds. We have developed a detailed mathematical model for confidence estimation based on conditional probability. The proposed method can be widely applied in models based on MVSNet without imposing extra training burdens. Our method achieves state-of-the-art performance on the DTU benchmark. The source code is available at https://github.com/KevinWang73106/IA-MVS.
- Abstract(参考訳): プログレッシブ深度仮説絞りに基づく多視点ステレオ(MVS)モデルは顕著な進歩を遂げた。
しかし、既存の手法では、個々のインスタンスの深さカバレッジがシーン全体よりも小さい可能性を完全に活用していないため、深さ推定精度のさらなる改善が制限されている。
さらに、プロセスが進むにつれて、初期段階での避けられない偏差が蓄積される。
本稿では,インスタンス適応型MVS(IA-MVS)を提案する。
深度仮説の範囲を狭め、各インスタンスに精細化を施すことにより、深度推定の精度を高める。
また、インスタンス内深さ連続度に基づくフィルタリング機構を組み込んでロバスト性を高める。
さらに、既存の信頼度推定は、点雲上でのIA-MVS性能を低下させることができる。
我々は,条件付き確率に基づく信頼度推定のための詳細な数学的モデルを開発した。
提案手法は、余分な訓練負担を伴わずに、MVSNetに基づくモデルに広く適用することができる。
提案手法はDTUベンチマークにおける最先端性能を実現する。
ソースコードはhttps://github.com/KevinWang73106/IA-MVSで入手できる。
関連論文リスト
- Revisiting Gradient-based Uncertainty for Monocular Depth Estimation [10.502852645001882]
単分子深度推定モデルに対する勾配に基づく不確実性推定を導入する。
我々は,本手法が再トレーニングを伴わずに不確実性を決定するのに有効であることを実証した。
特に、単分子配列で訓練されたモデルにおいて、最も不確実性が高いため、本手法は関連するアプローチよりも優れる。
論文 参考訳(メタデータ) (2025-02-09T17:21:41Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Adaptive Fusion of Single-View and Multi-View Depth for Autonomous
Driving [22.58849429006898]
現在のマルチビュー深度推定法やシングルビューおよびマルチビュー融合法は、ノイズのあるポーズ設定で失敗する。
本稿では,高信頼度なマルチビューと単一ビューの結果を適応的に統合する単一ビュー・多ビュー融合深度推定システムを提案する。
本手法は,ロバストネス試験において,最先端のマルチビュー・フュージョン法より優れる。
論文 参考訳(メタデータ) (2024-03-12T11:18:35Z) - One at a Time: Progressive Multi-step Volumetric Probability Learning
for Reliable 3D Scene Perception [59.37727312705997]
本稿では,複雑な3次元ボリューム表現学習を生成段階の列に分解することを提案する。
強力な生成拡散モデルにより達成された最近の進歩を考えると、我々はVPDと呼ばれる多段階学習フレームワークを導入する。
SSCタスクでは、Semantic KITTIデータセット上でLiDARベースのメソッドを初めて越える作業として際立っている。
論文 参考訳(メタデータ) (2023-06-22T05:55:53Z) - A technique to jointly estimate depth and depth uncertainty for unmanned
aerial vehicles [11.725077632618879]
M4Depthは無人航空機(UAV)向けに設計された最先端の深度推定手法である。
関節深度と不確実性の推定を行うため,M4Depthをどのように拡張できるかを示す。
論文 参考訳(メタデータ) (2023-05-31T12:13:45Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - DS-MVSNet: Unsupervised Multi-view Stereo via Depth Synthesis [11.346448410152844]
本稿では,DS-MVSNetを提案する。DS-MVSNetは,ソース深度合成を備えたエンドツーエンドの教師なしMVS構造である。
確率体積の情報をマイニングするために、確率体積と深度仮説をソースビューにスプラッターすることで、ソース深度を創造的に合成する。
一方,ソース深度を利用して参照画像を描画し,奥行きの整合性損失と深さの滑らかさ損失を提案する。
論文 参考訳(メタデータ) (2022-08-13T15:25:51Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。