論文の概要: Detail-aware multi-view stereo network for depth estimation
- arxiv url: http://arxiv.org/abs/2503.23684v1
- Date: Mon, 31 Mar 2025 03:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:35:24.130034
- Title: Detail-aware multi-view stereo network for depth estimation
- Title(参考訳): 深度推定のための細部認識多視点ステレオネットワーク
- Authors: Haitao Tian, Junyang Li, Chenxing Wang, Helong Jiang,
- Abstract要約: 粗大なフレームワークを用いた細部対応多視点ステレオネットワーク(DA-MVSNet)を提案する。
粗い段階で隠された幾何学的深さの手がかりを用いて、幾何学的構造関係を維持する。
DTU と Tanks & Temples のデータセットを用いた実験により,本手法が競争力を発揮することを示す。
- 参考スコア(独自算出の注目度): 4.8203572077041335
- License:
- Abstract: Multi-view stereo methods have achieved great success for depth estimation based on the coarse-to-fine depth learning frameworks, however, the existing methods perform poorly in recovering the depth of object boundaries and detail regions. To address these issues, we propose a detail-aware multi-view stereo network (DA-MVSNet) with a coarse-to-fine framework. The geometric depth clues hidden in the coarse stage are utilized to maintain the geometric structural relationships between object surfaces and enhance the expressive capability of image features. In addition, an image synthesis loss is employed to constrain the gradient flow for detailed regions and further strengthen the supervision of object boundaries and texture-rich areas. Finally, we propose an adaptive depth interval adjustment strategy to improve the accuracy of object reconstruction. Extensive experiments on the DTU and Tanks & Temples datasets demonstrate that our method achieves competitive results. The code is available at https://github.com/wsmtht520-/DAMVSNet.
- Abstract(参考訳): 多視点ステレオ手法は、粗大な深度学習フレームワークに基づく深度推定において大きな成功を収めているが、既存の手法は物体境界の深さと細部領域の復元にはあまり役に立たない。
これらの問題に対処するために,粗大なフレームワークを用いた細部対応多視点ステレオネットワーク(DA-MVSNet)を提案する。
粗い段階で隠された幾何学的深度手がかりを用いて、物体表面間の幾何学的構造的関係を維持し、画像特徴の表現能力を高める。
さらに、詳細な領域の勾配流を抑え、オブジェクト境界とテクスチャリッチな領域の監督を強化するために、画像合成損失を用いる。
最後に,物体再構成の精度を向上させるため,適応的な深度間隔調整手法を提案する。
DTU と Tanks & Temples のデータセットに関する大規模な実験により,本手法が競争力を発揮することを示す。
コードはhttps://github.com/wsmtht520-/DAMVSNetで公開されている。
関連論文リスト
- Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
グローバルおよび詳細な幾何学的特徴を別々に扱うことにより、高品質な深度マップ再構築プロセスを分離する。
我々の解は、幾何的整合性と詳細回復の観点から、現在の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - Depth-guided Texture Diffusion for Image Semantic Segmentation [47.46257473475867]
本稿では,この課題を効果的に解決するディープスガイド型テクスチャ拡散手法を提案する。
本手法は,テクスチャ画像を作成するために,エッジやテクスチャから低レベル特徴を抽出する。
この拡張深度マップを元のRGB画像と結合した特徴埋め込みに統合することにより,深度マップと画像との相違を効果的に橋渡しする。
論文 参考訳(メタデータ) (2024-08-17T04:55:03Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - V-FUSE: Volumetric Depth Map Fusion with Long-Range Constraints [6.7197802356130465]
本稿では,Multi-View Stereo(MVS)アルゴリズムによって生成された深度マップと信頼マップのセットを入力として受け入れ,改良する学習ベースの深度マップ融合フレームワークを提案する。
また、各線に沿った深度仮説探索空間を減らすために、より大きな融合サブネットワークと共に訓練された深度探索ウィンドウ推定サブネットワークを導入する。
本手法は,データから直接,深度コンセンサスと可視性制約の違反をモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-08-17T00:39:56Z) - Constraining Depth Map Geometry for Multi-View Stereo: A Dual-Depth
Approach with Saddle-shaped Depth Cells [23.345139129458122]
同じ深度予測誤差を用いても、異なる深度ジオメトリには大きな性能ギャップがあることが示される。
サドル形状のセルからなる理想的な深度幾何学を導入し, 予測深度マップは地表面を上下に振動する。
また,本手法は,MVSにおける深度幾何学の新たな研究方向を示す。
論文 参考訳(メタデータ) (2023-07-18T11:37:53Z) - Visual Attention-based Self-supervised Absolute Depth Estimation using
Geometric Priors in Autonomous Driving [8.045833295463094]
空間的注意とチャネルの注意をすべてのステージに適用する,完全に視覚的注意に基づく奥行き(VADepth)ネットワークを導入する。
VADepthネットワークは、空間的およびチャネル的次元に沿った特徴の依存関係を長距離にわたって連続的に抽出することにより、重要な詳細を効果的に保存することができる。
KITTIデータセットの実験結果は、このアーキテクチャが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2022-05-18T08:01:38Z) - Struct-MDC: Mesh-Refined Unsupervised Depth Completion Leveraging
Structural Regularities from Visual SLAM [1.8899300124593648]
特徴量に基づく視覚的同時位置決めとマッピング法(SLAM)は,抽出した特徴量の深さのみを推定する。
スパース深度から密集深度を推定する深度完了タスクは、探索のようなロボット応用において重要な役割を担っている。
この問題に対処するためのメッシュ深度改善(MDR)モジュールを提案する。
Struct-MDCは、公開およびカスタムデータセット上で、他の最先端アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2022-04-29T04:29:17Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。