論文の概要: Visibility-aware Multi-view Stereo Network
- arxiv url: http://arxiv.org/abs/2008.07928v2
- Date: Wed, 19 Aug 2020 02:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:39:20.113572
- Title: Visibility-aware Multi-view Stereo Network
- Title(参考訳): 可視性を考慮したマルチビューステレオネットワーク
- Authors: Jingyang Zhang, Yao Yao, Shiwei Li, Zixin Luo, Tian Fang
- Abstract要約: 本稿では,MVSネットワークにおける画素単位のオクルージョン情報を一致不確実性推定により明示的に推測し,統合する。
提案するフレームワークであるVis-MVSNetは,シーンの深度精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 27.235024129903035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based multi-view stereo (MVS) methods have demonstrated promising
results. However, very few existing networks explicitly take the pixel-wise
visibility into consideration, resulting in erroneous cost aggregation from
occluded pixels. In this paper, we explicitly infer and integrate the
pixel-wise occlusion information in the MVS network via the matching
uncertainty estimation. The pair-wise uncertainty map is jointly inferred with
the pair-wise depth map, which is further used as weighting guidance during the
multi-view cost volume fusion. As such, the adverse influence of occluded
pixels is suppressed in the cost fusion. The proposed framework Vis-MVSNet
significantly improves depth accuracies in the scenes with severe occlusion.
Extensive experiments are performed on DTU, BlendedMVS, and Tanks and Temples
datasets to justify the effectiveness of the proposed framework.
- Abstract(参考訳): 学習型マルチビューステレオ(MVS)手法は有望な結果を示した。
しかし、既存のネットワークではピクセル単位の可視性を考慮に入れていないため、無視されたピクセルからの誤ったコスト集約が生じる。
本稿では,MVSネットワークにおける画素単位のオクルージョン情報を一致不確実性推定により明示的に推測し,統合する。
対方向の不確実性マップは、対方向深度マップと共同で推測され、マルチビューコストボリューム融合の間、さらに重み付けガイダンスとして用いられる。
これにより、コスト融合において、オクルード画素の悪影響が抑制される。
提案するフレームワークであるVis-MVSNetは,シーンの深度精度を著しく向上させる。
DTU, BlendedMVS, Tanks and Temples のデータセットで大規模な実験を行い,提案フレームワークの有効性を正当化した。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - V-FUSE: Volumetric Depth Map Fusion with Long-Range Constraints [6.7197802356130465]
本稿では,Multi-View Stereo(MVS)アルゴリズムによって生成された深度マップと信頼マップのセットを入力として受け入れ,改良する学習ベースの深度マップ融合フレームワークを提案する。
また、各線に沿った深度仮説探索空間を減らすために、より大きな融合サブネットワークと共に訓練された深度探索ウィンドウ推定サブネットワークを導入する。
本手法は,データから直接,深度コンセンサスと可視性制約の違反をモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-08-17T00:39:56Z) - Rethinking Disparity: A Depth Range Free Multi-View Stereo Based on
Disparity [17.98608948955211]
既存の学習ベースのマルチビューステレオ(MVS)手法は、3Dコストボリュームを構築するために深さ範囲に依存している。
本稿では,DipMVSと呼ばれるエピポーラ分散フロー(E-flow)に基づく分散型MVS法を提案する。
本研究では、DipMVSは深さ範囲に敏感ではなく、GPUメモリを低くすることで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-30T11:05:02Z) - Decoupled-and-Coupled Networks: Self-Supervised Hyperspectral Image
Super-Resolution with Subpixel Fusion [67.35540259040806]
サブピクセルレベルのHS超解像フレームワークを提案する。
名前が示すように、DC-Netはまず入力を共通(またはクロスセンサー)とセンサー固有のコンポーネントに分離する。
我々は,CSUネットの裏側に自己教師付き学習モジュールを付加し,素材の整合性を保証し,復元されたHS製品の詳細な外観を向上する。
論文 参考訳(メタデータ) (2022-05-07T23:40:36Z) - PatchMVSNet: Patch-wise Unsupervised Multi-View Stereo for
Weakly-Textured Surface Reconstruction [2.9896482273918434]
本稿では,多視点画像の制約を活かしたロバストな損失関数を提案し,あいまいさを緩和する。
我々の戦略は任意の深さ推定フレームワークで実装することができ、任意の大規模MVSデータセットでトレーニングすることができる。
提案手法は,DTU,タンク・アンド・テンプル,ETH3Dなどの一般的なベンチマーク上での最先端手法の性能に達する。
論文 参考訳(メタデータ) (2022-03-04T07:05:23Z) - Uncertainty-Aware Deep Multi-View Photometric Stereo [100.97116470055273]
光度ステレオ(PS)は高周波表面の細部を復元するのに優れ、マルチビューステレオ(MVS)はPSによる低周波歪みを除去し、大域的な形状を維持するのに役立つ。
本稿では,PS と MVS の相補的強みを効果的に活用する手法を提案する。
我々は,不確実性を考慮したディープPSネットワークとディープMVSネットワークを用いて,画素ごとの表面の正規度と深さを推定する。
論文 参考訳(メタデータ) (2022-02-26T05:45:52Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Progressive Multi-scale Fusion Network for RGB-D Salient Object
Detection [9.099589602551575]
本稿では,いわゆるプログレッシブ・マルチスケール・フュージョン法の利点について論じ,マスク誘導型特徴集合モジュールを提案する。
提案フレームワークは,異なるモードの2つの特徴を効果的に組み合わせ,誤った深さ特徴の影響を軽減する。
さらに,マスク誘導型改良モジュール(MGRM)を導入し,高レベルの意味的特徴を補完し,マルチスケール融合から無関係な特徴を減らす。
論文 参考訳(メタデータ) (2021-06-07T20:02:39Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。