論文の概要: Iterative Geometry Encoding Volume for Stereo Matching
- arxiv url: http://arxiv.org/abs/2303.06615v2
- Date: Tue, 14 Mar 2023 08:39:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 11:19:21.709627
- Title: Iterative Geometry Encoding Volume for Stereo Matching
- Title(参考訳): ステレオマッチングのための反復幾何符号化ボリューム
- Authors: Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang
- Abstract要約: IGEV-Stereoは、ジオメトリとコンテキスト情報をエンコードするボリュームと、局所的なマッチングの詳細を組み合わせたジオメトリを構築する。
IGEV-Stereoは、KITTI 2015と2012(Reflective)で1位であり、トップ10のメソッドの中では最速です。
IGEVをマルチビューステレオ(MVS)に拡張して,DTUベンチマーク上での競合精度を実現する。
- 参考スコア(独自算出の注目度): 4.610675756857714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent All-Pairs Field Transforms (RAFT) has shown great potentials in
matching tasks. However, all-pairs correlations lack non-local geometry
knowledge and have difficulties tackling local ambiguities in ill-posed
regions. In this paper, we propose Iterative Geometry Encoding Volume
(IGEV-Stereo), a new deep network architecture for stereo matching. The
proposed IGEV-Stereo builds a combined geometry encoding volume that encodes
geometry and context information as well as local matching details, and
iteratively indexes it to update the disparity map. To speed up the
convergence, we exploit GEV to regress an accurate starting point for ConvGRUs
iterations. Our IGEV-Stereo ranks $1^{st}$ on KITTI 2015 and 2012 (Reflective)
among all published methods and is the fastest among the top 10 methods. In
addition, IGEV-Stereo has strong cross-dataset generalization as well as high
inference efficiency. We also extend our IGEV to multi-view stereo (MVS), i.e.
IGEV-MVS, which achieves competitive accuracy on DTU benchmark. Code is
available at https://github.com/gangweiX/IGEV.
- Abstract(参考訳): Recurrent All-Pairs Field Transforms (RAFT) は、マッチングタスクに大きな可能性を示している。
しかしながら、全ペア相関は非局所幾何学的知識を欠き、不適切な領域における局所曖昧性に取り組むのに苦労している。
本稿では,ステレオマッチングのための新しいディープネットワークアーキテクチャである反復幾何符号化ボリューム(igev-stereo)を提案する。
提案する igev-stereo は、ジオメトリとコンテキスト情報と局所マッチングの詳細をエンコードする複合幾何符号化ボリュームを構築し、それを反復インデックス化して不一致マップを更新する。
収束を高速化するため、我々はGEVを利用して、ConvGRUsイテレーションの正確な開始点を回帰する。
われわれのigev-stereoは、2015年と2012年(反射的)のkittiで$1^{st}$をランク付けし、トップ10のメソッドの中で最速である。
さらにIGEV-Stereoは強力なクロスデータセットの一般化と高い推論効率を持つ。
また、IGEVをマルチビューステレオ(MVS)、すなわちIGEV-MVSに拡張し、DTUベンチマーク上で競合精度を達成する。
コードはhttps://github.com/gangweiX/IGEVで入手できる。
関連論文リスト
- CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - IGEV++: Iterative Multi-range Geometry Encoding Volumes for Stereo Matching [7.859381791267791]
ステレオマッチングのための新しいディープネットワークアーキテクチャIGEV++を提案する。
提案したIGEV++は,不測領域の粗粒度形状情報をエンコードするMGEV(Multi-range Geometry Volumes)を構築する。
適応的なパッチマッチングモジュールを導入し、大きな不均等領域や不整合領域のマッチングコストを効率的に計算する。
論文 参考訳(メタデータ) (2024-09-01T07:02:36Z) - GAReT: Cross-view Video Geolocalization with Adapters and Auto-Regressive Transformers [53.80009458891537]
クロスビュービデオのジオローカライゼーションは、ストリートビュービデオからGPSトラジェクトリを空中ビュー画像と整列させることを目的としている。
現在のCVGL法では、現実のシナリオでは一般的に欠落しているカメラとオドメトリーのデータを使用する。
本稿では,カメラやオドメトリーデータを必要としないCVGLのフルトランスフォーマ方式であるGAReTを提案する。
論文 参考訳(メタデータ) (2024-08-05T21:29:33Z) - Real-Time 3D Occupancy Prediction via Geometric-Semantic Disentanglement [8.592248643229675]
運転予測は自律運転(AD)において重要な役割を担っている
既存の手法はしばしば高い計算コストを発生させるが、これはADのリアルタイム要求と矛盾する。
ハイブリッドBEV-Voxel表現を用いた幾何学的意味的デュアルブランチネットワーク(GSDBN)を提案する。
論文 参考訳(メタデータ) (2024-07-18T04:46:13Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - CGI-Stereo: Accurate and Real-Time Stereo Matching via Context and
Geometry Interaction [8.484952030063114]
CGI-Stereoは、リアルタイムパフォーマンス、最先端の精度、強力な一般化能力の同時実行が可能な、新しいニューラルネットワークアーキテクチャである。
CGI-Stereoの中核はContext and Geometry Fusionブロックであり、コンテキストと幾何学情報を適応的に融合する。
提案したCGFは、既存の多くのステレオマッチングネットワークに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2023-01-07T06:28:04Z) - RIAV-MVS: Recurrent-Indexing an Asymmetric Volume for Multi-View Stereo [20.470182157606818]
「学習から最適化」パラダイムは、平面スウィーピングコストボリュームを反復的にインデックス化し、畳み込みGated Recurrent Unit(GRU)を介して深度マップを回帰する。
実世界のMVSデータセットについて広範な実験を行い、本手法が内部データセット評価とクロスデータセット一般化の両方の観点から最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-05-28T03:32:56Z) - IterMVS: Iterative Probability Estimation for Efficient Multi-View
Stereo [71.84742490020611]
IterMVSは高解像度マルチビューステレオのための新しいデータ駆動方式である。
隠れ状態の深さの画素単位の確率分布を符号化するGRUに基づく新しい推定器を提案する。
DTU, タンク&テンプル, ETH3Dにおける本手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2021-12-09T18:58:02Z) - PVStereo: Pyramid Voting Module for End-to-End Self-Supervised Stereo
Matching [14.603116313499648]
本稿では,ピラミッド投票モジュール(PVM)と,OptStereoと呼ばれる新しいDCNNアーキテクチャからなる,堅牢で効果的な自己監督型ステレオマッチング手法を提案する。
具体的には、OptStereoは最初にマルチスケールのコストボリュームを構築し、その後、繰り返し単位を採用し、高分解能で不一致推定を反復的に更新します。
hkust-driveデータセット(大規模な合成ステレオデータセット)を、異なる照明条件と気象条件下で研究目的で収集した。
論文 参考訳(メタデータ) (2021-03-12T05:27:14Z) - Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency
Checking [54.58791377183574]
1)DRENet(Dense Reception Expanded)モジュールで,原サイズの密集した特徴マップをマルチスケールのコンテキスト情報で抽出し,2)HU-LSTM(Hybrid U-LSTM)を用いて3次元マッチングボリュームを予測深度マップに変換する。
R-MVSNetのメモリ消費は19.4%しかかからないが,本手法は最先端の手法と競合する性能を示し,メモリ消費を劇的に削減する。
論文 参考訳(メタデータ) (2020-07-21T14:59:59Z) - AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching [50.06646151004375]
AdaStereoと呼ばれる新しいドメイン適応パイプラインは、ディープステレオマッチングネットワークにマルチレベル表現をアライメントすることを目的としている。
我々のAdaStereoモデルは、KITTI、Middlebury、ETH3D、DrivingStereoなど、複数のステレオベンチマークで最先端のクロスドメインパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-04-09T16:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。