論文の概要: Depth-aware Volume Attention for Texture-less Stereo Matching
- arxiv url: http://arxiv.org/abs/2402.08931v2
- Date: Mon, 26 Feb 2024 21:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:57:30.165868
- Title: Depth-aware Volume Attention for Texture-less Stereo Matching
- Title(参考訳): テクスチャレスステレオマッチングのための深さ認識ボリュームアテンション
- Authors: Tong Zhao, Mingyu Ding, Wei Zhan, Masayoshi Tomizuka, Yintao Wei
- Abstract要約: 実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
- 参考スコア(独自算出の注目度): 67.46404479356896
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Stereo matching plays a crucial role in 3D perception and scenario
understanding. Despite the proliferation of promising methods, addressing
texture-less and texture-repetitive conditions remains challenging due to the
insufficient availability of rich geometric and semantic information. In this
paper, we propose a lightweight volume refinement scheme to tackle the texture
deterioration in practical outdoor scenarios. Specifically, we introduce a
depth volume supervised by the ground-truth depth map, capturing the relative
hierarchy of image texture. Subsequently, the disparity discrepancy volume
undergoes hierarchical filtering through the incorporation of depth-aware
hierarchy attention and target-aware disparity attention modules. Local fine
structure and context are emphasized to mitigate ambiguity and redundancy
during volume aggregation. Furthermore, we propose a more rigorous evaluation
metric that considers depth-wise relative error, providing comprehensive
evaluations for universal stereo matching and depth estimation models. We
extensively validate the superiority of our proposed methods on public
datasets. Results demonstrate that our model achieves state-of-the-art
performance, particularly excelling in scenarios with texture-less images. The
code is available at https://github.com/ztsrxh/DVANet.
- Abstract(参考訳): ステレオマッチングは3次元知覚とシナリオ理解において重要な役割を果たす。
有望な手法の普及にもかかわらず、テクスチャやテクスチャの反復的な条件への対処は、リッチな幾何学的、セマンティックな情報の入手が不十分なため、依然として困難である。
本稿では,実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量ボリューム改善手法を提案する。
具体的には,画像テクスチャの相対階層を捉えた,地中深度マップで教師ありした深度ボリュームを提案する。
その後、ディファリティ差分ボリュームは、奥行き認識階層の注意と目標認識のディファリティの注意モジュールを組み込んだ階層フィルタリングを行う。
局所的な微細構造と文脈は、ボリュームアグリゲーション中のあいまいさと冗長性を軽減するために強調される。
さらに,より厳密な評価基準を提案し,深度関係誤差を考慮し,普遍的ステレオマッチングと深度推定モデルに対する包括的評価を行う。
提案手法の公共データセット上での優位性を広く検証する。
以上の結果から,テクスチャレス画像のシナリオでは特に優れた技術性能が得られた。
コードはhttps://github.com/ztsrxh/dvanetで入手できる。
関連論文リスト
- Structure-Centric Robust Monocular Depth Estimation via Knowledge Distillation [9.032563775151074]
単眼深度推定はコンピュータビジョンにおける3次元知覚の重要な手法である。
現実のシナリオでは、悪天候の変動、動きのぼやけ、夜間の照明条件の悪いシーンなど、大きな課題に直面している。
我々は,局所的なテクスチャへの過度な依存を低減し,パターンの欠落や干渉に対する堅牢性を向上するための新しいアプローチを考案した。
論文 参考訳(メタデータ) (2024-10-09T15:20:29Z) - Unsupervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [21.939618694037108]
教師なし単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は、教師なし単眼深度推定のために、生成ネットワーク間でよく収束する拡散モデルを用いる。
このモデルは深度分布の学習と解釈の能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Self-Guided Instance-Aware Network for Depth Completion and Enhancement [6.319531161477912]
既存の手法では,画素ワイド画像の内容とそれに対応する近傍の深度値に基づいて,欠落した深度測定を直接補間する。
本稿では、自己誘導機構を利用して、深度復元に必要なインスタンスレベルの特徴を抽出する自己誘導型インスタンス認識ネットワーク(SG-IANet)を提案する。
論文 参考訳(メタデータ) (2021-05-25T19:41:38Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Learning Depth via Leveraging Semantics: Self-supervised Monocular Depth
Estimation with Both Implicit and Explicit Semantic Guidance [34.62415122883441]
シーン認識深度推定のための暗黙的意味特徴と深度特徴とを一致させるセマンティック認識空間特徴アライメント方式を提案する。
また,推定深度マップを実シーンの文脈特性と整合性に明示的に制約する意味誘導型ランキング損失を提案する。
複雑なシーンや多様なセマンティックカテゴリで一貫して優れた、高品質な深度マップを作成します。
論文 参考訳(メタデータ) (2021-02-11T14:29:51Z) - Semantic-Guided Representation Enhancement for Self-supervised Monocular
Trained Depth Estimation [39.845944724079814]
自己教師付き深度推定は,画像列のみを入力として,高品質の深度マップを作成する上で大きな効果を示した。
しかし、その性能は通常、限界深度表現能力のために境界領域や細い構造を持つ物体を推定する際に低下する。
局所的および大域的な深度特徴表現を促進する意味誘導深度表現拡張法を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:24:57Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。