論文の概要: Occ$^2$Net: Robust Image Matching Based on 3D Occupancy Estimation for
Occluded Regions
- arxiv url: http://arxiv.org/abs/2308.16160v1
- Date: Mon, 14 Aug 2023 13:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-03 21:22:25.275674
- Title: Occ$^2$Net: Robust Image Matching Based on 3D Occupancy Estimation for
Occluded Regions
- Title(参考訳): Occ$^2$Net: Occluded領域の3次元占有率推定に基づくロバスト画像マッチング
- Authors: Miao Fan, Mingrui Chen, Chen Hu, Shuchang Zhou
- Abstract要約: Occ$2$Netは、3D占有率を用いて閉塞関係をモデル化し、閉塞領域の一致点を推測する画像マッチング手法である。
本手法は実世界とシミュレーションデータセットの両方で評価し,いくつかの指標における最先端手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 14.217367037250296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image matching is a fundamental and critical task in various visual
applications, such as Simultaneous Localization and Mapping (SLAM) and image
retrieval, which require accurate pose estimation. However, most existing
methods ignore the occlusion relations between objects caused by camera motion
and scene structure. In this paper, we propose Occ$^2$Net, a novel image
matching method that models occlusion relations using 3D occupancy and infers
matching points in occluded regions. Thanks to the inductive bias encoded in
the Occupancy Estimation (OE) module, it greatly simplifies bootstrapping of a
multi-view consistent 3D representation that can then integrate information
from multiple views. Together with an Occlusion-Aware (OA) module, it
incorporates attention layers and rotation alignment to enable matching between
occluded and visible points. We evaluate our method on both real-world and
simulated datasets and demonstrate its superior performance over
state-of-the-art methods on several metrics, especially in occlusion scenarios.
- Abstract(参考訳): 画像マッチングは、同時ローカライゼーションとマッピング(slam)や、正確なポーズ推定を必要とする画像検索など、様々な視覚アプリケーションにおいて、基本的かつ重要なタスクである。
しかし,既存の手法ではカメラの動きとシーン構造の関係は無視されている。
本稿では,3次元占有率を用いて咬合関係をモデル化し,閉塞領域におけるマッチング点を推定する新しい画像マッチング手法であるocc$^2$netを提案する。
occupancy estimation (oe)モジュールにエンコードされた帰納的バイアスのおかげで、複数のビューからの情報を統合できるマルチビューの一貫性のある3d表現のブートストラップが大幅に簡単になる。
Occlusion-Aware (OA)モジュールと組み合わせて、注意層と回転アライメントを組み込んで、閉塞点と可視点のマッチングを可能にする。
提案手法は実世界およびシミュレーションデータセットの両方で評価し,いくつかの指標,特に閉塞シナリオにおける最先端手法よりも優れた性能を示す。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712539]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - LFM-3D: Learnable Feature Matching Across Wide Baselines Using 3D
Signals [9.201550006194994]
学習可能なマーカは、画像ペア間のコビジュアビリティの小さな領域だけが存在する場合、しばしば性能が低下する。
グラフニューラルネットワークに基づくモデルを用いた学習可能な特徴マッチングフレームワーク LFM-3D を提案する。
その結果,画像対の相対的ポーズ精度が向上し,画像対の相対的ポーズ精度が向上することがわかった。
論文 参考訳(メタデータ) (2023-03-22T17:46:27Z) - Explicit3D: Graph Network with Spatial Inference for Single Image 3D
Object Detection [35.85544715234846]
本稿では,オブジェクトの幾何学的特徴と意味論的特徴に基づいて,Explicit3Dという動的スパースグラフパイプラインを提案する。
SUN RGB-Dデータセットによる実験結果から,我々のExplicit3Dは最先端技術よりも優れた性能バランスを実現することが示された。
論文 参考訳(メタデータ) (2023-02-13T16:19:54Z) - Occupancy Planes for Single-view RGB-D Human Reconstruction [120.5818162569105]
暗黙的な機能を持つシングルビューRGB-Dヒト再構成は、しばしばポイント単位の分類として定式化される。
本稿では,カメラの視野フラストラムをスライスする平面上での占有率予測として,一視点のRGB-D人間の再構成を定式化できる占有面(OPlanes)表現を提案する。
論文 参考訳(メタデータ) (2022-08-04T17:59:56Z) - Sim2Real Object-Centric Keypoint Detection and Description [40.58367357980036]
キーポイントの検出と記述はコンピュータビジョンにおいて中心的な役割を果たす。
対象中心の定式化を提案し、各関心点が属する対象をさらに特定する必要がある。
我々はシミュレーションで訓練されたモデルを現実のアプリケーションに一般化できるsim2realコントラスト学習機構を開発した。
論文 参考訳(メタデータ) (2022-02-01T15:00:20Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in
the Wild [77.43884383743872]
本稿では,アダプティブなマルチビュー融合手法であるAdaFuseについて述べる。
我々は、Human3.6M、Total Capture、CMU Panopticの3つの公開データセットに対するアプローチを広く評価した。
また,大規模合成データセットOcclusion-Personを作成し,咬合関節の数値評価を行う。
論文 参考訳(メタデータ) (2020-10-26T03:19:46Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。