論文の概要: A2-GNN: Angle-Annular GNN for Visual Descriptor-free Camera Relocalization
- arxiv url: http://arxiv.org/abs/2502.20036v1
- Date: Thu, 27 Feb 2025 12:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:57:26.247241
- Title: A2-GNN: Angle-Annular GNN for Visual Descriptor-free Camera Relocalization
- Title(参考訳): A2-GNN: Angle-Annular GNN for Visual Descriptor-free Camera Relocalization
- Authors: Yejun Zhang, Shuzhe Wang, Juho Kannala,
- Abstract要約: 本稿では、ロバストな幾何学的構造表現を効率的に学習するシンプルなアプローチであるアングル・アンヌルグラフニューラルネットワーク(A2-GNN)を紹介する。
提案手法は,視覚的記述自由手法の計算オーバーヘッドを低く抑えながら,最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 8.881372153385028
- License:
- Abstract: Visual localization involves estimating the 6-degree-of-freedom (6-DoF) camera pose within a known scene. A critical step in this process is identifying pixel-to-point correspondences between 2D query images and 3D models. Most advanced approaches currently rely on extensive visual descriptors to establish these correspondences, facing challenges in storage, privacy issues and model maintenance. Direct 2D-3D keypoint matching without visual descriptors is becoming popular as it can overcome those challenges. However, existing descriptor-free methods suffer from low accuracy or heavy computation. Addressing this gap, this paper introduces the Angle-Annular Graph Neural Network (A2-GNN), a simple approach that efficiently learns robust geometric structural representations with annular feature extraction. Specifically, this approach clusters neighbors and embeds each group's distance information and angle as supplementary information to capture local structures. Evaluation on matching and visual localization datasets demonstrates that our approach achieves state-of-the-art accuracy with low computational overhead among visual description-free methods. Our code will be released on https://github.com/YejunZhang/a2-gnn.
- Abstract(参考訳): 視覚的ローカライゼーションでは、既知のシーン内での6-of-freedom (6-DoF)カメラのポーズを推定する。
このプロセスにおける重要なステップは、2Dクエリ画像と3Dモデルの間の画素間対応を特定することである。
現在、ほとんどの高度なアプローチは、これらの対応を確立するために広範囲なビジュアル記述子に依存しており、ストレージ、プライバシの問題、モデルメンテナンスの課題に直面している。
ビジュアル記述子を使わずに直接2D-3Dキーポイントマッチングが普及し、これらの課題を克服できるようになっている。
しかし、既存のディスクリプタフリーメソッドは、低い精度や重い計算に悩まされている。
このギャップに対処するため,A2-GNN(Angle-Annular Graph Neural Network)を提案する。
具体的には、近傍に接近し、各グループの距離情報と角度を補足情報として埋め込み、局所構造を捉える。
マッチングおよび視覚的ローカライゼーションデータセットの評価は,視覚的記述のない手法の計算オーバーヘッドを低く抑えながら,最先端の精度を実現することを示す。
私たちのコードはhttps://github.com/YejunZhang/a2-gnnでリリースされます。
関連論文リスト
- Improved Scene Landmark Detection for Camera Localization [11.56648898250606]
シーンランドマーク検出(SLD)に基づく手法が近年提案されている。
畳み込みニューラルネットワーク(CNN)をトレーニングして、所定の、健全でシーン固有の3Dポイントやランドマークを検出する。
トレーニング中はモデル容量とノイズラベルが不足していたため,精度の差がみられた。
論文 参考訳(メタデータ) (2024-01-31T18:59:12Z) - EP2P-Loc: End-to-End 3D Point to 2D Pixel Localization for Large-Scale
Visual Localization [44.05930316729542]
本稿では,3次元点雲の大規模可視化手法EP2P-Locを提案する。
画像中の見えない3D点を除去する簡単なアルゴリズムを提案する。
このタスクで初めて、エンドツーエンドのトレーニングに差別化可能なツールを使用します。
論文 参考訳(メタデータ) (2023-09-14T07:06:36Z) - D2S: Representing sparse descriptors and 3D coordinates for camera relocalization [1.2974519529978974]
複雑な局所記述子とそのシーン座標を表現するための学習に基づくアプローチを提案する。
その単純さと費用対効果が特徴である。
本手法は, 室内環境と屋外環境の両方において, 従来の回帰に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-28T01:20:12Z) - DGC-GNN: Leveraging Geometry and Color Cues for Visual Descriptor-Free 2D-3D Matching [39.461400537109895]
画像中の2Dキーポイントとシーンのスパースな3Dポイントクラウドとを視覚ディスクリプタを必要とせずにマッチングすることは、関心の高まりを招いている。
DGC-GNNは,鍵点を表すために幾何学的および色彩的キューを利用する新しいアルゴリズムであり,マッチング精度が向上する。
我々は、DGC-GNNを屋内と屋外の両方のデータセットで評価し、最先端のビジュアルディスクリプタフリーアルゴリズムの精度を2倍にするだけでなく、ディスクリプタベースとディスクリプタフリー手法のパフォーマンスギャップを大幅に狭めることを示した。
論文 参考訳(メタデータ) (2023-06-21T20:21:15Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。