論文の概要: S3E-GNN: Sparse Spatial Scene Embedding with Graph Neural Networks for
Camera Relocalization
- arxiv url: http://arxiv.org/abs/2205.05861v1
- Date: Thu, 12 May 2022 03:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 23:35:05.464711
- Title: S3E-GNN: Sparse Spatial Scene Embedding with Graph Neural Networks for
Camera Relocalization
- Title(参考訳): S3E-GNN: カメラ再局在のためのグラフニューラルネットワークを用いた空間空間埋め込み
- Authors: Ran Cheng, Xinyu Jiang, Yuan Chen, Lige Liu, Tao Sun
- Abstract要約: 本稿では,グラフニューラルネットワークを用いたスパース空間シーン埋め込み(S3E-GNN)という学習手法を提案する。
符号化モジュールでは、訓練されたS3EネットワークがRGB画像を埋め込みコードにエンコードし、空間的および意味的な埋め込みコードを暗黙的に表現する。
SLAMシステムから得られた埋め込み符号と関連するポーズにより、各画像は、ポーズグラフ内のグラフノードとして表現される。
GNNクエリモジュールでは、ポーズグラフが変換され、カメラ再ローカライゼーションのための埋め込み集約参照グラフを形成する。
- 参考スコア(独自算出の注目度): 11.512647893596029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camera relocalization is the key component of simultaneous localization and
mapping (SLAM) systems. This paper proposes a learning-based approach, named
Sparse Spatial Scene Embedding with Graph Neural Networks (S3E-GNN), as an
end-to-end framework for efficient and robust camera relocalization. S3E-GNN
consists of two modules. In the encoding module, a trained S3E network encodes
RGB images into embedding codes to implicitly represent spatial and semantic
embedding code. With embedding codes and the associated poses obtained from a
SLAM system, each image is represented as a graph node in a pose graph. In the
GNN query module, the pose graph is transformed to form a embedding-aggregated
reference graph for camera relocalization. We collect various scene datasets in
the challenging environments to perform experiments. Our results demonstrate
that S3E-GNN method outperforms the traditional Bag-of-words (BoW) for camera
relocalization due to learning-based embedding and GNN powered scene matching
mechanism.
- Abstract(参考訳): カメラ再ローカライゼーションは、同時ローカライゼーションとマッピング(SLAM)システムの鍵となるコンポーネントである。
本稿では,グラフニューラルネットワークを用いたS3E-GNN(Sparse Spatial Scene Embedding with Graph Neural Networks)という学習に基づくアプローチを提案する。
S3E-GNNは2つのモジュールから構成される。
符号化モジュールでは、訓練されたS3EネットワークがRGB画像を埋め込みコードにエンコードし、空間的および意味的な埋め込みコードを暗黙的に表現する。
スラムシステムから得られる埋め込み符号と関連するポーズにより、各画像はポーズグラフ内のグラフノードとして表現される。
gnnクエリモジュールでは、ポーズグラフをカメラ再局在化のための埋め込み集約参照グラフに変換する。
課題のある環境で様々なシーンデータセットを収集し,実験を行う。
S3E-GNN法は,学習型埋め込みとGNNによるシーンマッチング機構により,従来のBag-of-words(BoW)よりも優れていた。
関連論文リスト
- Leveraging Neural Radiance Field in Descriptor Synthesis for Keypoints Scene Coordinate Regression [1.2974519529978974]
本稿では,Neural Radiance Field (NeRF) を用いたキーポイント記述子合成のためのパイプラインを提案する。
新たなポーズを生成してトレーニングされたNeRFモデルに入力して新しいビューを生成することで、当社のアプローチは、データスカース環境でのKSCRの機能を強化します。
提案システムは,最大50%のローカライズ精度向上を実現し,データ合成に要するコストをわずかに抑えることができた。
論文 参考訳(メタデータ) (2024-03-15T13:40:37Z) - CP-SLAM: Collaborative Neural Point-based SLAM System [54.916578456416204]
本稿では,RGB-D画像シーケンスを用いた協調型暗黙的ニューラルローカライゼーションとマッピング(SLAM)システムを提案する。
これらすべてのモジュールを統一的なフレームワークで実現するために,ニューラルポイントに基づく新しい3次元シーン表現を提案する。
協調的な暗黙的SLAMに対して,一貫性と協調性を改善するために,分散分散型学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T09:17:15Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - HSCNet++: Hierarchical Scene Coordinate Classification and Regression
for Visual Localization with Transformer [23.920690073252636]
本稿では,1枚のRGB画像から画素シーン座標を粗い方法で予測する階層的なシーン座標ネットワークを提案する。
提案手法は,HSCNetの拡張であり,大規模環境にロバストにスケールするコンパクトモデルの訓練を可能にする。
論文 参考訳(メタデータ) (2023-05-05T15:00:14Z) - Transforming Visual Scene Graphs to Image Captions [69.13204024990672]
我々は、Scene Graphs (TSG) をより説明的なキャプションに変換することを提案する。
TSGでは、シーングラフの埋め込みのためのグラフニューラルネットワーク(GNN)の設計にマルチヘッドアテンション(MHA)を適用している。
TSGでは、各専門家はMHAに基づいてグラフ埋め込みを識別し、異なる種類の単語を生成する。
論文 参考訳(メタデータ) (2023-05-03T15:18:37Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Graph Attention Network for Camera Relocalization on Dynamic Scenes [1.0398909602421018]
動的環境における画像カメラの位置を推定するために,シーントライアングルメッシュ表現を学習するためのグラフアテンションネットワークに基づくアプローチを考案する。
室内カメラの動的再局在化のためのRIO10ベンチマークにおいて,最先端手法のカメラポーズ精度を0.358ドルから0.506ドルに改善した。
論文 参考訳(メタデータ) (2022-09-29T18:57:52Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Pose-GNN : Camera Pose Estimation System Using Graph Neural Networks [12.12580095956898]
グラフニューラルネットワーク(GNN)を用いた新しい画像ベースのローカリゼーションシステムを提案する。
resnet50 convolutional neural network (cnn)アーキテクチャは、各画像の重要な特徴を抽出するために使用される。
GNNの使用は屋内および屋外の環境のための高められた性能をもたらすことを示します。
論文 参考訳(メタデータ) (2021-03-17T04:40:02Z) - Generalized Contrastive Optimization of Siamese Networks for Place
Recognition [10.117451511942267]
本稿では,連続的な尺度として画像類似性に依存する一般コントラスト損失関数を提案し,それをシアムCNNの訓練に利用する。
GCL関数を用いて訓練したシアムCNNと、改良されたアノテーションは、バイナリよりも一貫して優れていたことを実証する。
当社のモデルは,NetVLAD,NetVLAD-SARE,AP-GeM,Patch-NetVLADといった最先端の手法より優れており,ピッツバーグ30k,東京24/7,RobotCar Seasons v2,Extended CMU Seasonsデータセットでよく一般化されている。
論文 参考訳(メタデータ) (2021-03-11T12:32:05Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。