論文の概要: IFTD: Image Feature Triangle Descriptor for Loop Detection in Driving Scenes
- arxiv url: http://arxiv.org/abs/2406.07937v1
- Date: Wed, 12 Jun 2024 06:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 18:05:32.516900
- Title: IFTD: Image Feature Triangle Descriptor for Loop Detection in Driving Scenes
- Title(参考訳): IFTD:運転シーンにおけるループ検出のための画像特徴三角形記述子
- Authors: Fengtian Lang, Ruiye Ming, Zikang Yuan, Xin Yang,
- Abstract要約: STD法に基づく高速で堅牢な画像特徴三角形記述子(IFTD)を提案する。
3つの公開データセットによる実験結果から、我々のIFTDは最先端の手法よりもロバスト性や精度を向上できることが示された。
- 参考スコア(独自算出の注目度): 4.869910049066121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a fast and robust Image Feature Triangle Descriptor (IFTD) based on the STD method, aimed at improving the efficiency and accuracy of place recognition in driving scenarios. We extract keypoints from BEV projection image of point cloud and construct these keypoints into triangle descriptors. By matching these feature triangles, we achieved precise place recognition and calculated the 4-DOF pose estimation between two keyframes. Furthermore, we employ image similarity inspection to perform the final place recognition. Experimental results on three public datasets demonstrate that our IFTD can achieve greater robustness and accuracy than state-of-the-art methods with low computational overhead.
- Abstract(参考訳): 本研究では,STD法に基づく高速で堅牢な画像特徴三角形記述子(IFTD)を提案する。
点雲のBEV投影画像からキーポイントを抽出し、これらのキーポイントを三角形記述子に構成する。
これらの特徴三角形をマッチングすることにより、正確な位置認識を実現し、2つのキーフレーム間での4-DOFポーズ推定を計算した。
さらに,画像類似度検査を用いて最終的な位置認識を行う。
3つの公開データセットによる実験結果から、我々のIFTDは計算オーバーヘッドの少ない最先端の手法よりも、より堅牢性と精度が高いことが示されている。
関連論文リスト
- RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは64.9%のmAPと70.2%のNDSをnuScene上で達成し、LiDARベースの検出器よりも優れている。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - SpaRC: Sparse Radar-Camera Fusion for 3D Object Detection [5.36022165180739]
本稿では,マルチビュー画像セマンティクスとレーダとカメラポイント機能を統合した3次元認識のための新しいスパース融合変換器であるSpaRCを提案する。
nuScenes と TruckScenes のベンチマークに関する実証的な評価は、SpaRC が既存の密度の高い BEV ベースおよびスパースクエリベースの検出器より著しく優れていることを示している。
論文 参考訳(メタデータ) (2024-11-29T17:17:38Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - STD: Stable Triangle Descriptor for 3D place recognition [6.007277539602981]
安定三角形記述子(STD)と呼ばれる新しいグローバルディスクリプタを3次元位置認識のために提案する。
この特性に基づいて,まず3次元点群から局所鍵点を効率よく抽出するアルゴリズムを設計する。
そして、点雲間のディスクリプタの側長をマッチングすることにより、位置認識を実現する。
論文 参考訳(メタデータ) (2022-09-26T05:55:54Z) - CVFNet: Real-time 3D Object Detection by Learning Cross View Features [11.402076835949824]
CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
論文 参考訳(メタデータ) (2022-03-13T06:23:18Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - P2-Net: Joint Description and Detection of Local Features for Pixel and
Point Matching [78.18641868402901]
この研究は、2D画像と3D点雲の微粒な対応を確立するための取り組みである。
画素領域と点領域の固有情報変動を緩和するために,新しい損失関数と組み合わせた超広帯域受信機構を設計した。
論文 参考訳(メタデータ) (2021-03-01T14:59:40Z) - SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation [4.350338899049983]
我々は、異なるレベルで融合を適用できるように、PointPaintingの一般化を提案する。
本研究では,セマンティックボクセルが3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-25T14:52:32Z) - Unconstrained Matching of 2D and 3D Descriptors for 6-DOF Pose
Estimation [44.66818851668686]
我々は2D点と3D点とに対応する特徴記述子のデータセットを生成する。
テスト時に画像のポーズをローカライズするために,クエリ画像からキーポイントと特徴記述子を抽出する。
マッチングされた特徴の位置は、クエリ画像の位置と向きを予測する頑健なポーズ推定アルゴリズムで使用される。
論文 参考訳(メタデータ) (2020-05-29T11:17:32Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。