論文の概要: GeneA-SLAM2: Dynamic SLAM with AutoEncoder-Preprocessed Genetic Keypoints Resampling and Depth Variance-Guided Dynamic Region Removal
- arxiv url: http://arxiv.org/abs/2506.02736v1
- Date: Tue, 03 Jun 2025 10:51:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.596214
- Title: GeneA-SLAM2: Dynamic SLAM with AutoEncoder-Preprocessed Genetic Keypoints Resampling and Depth Variance-Guided Dynamic Region Removal
- Title(参考訳): GeneA-SLAM2: AutoEncoder-Preprocessed Genetic Keypoints Resampling and Depth Variance-Guided Dynamic Regionectomy を用いた動的SLAM
- Authors: Shufan Qing, Anzhen Li, Qiandi Wang, Yuefeng Niu, Mingchen Feng, Guoliang Hu, Jinqiao Wu, Fengtao Nan, Yingchun Fan,
- Abstract要約: 本稿では動的シーンを扱うための堅牢で効率的なGeneA-SLAM2システムを提案する。
提案手法は, 深度分散により動的画素を抽出し, 動的物体の除去を導くための精密な深度マスクを作成する。
その結果,GeneA-SLAM2は動的シーンにおいて現在の手法と比較して高い精度を維持していることがわかった。
- 参考スコア(独自算出の注目度): 1.7726116348360303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing semantic SLAM in dynamic environments mainly identify dynamic regions through object detection or semantic segmentation methods. However, in certain highly dynamic scenarios, the detection boxes or segmentation masks cannot fully cover dynamic regions. Therefore, this paper proposes a robust and efficient GeneA-SLAM2 system that leverages depth variance constraints to handle dynamic scenes. Our method extracts dynamic pixels via depth variance and creates precise depth masks to guide the removal of dynamic objects. Simultaneously, an autoencoder is used to reconstruct keypoints, improving the genetic resampling keypoint algorithm to obtain more uniformly distributed keypoints and enhance the accuracy of pose estimation. Our system was evaluated on multiple highly dynamic sequences. The results demonstrate that GeneA-SLAM2 maintains high accuracy in dynamic scenes compared to current methods. Code is available at: https://github.com/qingshufan/GeneA-SLAM2.
- Abstract(参考訳): 動的環境における既存のセマンティックSLAMは主にオブジェクト検出やセマンティックセグメンテーションを通じて動的領域を識別する。
しかし、特定の非常にダイナミックなシナリオでは、検出ボックスやセグメンテーションマスクは動的領域を完全にカバーできない。
そこで本稿では,動的シーンの処理に深さ分散制約を利用する,堅牢で効率的なGeneA-SLAM2システムを提案する。
提案手法は, 深度分散により動的画素を抽出し, 動的物体の除去を導くための精密な深度マスクを作成する。
同時に、オートエンコーダを用いてキーポイントを再構成し、遺伝的再サンプリングキーポイントアルゴリズムを改善して、より均一に分散されたキーポイントを取得し、ポーズ推定の精度を高める。
本システムは複数の高ダイナミックなシーケンスで評価した。
その結果,GeneA-SLAM2は動的シーンにおいて現在の手法と比較して高い精度を維持していることがわかった。
コードは、https://github.com/qingshufan/GeneA-SLAM2.comで入手できる。
関連論文リスト
- ADD-SLAM: Adaptive Dynamic Dense SLAM with Gaussian Splatting [12.846353008321394]
ADD-SLAM: ガウス分割に基づくAdaptive Dynamic Dense SLAMフレームワーク。
シーン整合性解析に基づく適応的動的識別機構を設計する。
事前に定義されたセマンティックなカテゴリは必要とせず、シーンのダイナミクスを適応的に発見する。
論文 参考訳(メタデータ) (2025-05-26T02:17:17Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - D$^3$epth: Self-Supervised Depth Estimation with Dynamic Mask in Dynamic Scenes [23.731667977542454]
D$3$epthは動的シーンにおける自己教師付き深度推定の新しい手法である。
これは2つの重要な視点から、動的オブジェクトの課題に取り組む。
既存の自己教師付き単分子深度推定ベースラインよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-11-07T16:07:00Z) - DyFADet: Dynamic Feature Aggregation for Temporal Action Detection [70.37707797523723]
カーネル重みと受容フィールドを異なるタイムスタンプで適応できる新しい動的特徴集約(DFA)モジュールを構築した。
DFAを使用することで動的DADヘッド(DyHead)の開発を支援し、パラメータを調整したマルチスケール機能を適応的に集約する。
新しい動的TADモデルであるDyFADetは、一連の挑戦的なTADベンチマークで有望なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-03T15:29:10Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - D$^3$FlowSLAM: Self-Supervised Dynamic SLAM with Flow Motion Decomposition and DINO Guidance [61.14088096348959]
本稿では,動的シーンにおいて動的コンポーネントを正確に識別しながら頑健に動作する自己教師型ディープSLAM法を提案する。
本稿では,この表現に基づく動的更新モジュールを提案し,動的シナリオに優れた高密度SLAMシステムの開発を行う。
論文 参考訳(メタデータ) (2022-07-18T17:47:39Z) - Fine-Grained Dynamic Head for Object Detection [68.70628757217939]
本稿では,各インスタンスの異なるスケールからfpn特徴の画素レベルの組み合わせを条件付きで選択する,きめ細かい動的ヘッドを提案する。
実験は,いくつかの最先端検出ベンチマークにおける提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-07T08:16:32Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。