論文の概要: SOS-SLAM: Segmentation for Open-Set SLAM in Unstructured Environments
- arxiv url: http://arxiv.org/abs/2401.04791v1
- Date: Tue, 9 Jan 2024 19:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:06:38.117833
- Title: SOS-SLAM: Segmentation for Open-Set SLAM in Unstructured Environments
- Title(参考訳): SOS-SLAM:非構造環境におけるオープンセットSLAMのセグメンテーション
- Authors: Jouko Kinnari, Annika Thomas, Parker Lusk, Kota Kondo, Jonathan P. How
- Abstract要約: 本研究では,非構造化環境におけるSLAM(Symtaneous Localization and Mapping)のオープンセットのための新しいフレームワークを提案する。
本システムでは,画像からオブジェクトマスクを抽出し,オブジェクトベースのマップを生成するためのゼロショットセグメンテーションモデルを用いたフロントエンドマッピングパイプラインと,オブジェクトの幾何的整合性を利用したフレームアライメントパイプラインを,さまざまな条件下で取得したマップ内で効率よくローカライズする。
- 参考スコア(独自算出の注目度): 25.464801039790306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel framework for open-set Simultaneous Localization and
Mapping (SLAM) in unstructured environments that uses segmentation to create a
map of objects and geometric relationships between objects for localization.
Our system consists of 1) a front-end mapping pipeline using a zero-shot
segmentation model to extract object masks from images and track them across
frames to generate an object-based map and 2) a frame alignment pipeline that
uses the geometric consistency of objects to efficiently localize within maps
taken in a variety of conditions. This approach is shown to be more robust to
changes in lighting and appearance than traditional feature-based SLAM systems
or global descriptor methods. This is established by evaluating SOS-SLAM on the
Batvik seasonal dataset which includes drone flights collected over a coastal
plot of southern Finland during different seasons and lighting conditions.
Across flights during varying environmental conditions, our approach achieves
higher recall than benchmark methods with precision of 1.0. SOS-SLAM localizes
within a reference map up to 14x faster than other feature based approaches and
has a map size less than 0.4% the size of the most compact other maps. When
considering localization performance from varying viewpoints, our approach
outperforms all benchmarks from the same viewpoint and most benchmarks from
different viewpoints. SOS-SLAM is a promising new approach for SLAM in
unstructured environments that is robust to changes in lighting and appearance
and is more computationally efficient than other approaches. We release our
code and datasets: https://acl.mit.edu/SOS-SLAM/.
- Abstract(参考訳): 本稿では,セグメンテーションを用いてオブジェクトの地図を作成する非構造化環境におけるオープンセット同時ローカライゼーション・マッピング(slam)のための新しいフレームワークを提案する。
私たちのシステムは
1)ゼロショットセグメンテーションモデルを用いたフロントエンドマッピングパイプラインを用いて、画像からオブジェクトマスクを抽出し、フレーム間で追跡してオブジェクトベースのマップを生成する。
2) 物体の幾何的整合性を利用して, 様々な条件で捉えた地図を効率的に位置決めするフレームアライメントパイプライン。
このアプローチは、従来の機能ベースのSLAMシステムやグローバルディスクリプタメソッドよりも、照明や外観の変化に対して堅牢であることが示されている。
これは、異なる季節と照明条件の間、南フィンランド沿岸のプロット上空で収集されたドローン飛行を含むバトヴィクの季節データセット上でSOS-SLAMを評価することによって確立される。
環境条件の異なる飛行において,本手法は精度1.0のベンチマーク手法よりも高いリコールを実現する。
SOS-SLAMは、他の特徴ベースのアプローチよりも最大14倍高速な参照マップ内をローカライズし、最もコンパクトな他のマップの0.4%未満のサイズを持つ。
異なる視点からのローカライゼーション性能を考慮すると、同じ視点から全てのベンチマークを上回り、異なる視点からほとんどのベンチマークを上回ります。
sos-slamは非構造環境におけるslamの新しいアプローチであり、照明や外観の変化に頑健であり、他のアプローチよりも計算効率が高い。
コードとデータセットを以下に公開します。
関連論文リスト
- VOOM: Robust Visual Object Odometry and Mapping using Hierarchical
Landmarks [19.789761641342043]
本稿では,ビジュアルオブジェクトのオドメトリとマッピングフレームワーク VOOM を提案する。
粗い方法で階層的なランドマークとして、高レベルのオブジェクトと低レベルのポイントを使用します。
VOOMはオブジェクト指向SLAMと特徴点SLAMシステムの両方をローカライゼーションで上回る。
論文 参考訳(メタデータ) (2024-02-21T08:22:46Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [56.00799739701623]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - NeuSE: Neural SE(3)-Equivariant Embedding for Consistent Spatial
Understanding with Objects [53.111397800478294]
本稿では,ニューラルSE(3)-等価なオブジェクトの埋め込みであるNeuSEを紹介する。
NeuSE は完全なオブジェクトモデルのためのコンパクトな点クラウドサロゲートとして機能する。
提案するSLAMパラダイムは,物体形状やポーズ特性にNeuSEを用いて,通常のSLAMシステムと独立に,あるいは連携して動作することができる。
論文 参考訳(メタデータ) (2023-03-13T17:30:43Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - Object-Augmented RGB-D SLAM for Wide-Disparity Relocalisation [3.888848425698769]
本稿では、一貫したオブジェクトマップを構築し、地図内のオブジェクトのセントロイドに基づいて再局在を行うことができるオブジェクト拡張RGB-D SLAMシステムを提案する。
論文 参考訳(メタデータ) (2021-08-05T11:02:25Z) - CodeMapping: Real-Time Dense Mapping for Sparse SLAM using Compact Scene
Representations [20.79223452551813]
最先端の疎視的SLAMシステムは、カメラの軌跡とランドマークの位置を正確に推定する。
これらのスパースマップは、ローカライゼーションに有用であるが、障害物回避やシーン理解といった他のタスクには使用できない。
本稿では、カメラのポーズやスパースポイントを入力として捉えた疎視的SLAMシステムを補完する高密度マッピングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-19T16:13:18Z) - MAOMaps: A Photo-Realistic Benchmark For vSLAM and Map Merging Quality
Assessment [0.0]
本稿では,視覚に基づく同時ローカライゼーションとマッピング(vSLAM)とマップマージアルゴリズムの品質を定量的に評価することを目的とした,新しいベンチマークを提案する。
データセットはフォトリアリスティックで、ローカライゼーションとマップグラウンドの真理データの両方を提供する。
vSLAMで構築した地図と地上の地図を比較するために、SLAMコンテキストを考慮に入れた、それらの間の対応を見つける新しい方法を導入する。
論文 参考訳(メタデータ) (2021-05-31T14:30:36Z) - Voxel Map for Visual SLAM [57.07800982410967]
視覚SLAMのための点を効率的にマッピングするボクセルマップ表現を提案する。
本手法は,カメラの視野に落下することを幾何的に保証し,隠蔽点を特定・除去できる。
実験結果から,我々のボクセルマップ表現は5sの地図と同等に効率的であり,EuRoCデータセット上での局所化精度(平均46%の改善)が有意に高いことがわかった。
論文 参考訳(メタデータ) (2020-03-04T18:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。