論文の概要: Self-Improving SLAM in Dynamic Environments: Learning When to Mask
- arxiv url: http://arxiv.org/abs/2210.08350v1
- Date: Sat, 15 Oct 2022 18:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 16:30:14.920825
- Title: Self-Improving SLAM in Dynamic Environments: Learning When to Mask
- Title(参考訳): 動的環境におけるSLAMの自己改善: いつマスクするかを学ぶ
- Authors: Adrian Bojko, Romain Dupont, Mohamed Tamaazousti, Herv\'e Le Borgne
- Abstract要約: 本研究では,マスキングオブジェクトが動的シナリオにおける性能を改善する際に学習する新しいSLAMを提案する。
我々の手法は、動く物体を自身で隠蔽することを学ぶ。
提案手法は,TUM RGB-Dデータセット上の技術状況に到達し,KITTIおよびConsInvデータセット上で性能を向上する。
- 参考スコア(独自算出の注目度): 5.4310785842119795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual SLAM -- Simultaneous Localization and Mapping -- in dynamic
environments typically relies on identifying and masking image features on
moving objects to prevent them from negatively affecting performance. Current
approaches are suboptimal: they either fail to mask objects when needed or, on
the contrary, mask objects needlessly. Thus, we propose a novel SLAM that
learns when masking objects improves its performance in dynamic scenarios.
Given a method to segment objects and a SLAM, we give the latter the ability of
Temporal Masking, i.e., to infer when certain classes of objects should be
masked to maximize any given SLAM metric. We do not make any priors on motion:
our method learns to mask moving objects by itself. To prevent high annotations
costs, we created an automatic annotation method for self-supervised training.
We constructed a new dataset, named ConsInv, which includes challenging
real-world dynamic sequences respectively indoors and outdoors. Our method
reaches the state of the art on the TUM RGB-D dataset and outperforms it on
KITTI and ConsInv datasets.
- Abstract(参考訳): 動的環境における視覚SLAM -- 同時ローカライゼーションとマッピング -- は、通常、パフォーマンスに悪影響を及ぼすのを防ぐために、移動オブジェクトのイメージ特徴の識別とマスキングに依存します。
現在のアプローチは、必要ならばオブジェクトをマスクしないか、逆にオブジェクトを不要にマスクするかのどちらかである。
そこで本稿では,オブジェクトのマスキングによって動的シナリオの性能が向上する,新しいSLAMを提案する。
対象を分割する手法とSLAMを与えられた場合、対象の特定のクラスが与えられたSLAM計量を最大化するためにマスクされるべきかどうかを推測するテンポラル・マスキングの能力を後者に与える。
我々は動きに先立ってはいない。この手法は動く物体自体をマスクすることを学ぶ。
高アノテーションコストを防止するために,自己監督訓練のための自動アノテーション手法を開発した。
私たちはConsInvという新しいデータセットを構築しました。
提案手法は,TUM RGB-Dデータセット上の技術状況に到達し,KITTIおよびConsInvデータセット上で性能を向上する。
関連論文リスト
- ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - MaskFlow: Object-Aware Motion Estimation [0.45646200630189254]
本研究では,高精度な運動場を推定できる新しい動き推定手法MaskFlowを提案する。
他のディープニューラルネットワーク(DNN)ベースのモーション推定手法で使用される低レベルの機能に加えて、MaskFlowはオブジェクトレベルの機能やセグメンテーションから引き出される。
論文 参考訳(メタデータ) (2023-11-21T09:37:49Z) - Mask-free OVIS: Open-Vocabulary Instance Segmentation without Manual
Mask Annotations [86.47908754383198]
Open-Vocabulary (OV) 法は、大規模な画像キャプチャペアと視覚言語モデルを利用して、新しいカテゴリを学習する。
提案手法は,イメージキャプションペアに存在するオブジェクトに対して,事前学習された視覚言語モデルの局所化能力を活用することで,擬似マスクアノテーションを生成する。
擬似マスクを用いてトレーニングした手法は,MS-COCOデータセットとOpenImagesデータセットのmAPスコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-03-29T17:58:39Z) - Semantic Attention Flow Fields for Monocular Dynamic Scene Decomposition [51.67493993845143]
時間変化の色、密度、シーンフロー、セマンティクス、アテンション情報をキャプチャするニューラルボリュームを再構成する。
セマンティクスと注意により、時空を通して背景から別々に有意な前景オブジェクトを特定できる。
本手法は,教師なしの方法で動的シーンを分解し,教師付き手法と競合する性能を示す。
論文 参考訳(メタデータ) (2023-03-02T19:00:05Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - TwistSLAM: Constrained SLAM in Dynamic Environment [0.0]
本稿では,シーン内の動的オブジェクトをトラッキングできる意味的・動的・ステレオSLAMシステムTwistSLAMを提案する。
我々のアルゴリズムは、それらの意味クラスに応じて点の集合を生成する。
環境の静的な部分を使って、カメラをしっかりとローカライズし、残りのオブジェクトを追跡する。
論文 参考訳(メタデータ) (2022-02-24T22:08:45Z) - Generating Masks from Boxes by Mining Spatio-Temporal Consistencies in
Videos [159.02703673838639]
フレーム毎のバウンディングボックスアノテーションからセグメンテーションマスクを生成する手法を動画で紹介します。
得られた正確なマスクを用いて、ビデオオブジェクトセグメンテーション(VOS)ネットワークの弱い教師付きトレーニングを行う。
追加データは、VOSとより困難なトラッキングドメインの両方で最先端の結果をもたらす大幅に優れた一般化パフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-01-06T18:56:24Z) - Learning to Segment Dynamic Objects using SLAM Outliers [5.4310785842119795]
本稿では,SLAMアウトレイラを用いて動的オブジェクトのセグメントを自動的に学習する手法を提案する。
トレーニングには動的オブジェクトごとに1つのモノクラーシーケンスしか必要とせず、SLAMアウトリーチを使用して動的オブジェクトをローカライズし、マスクを作成し、これらのマスクを使用してセマンティックセグメンテーションネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-11-12T08:36:54Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。