論文の概要: D2SLAM: Semantic visual SLAM based on the influence of Depth for Dynamic
environments
- arxiv url: http://arxiv.org/abs/2210.08647v1
- Date: Sun, 16 Oct 2022 22:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:56:17.238279
- Title: D2SLAM: Semantic visual SLAM based on the influence of Depth for Dynamic
environments
- Title(参考訳): D2SLAM:動的環境に対する深さの影響に基づく意味的視覚SLAM
- Authors: Ayman Beghdadi and Malik Mallem and Lotfi Beji
- Abstract要約: 一般化とシーン認識に欠ける動的要素を決定するための新しい手法を提案する。
我々は,幾何学的および意味的モジュールからの推定精度を向上するシーン深度情報を用いる。
その結果, 動的環境における正確な位置推定とマッピングを行う上で, 提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 0.483420384410068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Taking into account the dynamics of the scene is the most effective solution
to obtain an accurate perception of unknown environments within the framework
of a real autonomous robotic application. Many works have attempted to address
the non-rigid scene assumption by taking advantage of deep learning
advancements. Most new methods combine geometric and semantic approaches to
determine dynamic elements that lack generalization and scene awareness. We
propose a novel approach that overcomes the limitations of these methods by
using scene depth information that refines the accuracy of estimates from
geometric and semantic modules. In addition, the depth information is used to
determine an area of influence of dynamic objects through our Objects
Interaction module that estimates the state of both non-matched keypoints and
out of segmented region keypoints. The obtained results demonstrate the
efficacy of the proposed method in providing accurate localization and mapping
in dynamic environments.
- Abstract(参考訳): シーンのダイナミクスを考慮に入れれば、実際の自律ロボットアプリケーションのフレームワーク内で未知の環境を正確に認識するための最も効果的なソリューションである。
多くの研究は、深層学習の進歩を生かして、非厳密な場面の仮定に対処しようと試みてきた。
多くの新しい手法は幾何学的手法と意味論的手法を組み合わせて、一般化とシーン認識を欠いた動的要素を決定する。
本稿では,これらの手法の限界を克服する新しい手法として,幾何学的および意味的モジュールから推定の精度を向上させるシーン奥行き情報を用いた手法を提案する。
さらに、奥行き情報は、非マッチングキーポイントとセグメント化された領域キーポイントの両方の状態を推定するObjects Interactionモジュールを通して、動的オブジェクトの影響領域を決定するために使用されます。
その結果,動的環境における正確な位置推定とマッピングを実現するための提案手法の有効性が示された。
関連論文リスト
- Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Prompt-Driven Dynamic Object-Centric Learning for Single Domain
Generalization [61.64304227831361]
単一ドメインの一般化は、単一のソースドメインデータからモデルを学び、他の見えないターゲットドメイン上での一般的なパフォーマンスを達成することを目的としている。
本稿では,画像の複雑さの変化に対応することを目的とした,素早い学習に基づく動的物体中心知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T16:16:51Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic
environments [10.413523346264055]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Object Detection with Deep Reinforcement Learning [0.0]
深層強化学習に基づく新しいアクティブオブジェクトローカライゼーションアルゴリズムを実装した。
我々は,このMDPに対して,階層的手法と動的手法の2つの異なるアクション設定を比較した。
論文 参考訳(メタデータ) (2022-08-09T02:34:53Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - Self-Supervised Joint Learning Framework of Depth Estimation via
Implicit Cues [24.743099160992937]
深度推定のための自己教師型共同学習フレームワークを提案する。
提案するフレームワークは,KITTIおよびMake3Dデータセット上での最先端(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2020-06-17T13:56:59Z) - Neural Topological SLAM for Visual Navigation [112.73876869904]
意味論を生かし、近似幾何学的推論を行う空間のトポロジ的表現を設計する。
本稿では,ノイズのあるアクティベーションの下でそのような表現を構築し,維持し,使用することができる教師付き学習ベースアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-05-25T17:56:29Z) - Where Does It End? -- Reasoning About Hidden Surfaces by Object
Intersection Constraints [6.653734987585243]
Co-Sectionは3次元動的シーン再構築のための最適化ベースのアプローチである。
オブジェクトレベルの動的SLAMはシーン内のセグメントを検出し、トラックし、動的オブジェクトをマップする。
論文 参考訳(メタデータ) (2020-04-09T16:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。