論文の概要: SeanNet: Semantic Understanding Network for Localization Under Object
Dynamics
- arxiv url: http://arxiv.org/abs/2110.02276v1
- Date: Tue, 5 Oct 2021 18:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:14:52.256018
- Title: SeanNet: Semantic Understanding Network for Localization Under Object
Dynamics
- Title(参考訳): seannet:オブジェクトダイナミクス下の局所化のための意味理解ネットワーク
- Authors: Xiao Li, Yidong Du, Zhen Zeng, Odest Chadwicke Jenkins
- Abstract要約: 人間の日常活動によって引き起こされるオブジェクトレベルのシーンダイナミクスの下では、ロボットは環境にしっかりと位置決めする必要がある。
これまでは、静的環境における視覚的位置決めに取り組んできたが、オブジェクトレベルのシーンダイナミクスは、ロボットの長期展開における既存の手法に挑戦している。
本稿では,セマンティックアンダースタンディングネットワーク(SeanNet)を提案する。
- 参考スコア(独自算出の注目度): 14.936899865448892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim for domestic robots to operate indoor for long-term service. Under the
object-level scene dynamics induced by human daily activities, a robot needs to
robustly localize itself in the environment subject to scene uncertainties.
Previous works have addressed visual-based localization in static environments,
yet the object-level scene dynamics challenge existing methods on long-term
deployment of the robot. This paper proposes SEmantic understANding Network
(SeanNet) that enables robots to measure the similarity between two scenes on
both visual and semantic aspects. We further develop a similarity-based
localization method based on SeanNet for monitoring the progress of visual
navigation tasks. In our experiments, we benchmarked SeanNet against baselines
methods on scene similarity measures, as well as visual navigation performance
once integrated with a visual navigator. We demonstrate that SeanNet
outperforms all baseline methods, by robustly localizing the robot under object
dynamics, thus reliably informing visual navigation about the task status.
- Abstract(参考訳): 我々は,屋内におけるロボットの長期運用を目標としている。
ヒトの日常活動によって引き起こされる物体レベルのシーンダイナミクスの下では、ロボットはシーンの不確実性を考慮した環境にしっかりと位置決めする必要がある。
これまでは、静的環境における視覚的位置決めに取り組んできたが、オブジェクトレベルのシーンダイナミクスは、ロボットの長期展開における既存の手法に挑戦している。
本稿では,視覚面と意味面の両方において,ロボットが2つのシーン間の類似性を測定するための意味理解ネットワーク(seannet)を提案する。
さらに、視覚ナビゲーションタスクの進捗状況を監視するために、SeanNetに基づく類似性に基づくローカライズ手法を開発した。
実験では,シーン類似度測定のベースライン手法と,視覚ナビゲータと統合された視覚ナビゲーション性能について,SeanNetのベンチマークを行った。
我々は,seannetがロボットをオブジェクトダイナミクス下でロバストにローカライズすることにより,タスク状態に関する視覚的ナビゲーションを確実に知らせることで,すべてのベースラインメソッドに勝ることを実証する。
関連論文リスト
- OpenObject-NAV: Open-Vocabulary Object-Oriented Navigation Based on Dynamic Carrier-Relationship Scene Graph [10.475404599532157]
本稿では、頻繁に使用されるオブジェクトと静的キャリアの関係をキャプチャする。
本稿では,ナビゲーションプロセスをマルコフ決定プロセスとしてモデル化するインスタンスナビゲーション戦略を提案する。
その結果,CRSGを更新することで,移動目標への移動を効率的に行うことができることがわかった。
論文 参考訳(メタデータ) (2024-09-27T13:33:52Z) - DISCO: Embodied Navigation and Interaction via Differentiable Scene Semantics and Dual-level Control [53.80518003412016]
人間の命令によって多様なタスクに熟練した汎用的なインテリジェントホームアシストエージェントを構築することは、AI研究の長期的青写真である。
本研究では,具体的エージェントに対する原始的移動操作,すなわち指示された動詞と名詞のペアに基づいて,ナビゲートと対話の仕方について検討する。
本研究では、文脈化されたシーンモデリングと効率的な制御における非自明な進歩を特徴とするdisCOを提案する。
論文 参考訳(メタデータ) (2024-07-20T05:39:28Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Sparse Image based Navigation Architecture to Mitigate the need of
precise Localization in Mobile Robots [3.1556608426768324]
本稿では,スパース画像を用いた自律走行を追求する移動ロボットの正確な位置決めの必要性を軽減することに焦点を当てる。
提案手法は,教師なし学習のためのモデルアーキテクチャであるRoomNetで構成され,環境の粗い同定を行う。
後者はスパース画像マッチングを用いて、マッピングおよびトレーニング段階においてロボットが見たフレームをvis-a-visで達成したフレームの類似性を特徴付ける。
論文 参考訳(メタデータ) (2022-03-29T06:38:18Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - One-Shot Informed Robotic Visual Search in the Wild [29.604267552742026]
本研究では,環境モニタリングのための映像データ収集を目的とした水中ロボットナビゲーションの課題について考察する。
現在、フィールドロボットの大多数は、未構造化の自然環境における監視タスクを実行しており、経路追跡を通じて、指定された経路ポイントのシーケンスをナビゲートしている。
そこで本研究では,ロボットの視覚的探索を視覚的類似度演算子を用いて視覚的ナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2020-03-22T22:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。