論文の概要: Spatial Imagination With Semantic Cognition for Mobile Robots
- arxiv url: http://arxiv.org/abs/2104.03638v1
- Date: Thu, 8 Apr 2021 09:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:16:39.714382
- Title: Spatial Imagination With Semantic Cognition for Mobile Robots
- Title(参考訳): 移動ロボットのセマンティック認知による空間的イマジネーション
- Authors: Zhengcheng Shen, Linh K\"astner and Jens Lambrecht
- Abstract要約: 本稿では,モバイルロボットが意味認識に基づく空間的イマジネーションを行うための学習に基づくアルゴリズムを提案する。
写真リアルなシミュレーション環境であるハビタットをトレーニングや評価に活用しています。
この手法が意味マッピングの効率と正確性を向上させることが判明した。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The imagination of the surrounding environment based on experience and
semantic cognition has great potential to extend the limited observations and
provide more information for mapping, collision avoidance, and path planning.
This paper provides a training-based algorithm for mobile robots to perform
spatial imagination based on semantic cognition and evaluates the proposed
method for the mapping task. We utilize a photo-realistic simulation
environment, Habitat, for training and evaluation. The trained model is
composed of Resent-18 as encoder and Unet as the backbone. We demonstrate that
the algorithm can perform imagination for unseen parts of the object
universally, by recalling the images and experience and compare our approach
with traditional semantic mapping methods. It is found that our approach will
improve the efficiency and accuracy of semantic mapping.
- Abstract(参考訳): 経験とセマンティック認知に基づく環境の想像力は、限られた観測範囲を拡張し、マッピング、衝突回避、経路計画のためのより多くの情報を提供する大きな可能性を秘めている。
本稿では,移動ロボットが意味認識に基づく空間的想像力を実現するためのトレーニングベースアルゴリズムを提案し,提案手法の評価を行った。
本研究では,フォトリアリスティックなシミュレーション環境Habitatをトレーニングと評価に利用した。
トレーニングされたモデルは、エンコーダとしてのresent-18とバックボーンとしてのunetで構成されている。
画像や経験をリコールし、従来の意味マッピング手法と比較することにより、オブジェクトの見えない部分の想像力を普遍的に実現できることを実証する。
この手法が意味マッピングの効率と正確性を向上させることが判明した。
関連論文リスト
- Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Domain Adaptive Imitation Learning with Visual Observation [23.109405205238318]
本研究では,ドメイン適応型模擬学習を視覚的観察とともに検討し,エージェントが情報源領域における専門家のデモンストレーションを観察することでタスクを実行することを学習する。
本稿では,学習者の学習に使用できる入力観察から,ドメインに依存しない行動特徴を抽出する新しいフレームワークを提案する。
実験の結果,本手法は,領域シフトによる視覚的観察から得られた模倣学習のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T12:48:41Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Object Goal Navigation Based on Semantics and RGB Ego View [9.702784248870522]
本稿では,RGBエゴビューを前提として,サービスロボットが屋内環境のセマンティックな意思決定を行えるようにするためのアーキテクチャと方法論を提案する。
ロボットはジオセムマップ(幾何マップと意味マップのリレーショナル組み合わせ)に基づいてナビゲートする。
提案手法は, 平均完了時間に対するゲーミフィケーション評価において, 人間のユーザよりも優れていた。
論文 参考訳(メタデータ) (2022-10-20T19:23:08Z) - MaAST: Map Attention with Semantic Transformersfor Efficient Visual
Navigation [4.127128889779478]
この作業は、自律エージェントの視覚ナビゲーションのための既存の学習ベースのソリューションよりも良く、または匹敵するパフォーマンスに重点を置いています。
本稿では,重要シーンのセマンティクスを意味的に理解し,トップダウンのエゴセントリックな地図表現にエンコードする手法を提案する。
本研究では,3次元再構成した屋内ポイントゴーア視覚ナビゲーション実験を行い,その効果を実証する。
論文 参考訳(メタデータ) (2021-03-21T12:01:23Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Neural Topological SLAM for Visual Navigation [112.73876869904]
意味論を生かし、近似幾何学的推論を行う空間のトポロジ的表現を設計する。
本稿では,ノイズのあるアクティベーションの下でそのような表現を構築し,維持し,使用することができる教師付き学習ベースアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-05-25T17:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。