論文の概要: Occlusion-Aware Crowd Navigation Using People as Sensors
- arxiv url: http://arxiv.org/abs/2210.00552v1
- Date: Sun, 2 Oct 2022 15:18:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 18:06:08.637027
- Title: Occlusion-Aware Crowd Navigation Using People as Sensors
- Title(参考訳): 人体をセンサとして用いた群集ナビゲーション
- Authors: Ye-Ji Mun, Masha Itkina, Shuijing Liu, and Katherine Driggs-Campbell
- Abstract要約: このような設定では、センサーの視野が限られているため、オクルージョンが非常に一般的である。
これまでの研究では、人間のエージェントの観察された対話的行動が潜在的な障害を推定するために用いられることが示されている。
本稿では,このような社会的推論手法を計画パイプラインに統合することを提案する。
- 参考スコア(独自算出の注目度): 8.635930195821263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous navigation in crowded spaces poses a challenge for mobile robots
due to the highly dynamic, partially observable environment. Occlusions are
highly prevalent in such settings due to a limited sensor field of view and
obstructing human agents. Previous work has shown that observed interactive
behaviors of human agents can be used to estimate potential obstacles despite
occlusions. We propose integrating such social inference techniques into the
planning pipeline. We use a variational autoencoder with a specially designed
loss function to learn representations that are meaningful for occlusion
inference. This work adopts a deep reinforcement learning approach to
incorporate the learned representation for occlusion-aware planning. In
simulation, our occlusion-aware policy achieves comparable collision avoidance
performance to fully observable navigation by estimating agents in occluded
spaces. We demonstrate successful policy transfer from simulation to the
real-world Turtlebot 2i. To the best of our knowledge, this work is the first
to use social occlusion inference for crowd navigation.
- Abstract(参考訳): 混雑した空間における自律ナビゲーションは、非常にダイナミックで部分的に観察可能な環境のため、移動ロボットにとって課題となる。
このような環境下では、人間エージェントの視界や妨害が限定されているため、閉塞が顕著である。
従来の研究では、人間のエージェントの観察された対話的行動は、閉塞にもかかわらず潜在的障害を推定するために用いられることが示されている。
このような社会的推論手法を計画パイプラインに統合することを提案する。
我々は,オクルージョン推論に有意な表現を学ぶために,特別に設計された損失関数を備えた変分オートエンコーダを用いる。
この研究は、オクルージョン対応計画のための学習表現を組み込むために、深い強化学習アプローチを採用する。
シミュレーションでは,隠蔽空間内のエージェントを推定することにより,完全に観測可能なナビゲーションに匹敵する衝突回避性能を実現する。
シミュレーションから実世界のTurtlebot 2iへのポリシー転送に成功した。
私たちの知る限りでは、この研究は初めて、群衆ナビゲーションに社会的排他的推論を用いたものである。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Structured Graph Network for Constrained Robot Crowd Navigation with Low Fidelity Simulation [10.201765067255147]
低忠実度シミュレータを用いた群集ナビゲーションにおける強化学習(RL)ポリシーの適用可能性について検討した。
動的環境の表現を導入し,人間と障害物の表現を分離する。
この表現は、低忠実度シミュレーターで訓練されたRLポリシーを、シム2リアルギャップを減らして現実世界に展開することを可能にする。
論文 参考訳(メタデータ) (2024-05-27T04:53:09Z) - Resilient Legged Local Navigation: Learning to Traverse with Compromised
Perception End-to-End [16.748853375988013]
我々は認識障害を目に見えない障害と落とし穴としてモデル化する。
我々は、強化学習に基づくローカルナビゲーションポリシーを訓練し、足のついたロボットを案内する。
シミュレーションおよび実四足歩行ロボットANYmalをリアルタイムに動作させることにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-10-05T15:01:31Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Exploiting Socially-Aware Tasks for Embodied Social Navigation [17.48110264302196]
本稿では,ソーシャル・アウェア・タスクを活用して,強化学習ナビゲーションポリシーに注入するエンド・ツー・エンドアーキテクチャを提案する。
この目的のために、我々のタスクは衝突の即時および将来の危険という概念を利用する。
Gibson4+およびHabitat-Matterport3Dデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2022-12-01T18:52:46Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。