論文の概要: Gesture2Path: Imitation Learning for Gesture-aware Navigation
- arxiv url: http://arxiv.org/abs/2209.09375v1
- Date: Mon, 19 Sep 2022 23:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:12:50.623605
- Title: Gesture2Path: Imitation Learning for Gesture-aware Navigation
- Title(参考訳): Gesture2Path: ジェスチャー認識ナビゲーションのための模倣学習
- Authors: Catie Cuan, Edward Lee, Emre Fisher, Anthony Francis, Leila Takayama,
Tingnan Zhang, Alexander Toshev, and S\"oren Pirk
- Abstract要約: Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
- 参考スコア(独自算出の注目度): 54.570943577423094
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As robots increasingly enter human-centered environments, they must not only
be able to navigate safely around humans, but also adhere to complex social
norms. Humans often rely on non-verbal communication through gestures and
facial expressions when navigating around other people, especially in densely
occupied spaces. Consequently, robots also need to be able to interpret
gestures as part of solving social navigation tasks. To this end, we present
Gesture2Path, a novel social navigation approach that combines image-based
imitation learning with model-predictive control. Gestures are interpreted
based on a neural network that operates on streams of images, while we use a
state-of-the-art model predictive control algorithm to solve point-to-point
navigation tasks. We deploy our method on real robots and showcase the
effectiveness of our approach for the four gestures-navigation scenarios:
left/right, follow me, and make a circle. Our experiments indicate that our
method is able to successfully interpret complex human gestures and to use them
as a signal to generate socially compliant trajectories for navigation tasks.
We validated our method based on in-situ ratings of participants interacting
with the robots.
- Abstract(参考訳): ロボットが人間中心の環境に入るにつれ、人間の周りを安全に移動できるだけでなく、複雑な社会的規範にも従わなければならない。
人間は、特に密集した空間において、他の人の周りを移動するとき、ジェスチャーや表情を通じて非言語コミュニケーションに頼ることが多い。
その結果、ロボットはソーシャルナビゲーションタスクの解決の一部としてジェスチャーを解釈できる必要がある。
この目的のために,画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法Gesture2Pathを提案する。
ジェスチャーは画像のストリームで動作するニューラルネットワークに基づいて解釈され、最先端のモデル予測制御アルゴリズムを用いてポイントツーポイントナビゲーションタスクを解決する。
本手法を実際のロボットに展開し,4つのジェスチャ操作シナリオ(左/右,私に従う,円を作る)に対するアプローチの有効性を示す。
本実験は, 複雑な人間のジェスチャーをうまく解釈し, ナビゲーションタスクに社会的に適合した軌道を生成する信号として用いることができることを示す。
本手法は,ロボットと対話する参加者のその場評価に基づいて検証した。
関連論文リスト
- CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction [19.997935470257794]
本稿では,コモンセンス認識ナビゲーションのための視覚的および言語的指示を組み合わせたフレームワークであるCANVASを提案する。
その成功は模倣学習によって引き起こされ、ロボットは人間のナビゲーション行動から学ぶことができる。
実験の結果,CANVASはすべての環境において,強力なルールベースシステムであるROS NavStackよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-02T06:34:45Z) - Learning Strategies For Successful Crowd Navigation [0.0]
我々は、ニューラルネットワークを用いて、ロボットで特定の戦略を学習する群集ナビゲーションに焦点を当てた。
CNNはシーンのトップダウン画像を入力として、ロボットが速度と角度で次のアクションを出力する。
論文 参考訳(メタデータ) (2024-04-09T18:25:21Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Learning Social Navigation from Demonstrations with Conditional Neural
Processes [2.627046865670577]
本稿では,コンディショナル・ニューラル・プロセスを用いて,移動ロボットのグローバル・ローカル・コントローラを観測から学習するデータ駆動ナビゲーションアーキテクチャを提案する。
提案手法は,データ中の社会的規範に関するナビゲーションタスクをうまく実行できることを実証した。
論文 参考訳(メタデータ) (2022-10-07T14:37:56Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Communicative Learning with Natural Gestures for Embodied Navigation
Agents with Human-in-the-Scene [34.1812210095966]
我々はAI2-THORプラットフォームに基づくVRベースの3Dシミュレーション環境であるGes-THORを開発した。
この仮想環境において、人間のプレイヤーは同じ仮想シーンに配置され、ジェスチャーのみを用いて人工エージェントを羊飼いする。
自然なジェスチャーの意味を学習することは、ナビゲーションタスクの学習において相互に有益である、と我々は主張する。
論文 参考訳(メタデータ) (2021-08-05T20:56:47Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。