論文の概要: Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation
- arxiv url: http://arxiv.org/abs/2203.15041v1
- Date: Mon, 28 Mar 2022 19:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 10:05:42.113771
- Title: Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation
- Title(参考訳): 社会調和型ナビゲーションデータセット(SCAND) : ソーシャルナビゲーションのための大規模データ集合
- Authors: Haresh Karnan, Anirudh Nair, Xuesu Xiao, Garrett Warnell, Soeren Pirk,
Alexander Toshev, Justin Hart, Joydeep Biswas, Peter Stone
- Abstract要約: 社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
- 参考スコア(独自算出の注目度): 92.66286342108934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social navigation is the capability of an autonomous agent, such as a robot,
to navigate in a 'socially compliant' manner in the presence of other
intelligent agents such as humans. With the emergence of autonomously
navigating mobile robots in human populated environments (e.g., domestic
service robots in homes and restaurants and food delivery robots on public
sidewalks), incorporating socially compliant navigation behaviors on these
robots becomes critical to ensuring safe and comfortable human robot
coexistence. To address this challenge, imitation learning is a promising
framework, since it is easier for humans to demonstrate the task of social
navigation rather than to formulate reward functions that accurately capture
the complex multi objective setting of social navigation. The use of imitation
learning and inverse reinforcement learning to social navigation for mobile
robots, however, is currently hindered by a lack of large scale datasets that
capture socially compliant robot navigation demonstrations in the wild. To fill
this gap, we introduce Socially CompliAnt Navigation Dataset (SCAND) a large
scale, first person view dataset of socially compliant navigation
demonstrations. Our dataset contains 8.7 hours, 138 trajectories, 25 miles of
socially compliant, human teleoperated driving demonstrations that comprises
multi modal data streams including 3D lidar, joystick commands, odometry,
visual and inertial information, collected on two morphologically different
mobile robots a Boston Dynamics Spot and a Clearpath Jackal by four different
human demonstrators in both indoor and outdoor environments. We additionally
perform preliminary analysis and validation through real world robot
experiments and show that navigation policies learned by imitation learning on
SCAND generate socially compliant behaviors
- Abstract(参考訳): 社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で「社会的に適合した」方法でナビゲートする能力である。
ヒトの生活環境(例えば家庭やレストランの家庭内サービスロボットや公共歩道のフードデリバリーロボット)における自律的な移動ロボットの出現に伴い、これらのロボットに社会に適合したナビゲーション行動を導入することは、安全で快適な人間のロボット共存を保証するために重要となる。
この課題に対処するため、模倣学習は有望な枠組みであり、複雑な多目的ソーシャルナビゲーションの設定を正確に捉える報酬関数を定式化するのではなく、人間がソーシャルナビゲーションのタスクを実演することが容易である。
しかし、モバイルロボットのソーシャルナビゲーションにおける模倣学習と逆強化学習の利用は、現在、社会に適応したロボットナビゲーションのデモを撮影する大規模なデータセットの欠如によって妨げられている。
このギャップを埋めるために,我々は,ソーシャルに準拠したナビゲーションデータセット(scand)を,ソーシャルに準拠したナビゲーションデモの大規模かつファーストパーソンビューデータセットとして紹介する。
当社のデータセットは、8.7時間138トラジェクタ、25マイルの社会的に準拠した人間の遠隔操作による運転デモを含み、3dlidar、ジョイスティックコマンド、オドメトリ、視覚および慣性情報を含むマルチモーダルデータストリームで構成され、形態的に異なる2つの移動ロボット、boston dynamics spotと、屋内および屋外の4つの異なる人間のデモ参加者によるclearpath jackalで収集されています。
さらに,実世界のロボット実験を通して予備分析と検証を行い,模倣学習によって学習されたナビゲーション方針が社会的に適合した行動を生み出すことを示す。
関連論文リスト
- CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction [19.997935470257794]
本稿では,コモンセンス認識ナビゲーションのための視覚的および言語的指示を組み合わせたフレームワークであるCANVASを提案する。
その成功は模倣学習によって引き起こされ、ロボットは人間のナビゲーション行動から学ぶことができる。
実験の結果,CANVASはすべての環境において,強力なルールベースシステムであるROS NavStackよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-02T06:34:45Z) - GRUtopia: Dream General Robots in a City at Scale [65.08318324604116]
本稿では,各種ロボットを対象とした対話型3D社会「GRUtopia」について紹介する。
GRScenesには100万のインタラクティブな微妙な注釈付きシーンが含まれており、都市規模の環境に自由に組み合わせることができる。
GRResidentsはLarge Language Model (LLM)によって駆動されるNon-Player Character (NPC)システムである。
論文 参考訳(メタデータ) (2024-07-15T17:40:46Z) - Exploring Social Motion Latent Space and Human Awareness for Effective
Robot Navigation in Crowded Environments [3.714800947440209]
提案手法は,成功率,航法時間,軌道長などのソーシャルナビゲーション指標を大幅に改善する。
ロボットに対する人間の意識の概念は、社会ロボットナビゲーションフレームワークに導入されている。
論文 参考訳(メタデータ) (2023-10-11T09:25:24Z) - A Study on Learning Social Robot Navigation with Multimodal Perception [6.052803245103173]
本稿では,大規模実世界のデータセットを用いたマルチモーダル認識を用いた社会ロボットナビゲーションの学習について述べる。
我々は,一助学習と多モーダル学習のアプローチを,異なる社会シナリオにおける古典的なナビゲーション手法のセットと比較する。
その結果、マルチモーダル学習は、データセットと人的学習の両方において、一助学習よりも明らかな優位性を持つことが示された。
論文 参考訳(メタデータ) (2023-09-22T01:47:47Z) - Principles and Guidelines for Evaluating Social Robot Navigation
Algorithms [44.51586279645062]
社会的ロボットナビゲーションは、動的エージェントとそのロボット行動の適切性に対する認識が関係しているため、評価が難しい。
コントリビューションには、(a)安全性、快適性、妥当性、丁寧さ、社会的能力、エージェント理解、活動性、文脈に対する応答性に関する原則、(b)メトリクスの使用のためのガイドライン、シナリオ、ベンチマーク、データセット、社会ナビゲーションを評価するためのシミュレーター、(c)様々なシミュレーター、ロボット、データセットの結果の比較を容易にするソーシャルナビゲーションメトリクスフレームワークなどが含まれます。
論文 参考訳(メタデータ) (2023-06-29T07:31:43Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。