論文の概要: SACSoN: Scalable Autonomous Data Collection for Social Navigation
- arxiv url: http://arxiv.org/abs/2306.01874v1
- Date: Fri, 2 Jun 2023 19:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 23:31:38.798462
- Title: SACSoN: Scalable Autonomous Data Collection for Social Navigation
- Title(参考訳): SACSoN: ソーシャルナビゲーションのためのスケーラブルな自律データコレクション
- Authors: Noriaki Hirose, Dhruv Shah, Ajay Sridhar, Sergey Levine
- Abstract要約: 本稿では,視覚に基づくナビゲーションのためのスケーラブルなデータ収集システムであるSACSoNについて述べる。
我々はこのシステムを用いて、人間の居住空間で動作する自律ロボットの視覚ナビゲーションデータセットであるSACSoNデータセットを収集する。
- 参考スコア(独自算出の注目度): 73.63212031963843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning provides a powerful tool for building socially compliant
robotic systems that go beyond simple predictive models of human behavior. By
observing and understanding human interactions from past experiences, learning
can enable effective social navigation behaviors directly from data. However,
collecting navigation data in human-occupied environments may require
teleoperation or continuous monitoring, making the process prohibitively
expensive to scale. In this paper, we present a scalable data collection system
for vision-based navigation, SACSoN, that can autonomously navigate around
pedestrians in challenging real-world environments while encouraging rich
interactions. SACSoN uses visual observations to observe and react to humans in
its vicinity. It couples this visual understanding with continual learning and
an autonomous collision recovery system that limits the involvement of a human
operator, allowing for better dataset scaling. We use a this system to collect
the SACSoN dataset, the largest-of-its-kind visual navigation dataset of
autonomous robots operating in human-occupied spaces, spanning over 75 hours
and 4000 rich interactions with humans. Our experiments show that collecting
data with a novel objective that encourages interactions, leads to significant
improvements in downstream tasks such as inferring pedestrian dynamics and
learning socially compliant navigation behaviors. We make videos of our
autonomous data collection system and the SACSoN dataset publicly available on
our project page.
- Abstract(参考訳): 機械学習は、人間の行動の単純な予測モデルを超えて、社会に準拠したロボットシステムを構築するための強力なツールを提供する。
過去の経験から人間のインタラクションを観察し理解することで、学習はデータから直接効果的なソーシャルナビゲーション行動を可能にする。
しかし、人里離れた環境でのナビゲーションデータ収集には遠隔操作や継続的な監視が必要であるため、スケーリングのコストは極めて高い。
本稿では,視覚ベースのナビゲーションのためのスケーラブルなデータ収集システムであるsacsonを提案する。
SACSoNは、周囲の人間の観察と反応に視覚的観察を使用する。
この視覚的理解は、連続的な学習と、人間のオペレーターの関与を制限する自律的な衝突回復システムとを結びつけ、より良いデータセットスケーリングを可能にします。
SACSoNデータセットは、人間が居住する空間で動く自律ロボットの視覚的ナビゲーションデータセットで、人間と75時間以上、そして4000時間以上のリッチな対話を行う。
実験の結果,対話を促す新たな目的によるデータ収集は,歩行者の動態推定や社会的に適合したナビゲーション行動の学習など,下流作業の大幅な改善につながることがわかった。
自律的なデータ収集システムとSACSoNデータセットのビデオは、プロジェクトページで公開しています。
関連論文リスト
- InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Doing Right by Not Doing Wrong in Human-Robot Collaboration [8.078753289996417]
本研究では,ポジティブ行動の再現ではなく,ネガティブ行動の回避によって,公平で社会的行動を学ぶための新しいアプローチを提案する。
本研究では,ロボット操作における社会性の導入の重要性と,人間とロボットの相互作用における公平性を検討することの重要性を強調した。
論文 参考訳(メタデータ) (2022-02-05T23:05:10Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - Social Navigation with Human Empowerment driven Deep Reinforcement
Learning [20.815007485176615]
次世代のモバイルロボットは、人間の協力者によって受け入れられるために、社会的に準拠する必要がある。
本稿では,古典的acfRLのアプローチを超えて,エンパワーメントを用いた本質的なモチベーションをエージェントに提供する。
我々のアプローチは、人間との距離を最小化し、それによって、効率的に目標に向かって移動しながら、人間の移動時間を短縮するので、人間に肯定的な影響を与える。
論文 参考訳(メタデータ) (2020-03-18T11:16:07Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。