論文の概要: A Study on Learning Social Robot Navigation with Multimodal Perception
- arxiv url: http://arxiv.org/abs/2309.12568v1
- Date: Fri, 22 Sep 2023 01:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 16:23:07.370029
- Title: A Study on Learning Social Robot Navigation with Multimodal Perception
- Title(参考訳): マルチモーダル知覚を用いたソーシャルロボットナビゲーションの学習に関する研究
- Authors: Bhabaranjan Panigrahi, Amir Hossain Raj, Mohammad Nazeri and Xuesu
Xiao
- Abstract要約: 本稿では,大規模実世界のデータセットを用いたマルチモーダル認識を用いた社会ロボットナビゲーションの学習について述べる。
我々は,一助学習と多モーダル学習のアプローチを,異なる社会シナリオにおける古典的なナビゲーション手法のセットと比較する。
その結果、マルチモーダル学習は、データセットと人的学習の両方において、一助学習よりも明らかな優位性を持つことが示された。
- 参考スコア(独自算出の注目度): 6.052803245103173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous mobile robots need to perceive the environments with their onboard
sensors (e.g., LiDARs and RGB cameras) and then make appropriate navigation
decisions. In order to navigate human-inhabited public spaces, such a
navigation task becomes more than only obstacle avoidance, but also requires
considering surrounding humans and their intentions to somewhat change the
navigation behavior in response to the underlying social norms, i.e., being
socially compliant. Machine learning methods are shown to be effective in
capturing those complex and subtle social interactions in a data-driven manner,
without explicitly hand-crafting simplified models or cost functions.
Considering multiple available sensor modalities and the efficiency of learning
methods, this paper presents a comprehensive study on learning social robot
navigation with multimodal perception using a large-scale real-world dataset.
The study investigates social robot navigation decision making on both the
global and local planning levels and contrasts unimodal and multimodal learning
against a set of classical navigation approaches in different social scenarios,
while also analyzing the training and generalizability performance from the
learning perspective. We also conduct a human study on how learning with
multimodal perception affects the perceived social compliance. The results show
that multimodal learning has a clear advantage over unimodal learning in both
dataset and human studies. We open-source our code for the community's future
use to study multimodal perception for learning social robot navigation.
- Abstract(参考訳): 自律移動ロボットは、搭載されたセンサー(LiDARやRGBカメラなど)で環境を認識し、適切なナビゲーション決定を行う必要がある。
人の居住する公共空間をナビゲートするためには、そのようなナビゲーションタスクは単なる障害物回避以上のものとなるだけでなく、周囲の人間とその意図も考慮し、社会的な規範、すなわち社会に順応する社会規範に応じてナビゲーション行動を変える必要がある。
機械学習手法は、単純化されたモデルやコスト関数を明確に手作りすることなく、複雑な、微妙な社会的相互作用をデータ駆動で捉えるのに効果的であることが示されている。
本稿では,複数のセンサモードと学習方法の効率を考慮し,大規模実世界データセットを用いたマルチモーダル知覚によるソーシャルロボットナビゲーションの学習に関する包括的研究を行う。
本研究は,グローバルとローカルの両方の計画レベルでのソーシャルロボットナビゲーションの意思決定と,異なる社会シナリオにおける古典的ナビゲーションアプローチに対するユニモーダル学習とマルチモーダル学習の対比について検討するとともに,学習の観点からのトレーニングと一般化可能性のパフォーマンスも分析した。
また,マルチモーダル認知による学習が社会的コンプライアンスに与える影響について人間実験を行った。
その結果、マルチモーダル学習は、データセットと人間研究の両方において、ユニモーダル学習よりも明らかに有利であることが示された。
我々は,社会ロボットナビゲーション学習のためのマルチモーダル認識を研究するために,コミュニティの将来的な利用のためのコードをオープンソース化した。
関連論文リスト
- Principles and Guidelines for Evaluating Social Robot Navigation
Algorithms [44.51586279645062]
社会的ロボットナビゲーションは、動的エージェントとそのロボット行動の適切性に対する認識が関係しているため、評価が難しい。
コントリビューションには、(a)安全性、快適性、妥当性、丁寧さ、社会的能力、エージェント理解、活動性、文脈に対する応答性に関する原則、(b)メトリクスの使用のためのガイドライン、シナリオ、ベンチマーク、データセット、社会ナビゲーションを評価するためのシミュレーター、(c)様々なシミュレーター、ロボット、データセットの結果の比較を容易にするソーシャルナビゲーションメトリクスフレームワークなどが含まれます。
論文 参考訳(メタデータ) (2023-06-29T07:31:43Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Learning Social Navigation from Demonstrations with Conditional Neural
Processes [2.627046865670577]
本稿では,コンディショナル・ニューラル・プロセスを用いて,移動ロボットのグローバル・ローカル・コントローラを観測から学習するデータ駆動ナビゲーションアーキテクチャを提案する。
提案手法は,データ中の社会的規範に関するナビゲーションタスクをうまく実行できることを実証した。
論文 参考訳(メタデータ) (2022-10-07T14:37:56Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - From Learning to Relearning: A Framework for Diminishing Bias in Social
Robot Navigation [3.3511723893430476]
社会的ナビゲーションモデルは、差別や差別のような社会的不公平を複製し、促進し、増幅することができる。
提案するフレームワークは,安全性と快適性を考慮したソーシャルコンテキストを学習プロセスに組み込んだtextitlearningと,発生前に潜在的に有害な結果を検出し修正するtextitrelearningの2つのコンポーネントで構成されている。
論文 参考訳(メタデータ) (2021-01-07T17:42:35Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。