論文の概要: SFU-Store-Nav: A Multimodal Dataset for Indoor Human Navigation
- arxiv url: http://arxiv.org/abs/2010.14802v1
- Date: Wed, 28 Oct 2020 08:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 06:04:59.230645
- Title: SFU-Store-Nav: A Multimodal Dataset for Indoor Human Navigation
- Title(参考訳): SFU-Store-Nav:屋内ナビゲーションのためのマルチモーダルデータセット
- Authors: Zhitian Zhang, Jimin Rhim, Taher Ahmadi, Kefan Yang, Angelica Lim, Mo
Chen
- Abstract要約: この記事では、人間の参加者とロボットを含む一連の実験で収集されたデータセットについて述べる。
その目的は、自律ロボットナビゲーションに関連する人間のナビゲーション意図を示す共通のジェスチャー、動き、その他の行動を含むデータを集めることである。
この実験は、人間の参加者が買い物リストからアイテムを拾い、人間の参加者を助けるためにプログラムされたPepperロボットと対話するショッピングシナリオをシミュレートする。
- 参考スコア(独自算出の注目度): 4.965114253725413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article describes a dataset collected in a set of experiments that
involves human participants and a robot. The set of experiments was conducted
in the computing science robotics lab in Simon Fraser University, Burnaby, BC,
Canada, and its aim is to gather data containing common gestures, movements,
and other behaviours that may indicate humans' navigational intent relevant for
autonomous robot navigation. The experiment simulates a shopping scenario where
human participants come in to pick up items from his/her shopping list and
interact with a Pepper robot that is programmed to help the human participant.
We collected visual data and motion capture data from 108 human participants.
The visual data contains live recordings of the experiments and the motion
capture data contains the position and orientation of the human participants in
world coordinates. This dataset could be valuable for researchers in the
robotics, machine learning and computer vision community.
- Abstract(参考訳): この記事では、人間の参加者とロボットを含む一連の実験で収集されたデータセットについて述べる。
一連の実験は、カナダのバーナビーのサイモン・フレイザー大学(英語版)にあるcompute science robotics lab(英語版)で行われ、その目的は、自律ロボットのナビゲーションに関連する人間のナビゲーション意図を示す、共通のジェスチャー、動き、その他の行動を含むデータを収集することである。
この実験は、人間の参加者が買い物リストからアイテムを拾い、人間の参加者を助けるためにプログラムされたPepperロボットと対話するショッピングシナリオをシミュレートする。
108人の被験者から視覚データとモーションキャプチャーデータを収集した。
視覚データは、実験のライブ記録を含み、モーションキャプチャデータは、世界座標における人間の参加者の位置と向きを含む。
このデータセットは、ロボティクス、機械学習、コンピュータビジョンコミュニティの研究者にとって価値のあるものだ。
関連論文リスト
- Learning Human Perception Dynamics for Informative Robot Communication [21.170542003568674]
CoNav-Mazeは、ロボットが局所的な知覚を用いてナビゲートし、人間のオペレーターが不正確な地図に基づいてガイダンスを提供するシミュレーションロボット環境である。
効率的な人ロボット協調を実現するため,情報ゲインモンテカルロ木探索(IG-MCTS)を提案する。
Central to IG-MCTSは、人間がロボットのコミュニケーションからどのように情報を抽出するかを推定する、人間の知覚力学モデルである。
論文 参考訳(メタデータ) (2025-02-03T22:08:04Z) - HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - NatSGD: A Dataset with Speech, Gestures, and Demonstrations for Robot
Learning in Natural Human-Robot Interaction [19.65778558341053]
HRIデータセットは、オブジェクトのポインティングやプッシュといった基本的なタスクに重点を置いていることが多い。
音声とジェスチャーによる人間のコマンドを含むマルチモーダルHRIデータセットであるNatSGDを紹介する。
マルチモーダル・ヒューマン・コマンドによるタスク理解のためのロボットの訓練において,その効果を実証する。
論文 参考訳(メタデータ) (2024-03-04T18:02:41Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Action-conditioned Deep Visual Prediction with RoAM, a new Indoor Human
Motion Dataset for Autonomous Robots [1.7778609937758327]
ロボット自律運動(RoAM)ビデオデータセットについて紹介する。
このロボットは、ロボットのエゴビジョンから様々な人間の動きを記録する様々な屋内環境において、カスタムメイドのタートルボット3バーガーロボットで収集される。
データセットには、LiDARスキャンの同期記録や、静的で動く人間のエージェントの周りを移動する際にロボットが取るすべての制御アクションも含まれている。
論文 参考訳(メタデータ) (2023-06-28T00:58:44Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。