論文の概要: Using Virtual Reality to Simulate Human-Robot Emergency Evacuation
Scenarios
- arxiv url: http://arxiv.org/abs/2210.08414v1
- Date: Sun, 16 Oct 2022 02:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:15:26.513891
- Title: Using Virtual Reality to Simulate Human-Robot Emergency Evacuation
Scenarios
- Title(参考訳): バーチャルリアリティーを用いたロボット緊急避難シナリオのシミュレーション
- Authors: Alan R. Wagner, Colin Holbrook, Daniel Holman, Brett Sheeran, Vidullan
Surendran, Jared Armagost, Savanna Spazak, Yinxuan Yin
- Abstract要約: 本稿では,ロボットが人を出口まで案内する緊急避難シナリオをシミュレーションするために仮想現実を利用する取り組みについて述べる。
我々の以前の研究は、緊急避難中にロボットが故障している場合でも、ロボットの指示に従うことを実証した。
- 参考スコア(独自算出の注目度): 6.464354828270822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our recent effort to use virtual reality to simulate
threatening emergency evacuation scenarios in which a robot guides a person to
an exit. Our prior work has demonstrated that people will follow a robot's
guidance, even when the robot is faulty, during an emergency evacuation. Yet,
because physical in-person emergency evacuation experiments are difficult and
costly to conduct and because we would like to evaluate many different factors,
we are motivated to develop a system that immerses people in the simulation
environment to encourage genuine subject reactions. We are working to complete
experiments verifying the validity of our approach.
- Abstract(参考訳): 本稿では,ロボットが人を出口まで案内する緊急避難シナリオのシミュレーションに仮想現実を利用した最近の取り組みについて述べる。
我々の以前の研究は、緊急避難中にロボットが故障している場合でも、ロボットの指示に従うことを実証した。
しかし,実際の緊急避難実験は実施が困難で費用がかかるため,様々な要因を評価したいと考え,実際の被験者反応を促すためにシミュレーション環境に人々を没入させるシステムを開発する動機がある。
我々は、我々のアプローチの有効性を検証する実験の完了に取り組んでいる。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Guessing human intentions to avoid dangerous situations in caregiving robots [1.3546242205182986]
本研究では,人間の危険状況を検出するアルゴリズムを提案する。
ATMにシミュレーションベースのアプローチを導入し、「いいね!」ポリシーを採用し、人々に意図や行動を割り当てる。
このアルゴリズムは既存の認知アーキテクチャの一部として実装され、シミュレーションシナリオでテストされている。
論文 参考訳(メタデータ) (2024-03-24T20:43:29Z) - Autonomous Robotic Reinforcement Learning with Asynchronous Human
Feedback [27.223725464754853]
GEARは、ロボットを現実世界の環境に配置し、中断することなく自律的に訓練することを可能にする。
システムはリモート、クラウドソース、非専門家からの非同期フィードバックのみを必要とする、Webインターフェースにロボットエクスペリエンスをストリームする。
論文 参考訳(メタデータ) (2023-10-31T16:43:56Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Towards Autonomous Grading In The Real World [4.651327752886103]
我々は、不均一な領域を平坦化するためにドーザを必要とする自律的なグレーディングの問題に取り組むことを目的としている。
本研究では,現実的な物理シミュレーションと実ドーザーのダイナミックスと感覚情報を模倣した拡張された実プロトタイプ環境の両方を設計する。
論文 参考訳(メタデータ) (2022-06-13T12:21:20Z) - An in-depth experimental study of sensor usage and visual reasoning of
robots navigating in real environments [20.105395754497202]
実物的エージェントの性能と推論能力について検討し、シミュレーションで訓練し、2つの異なる物理的環境に展開する。
我々は,PointGoalタスクに対して,多種多様なタスクを事前訓練し,対象環境の模擬バージョンを微調整したエージェントが,sim2real転送をモデル化せずに競争性能に達することを示す。
論文 参考訳(メタデータ) (2021-11-29T16:27:29Z) - Robot Learning from Randomized Simulations: A Review [59.992761565399185]
ディープラーニングがロボティクス研究のパラダイムシフトを引き起こし、大量のデータを必要とする方法が好まれている。
最先端のアプローチは、データ生成が高速かつ安価であるシミュレーションで学ぶ。
本稿では,ランダム化シミュレーションから学習する手法である「領域ランダム化」に焦点をあてる。
論文 参考訳(メタデータ) (2021-11-01T13:55:41Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。