論文の概要: HabiCrowd: A High Performance Simulator for Crowd-Aware Visual
Navigation
- arxiv url: http://arxiv.org/abs/2306.11377v1
- Date: Tue, 20 Jun 2023 08:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 15:05:09.725534
- Title: HabiCrowd: A High Performance Simulator for Crowd-Aware Visual
Navigation
- Title(参考訳): HabiCrowd: クラウド対応ビジュアルナビゲーションのための高性能シミュレータ
- Authors: An Dinh Vuong, Toan Tien Nguyen, Minh Nhat VU, Baoru Huang, Dzung
Nguyen, Huynh Thi Thanh Binh, Thieu Vo, Anh Nguyen
- Abstract要約: 私たちは、クラウド対応ビジュアルナビゲーションのための最初の標準ベンチマークであるHabiCrowdを紹介します。
提案する人間力学モデルは衝突回避における最先端性能を実現する。
我々はHabiCrowdを利用して、クラウド対応視覚ナビゲーションタスクと人間とロボットのインタラクションに関する総合的な研究を行っている。
- 参考スコア(独自算出の注目度): 6.183321602326045
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual navigation, a foundational aspect of Embodied AI (E-AI), has been
significantly studied in the past few years. While many 3D simulators have been
introduced to support visual navigation tasks, scarcely works have been
directed towards combining human dynamics, creating the gap between simulation
and real-world applications. Furthermore, current 3D simulators incorporating
human dynamics have several limitations, particularly in terms of computational
efficiency, which is a promise of E-AI simulators. To overcome these
shortcomings, we introduce HabiCrowd, the first standard benchmark for
crowd-aware visual navigation that integrates a crowd dynamics model with
diverse human settings into photorealistic environments. Empirical evaluations
demonstrate that our proposed human dynamics model achieves state-of-the-art
performance in collision avoidance, while exhibiting superior computational
efficiency compared to its counterparts. We leverage HabiCrowd to conduct
several comprehensive studies on crowd-aware visual navigation tasks and
human-robot interactions. The source code and data can be found at
https://habicrowd.github.io/.
- Abstract(参考訳): Embodied AI(E-AI)の基礎的な側面である視覚ナビゲーションは、ここ数年で大きく研究されている。
視覚ナビゲーションタスクをサポートするために多くの3Dシミュレータが導入されたが、人間のダイナミクスを組み合わせるための作業はほとんど行われておらず、シミュレーションと現実世界のアプリケーションの間にギャップが生じた。
さらに、人間の力学を取り入れた現在の3Dシミュレータには、特にE-AIシミュレータの約束である計算効率の面で、いくつかの制限がある。
このような欠点を克服するために、habicrowdを紹介する。habicrowdはクラウドアウェアビジュアルナビゲーションのための最初の標準ベンチマークで、クラウド・ダイナミクスモデルと多様な人間の設定をフォトリアリスティックな環境に統合する。
実験的な評価により,提案モデルが衝突回避における最先端の性能を達成し,計算効率も同等であることを示した。
我々はHabiCrowdを利用して、クラウド対応視覚ナビゲーションタスクと人間とロボットのインタラクションに関する包括的な研究を行っている。
ソースコードとデータはhttps://habicrowd.github.io/にある。
関連論文リスト
- GenH2R: Learning Generalizable Human-to-Robot Handover via Scalable
Simulation, Demonstration, and Imitation [33.592902750787424]
GenH2Rは、一般化可能なビジョンベースのヒューマン・トゥ・ロボット(H2R)ハンドオーバスキルを学ぶためのフレームワークである。
我々は、H2Rハンドオーバを包括的解を用いて大規模に学習することで、そのような一般化可能性を得る。
大規模3次元モデルレポジトリ、デクスタラスグリップ生成方法、曲線ベースの3次元アニメーションを活用している。
論文 参考訳(メタデータ) (2024-01-01T18:20:43Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Accelerating Interactive Human-like Manipulation Learning with GPU-based
Simulation and High-quality Demonstrations [25.393382192511716]
コンタクトリッチなタスクを対話的に操作するための没入型仮想現実遠隔操作インタフェースを提案する。
我々は,大規模並列RLと模倣学習の相補的強みを実証し,頑健で自然な振る舞いを示す。
論文 参考訳(メタデータ) (2022-12-05T09:37:27Z) - UnrealEgo: A New Dataset for Robust Egocentric 3D Human Motion Capture [70.59984501516084]
UnrealEgoは、エゴセントリックな3Dポーズ推定のための、新しい大規模博物学データセットである。
これは、2台の魚眼カメラを備えた高度な眼鏡のコンセプトに基づいており、制約のない環境で使用することができる。
本稿では,ステレオ入力のための2次元キーポイント推定モジュールを考案し,人間のポーズ推定を改善するための簡易かつ効果的なベンチマーク手法を提案する。
論文 参考訳(メタデータ) (2022-08-02T17:59:54Z) - Open-VICO: An Open-Source Gazebo Toolkit for Multi-Camera-based Skeleton
Tracking in Human-Robot Collaboration [0.0]
この研究は、ガゼボで仮想人間モデルを統合するためのオープンソースツールキットであるOpen-VICOを提示する。
特に、Open-VICOは、現実的な人間のキネマティックモデル、マルチカメラビジョン設定、そして人間の追跡技術と同じシミュレーション環境で組み合わせることができる。
論文 参考訳(メタデータ) (2022-03-28T13:21:32Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - ThreeDWorld: A Platform for Interactive Multi-Modal Physical Simulation [75.0278287071591]
ThreeDWorld (TDW) はインタラクティブなマルチモーダル物理シミュレーションのためのプラットフォームである。
TDWは、リッチな3D環境において、高忠実な感覚データのシミュレーションと、移動体エージェントとオブジェクト間の物理的相互作用を可能にする。
我々は、コンピュータビジョン、機械学習、認知科学における新たな研究方向において、TDWによって実現された初期実験を提示する。
論文 参考訳(メタデータ) (2020-07-09T17:33:27Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。