論文の概要: CoNav: A Benchmark for Human-Centered Collaborative Navigation
- arxiv url: http://arxiv.org/abs/2406.02425v1
- Date: Tue, 4 Jun 2024 15:44:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 15:30:46.808047
- Title: CoNav: A Benchmark for Human-Centered Collaborative Navigation
- Title(参考訳): CoNav: 人中心コラボレーションナビゲーションのベンチマーク
- Authors: Changhao Li, Xinyu Sun, Peihao Chen, Jugang Fan, Zixu Wang, Yanxia Liu, Jinhui Zhu, Chuang Gan, Mingkui Tan,
- Abstract要約: 協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
- 参考スコア(独自算出の注目度): 66.6268966718022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-robot collaboration, in which the robot intelligently assists the human with the upcoming task, is an appealing objective. To achieve this goal, the agent needs to be equipped with a fundamental collaborative navigation ability, where the agent should reason human intention by observing human activities and then navigate to the human's intended destination in advance of the human. However, this vital ability has not been well studied in previous literature. To fill this gap, we propose a collaborative navigation (CoNav) benchmark. Our CoNav tackles the critical challenge of constructing a 3D navigation environment with realistic and diverse human activities. To achieve this, we design a novel LLM-based humanoid animation generation framework, which is conditioned on both text descriptions and environmental context. The generated humanoid trajectory obeys the environmental context and can be easily integrated into popular simulators. We empirically find that the existing navigation methods struggle in CoNav task since they neglect the perception of human intention. To solve this problem, we propose an intention-aware agent for reasoning both long-term and short-term human intention. The agent predicts navigation action based on the predicted intention and panoramic observation. The emergent agent behavior including observing humans, avoiding human collision, and navigation reveals the efficiency of the proposed datasets and agents.
- Abstract(参考訳): ロボットとロボットのコラボレーションは、ロボットが人間をその次のタスクでインテリジェントに支援するものであり、魅力的な目的である。
この目的を達成するためには、エージェントは基本的な協調ナビゲーション能力を備えており、エージェントは人間の活動を観察して人間の意図を推論し、人間の前で人間の意図した目的地へ移動する必要がある。
しかし、この重要な能力は以前の文献では十分に研究されていない。
このギャップを埋めるために、協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
そこで本研究では,テキスト記述と環境コンテキストの両方を条件とした,新しいLLMベースのヒューマノイドアニメーション生成フレームワークを設計する。
生成されたヒューマノイド軌道は環境条件に従っており、人気のあるシミュレータに容易に組み込むことができる。
既存のナビゲーション手法は,人間の意図の認識を無視するため,CoNavタスクで苦労している。
そこで本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
エージェントは、予測された意図とパノラマ観測に基づいて、ナビゲーション動作を予測する。
人間を観察し、人間の衝突を回避し、ナビゲーションを含む創発的エージェントの振る舞いは、提案されたデータセットとエージェントの効率を明らかにする。
関連論文リスト
- Dreaming to Assist: Learning to Align with Human Objectives for Shared Control in High-Speed Racing [10.947581892636629]
高速なダイナミクスと戦術的な決定を含むドメインにおける効果的な人間ロボットチームのために、タイトな調整が求められます。
人間の目的や価値関数を推測できる豊かな世界モデルを組み合わせたフレームワークであるDream2Assistを提案する。
人間の行動と人間の行動とを混ぜ合わせると、人工人間単独よりも優れた結果が得られます。
論文 参考訳(メタデータ) (2024-10-14T01:00:46Z) - Aligning Robot Navigation Behaviors with Human Intentions and Preferences [2.9914612342004503]
この論文は,「自律移動ロボットのナビゲーション行動と人間の意図と嗜好を一致させるために,機械学習手法をどのように利用できるのか?」という疑問に答えることを目的としている。
第一に、この論文は、意図したナビゲーションタスクの人間が提供する実演を模倣することにより、ナビゲーション行動を学ぶための新しいアプローチを導入している。
第二に、この論文は、視覚的な地形認識を自己監督的に学習することで、移動ロボットの地形認識オフロードナビゲーションを強化する2つのアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-09-16T03:45:00Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Robots That Can See: Leveraging Human Pose for Trajectory Prediction [30.919756497223343]
本研究では,人間中心環境における未来の軌道を予測するためのトランスフォーマーアーキテクチャを提案する。
結果として得られたモデルは、将来の人間の軌道予測に固有の不確実性を捉えている。
我々は,限られた履歴データを持つ新しいエージェントを誤りの主な要因として同定し,予測誤差を低減するために3次元骨格ポーズの相補的な性質を実証する。
論文 参考訳(メタデータ) (2023-09-29T13:02:56Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Navigation Turing Test (NTT): Learning to Evaluate Human-Like Navigation [9.456752543341464]
複雑な人間のような振る舞いを学習するエージェントを開発する上で重要な課題は、人間の類似性を迅速かつ正確に定量化する必要があることである。
これらの制限に対処するために,人間に近い人間の判断を学習する新しい自動ナビゲーションチューリングテスト(ANTT)を提案する。
論文 参考訳(メタデータ) (2021-05-20T10:14:23Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。