論文の概要: EgoCogNav: Cognition-aware Human Egocentric Navigation
- arxiv url: http://arxiv.org/abs/2511.17581v1
- Date: Sat, 15 Nov 2025 15:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.252663
- Title: EgoCogNav: Cognition-aware Human Egocentric Navigation
- Title(参考訳): EgoCogNav:認知を意識した人間中心ナビゲーション
- Authors: Zhiwen Qiu, Ziang Liu, Wenqian Niu, Tapomayukh Bhattacharjee, Saleh Kalantari,
- Abstract要約: EgoCogNavは、遅延状態として認識されるパスの不確実性を予測するマルチモーダルなエゴセントリックナビゲーションフレームワークである。
EgoCogNavは、見えない環境に一般化しつつ、スキャン、鎮静、バックトラッキングといった人間的な行動と非常に相関する認識の不確かさを学習している。
- 参考スコア(独自算出の注目度): 6.817711914976566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling the cognitive and experiential factors of human navigation is central to deepening our understanding of human-environment interaction and to enabling safe social navigation and effective assistive wayfinding. Most existing methods focus on forecasting motions in fully observed scenes and often neglect human factors that capture how people feel and respond to space. To address this gap, We propose EgoCogNav, a multimodal egocentric navigation framework that predicts perceived path uncertainty as a latent state and jointly forecasts trajectories and head motion by fusing scene features with sensory cues. To facilitate research in the field, we introduce the Cognition-aware Egocentric Navigation (CEN) dataset consisting 6 hours of real-world egocentric recordings capturing diverse navigation behaviors in real-world scenarios. Experiments show that EgoCogNav learns the perceived uncertainty that highly correlates with human-like behaviors such as scanning, hesitation, and backtracking while generalizing to unseen environments.
- Abstract(参考訳): ヒューマンナビゲーションの認知的および経験的要因をモデル化することは、人間と環境の相互作用の理解を深め、安全なソーシャルナビゲーションと効果的な補助的ウェイフィンディングを可能にするために重要である。
既存のほとんどの方法は、完全に観察されたシーンでの動きを予測することに焦点を当てており、しばしば人間がどのように感じ、空間に反応するかを捉える人間の要因を無視する。
このギャップに対処するためにEgoCogNavを提案する。EgoCogNavは、知覚経路の不確かさを潜在状態として予測し、知覚的手がかりでシーンの特徴を融合させることで、軌跡と頭部の動きを共同で予測するマルチモーダルなエゴセントリックナビゲーションフレームワークである。
この分野の研究を容易にするために,実世界のシナリオにおける多様なナビゲーションの振る舞いを捉えた6時間の実世界のエゴセントリックな記録からなる,認知認識型エゴセントリックナビゲーション(CEN)データセットを紹介した。
実験の結果、EgoCogNavは、目に見えない環境に一般化しながら、スキャン、くしゃみ、バックトラッキングといった人間のような行動と非常に相関する認識の不確かさを学習していることがわかった。
関連論文リスト
- HyPerNav: Hybrid Perception for Object-Oriented Navigation in Unknown Environment [9.835605248219586]
未知環境におけるナビゲーションの有効性とインテリジェンスを高めるために,Hybrid Perception Navigation (HyNav)を提案する。
本手法は,エゴセントリックな観測からの情報とトップダウンマップを同時に利用することにより,よりリッチなキューを捕捉し,オブジェクトをより効果的に発見する。
論文 参考訳(メタデータ) (2025-10-27T01:43:56Z) - LookOut: Real-World Humanoid Egocentric Navigation [61.14016011125957]
本稿では,エゴセントリックな映像から将来の6Dヘッドポーズの列を予測するという課題を紹介する。
この課題を解決するために,時間的に集約された3次元潜伏特徴を考慮に入れた枠組みを提案する。
この分野のトレーニングデータが不足していることから,このアプローチを通じて収集されたデータセットを提示する。
論文 参考訳(メタデータ) (2025-08-20T06:43:36Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Egocentric Human Trajectory Forecasting with a Wearable Camera and
Multi-Modal Fusion [24.149925005674145]
混雑した空間における自我中心型カメラ装着者(自我者)の軌道予測の問題に対処する。
異なるカメラ装着者のデータから得られた軌道予測能力は、視覚障害者のナビゲーションを支援するために転送することができる。
トランスフォーマーをベースとしたエンコーダ・デコーダニューラルネットワークモデルが,カメラ装着者の将来の軌道を予測するために,新しいカスケード型クロスアテンション機構と統合されている。
論文 参考訳(メタデータ) (2021-11-01T14:58:05Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。