論文の概要: EDEN: Entorhinal Driven Egocentric Navigation Toward Robotic Deployment
- arxiv url: http://arxiv.org/abs/2506.03046v1
- Date: Tue, 03 Jun 2025 16:28:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.829748
- Title: EDEN: Entorhinal Driven Egocentric Navigation Toward Robotic Deployment
- Title(参考訳): EDEN: ロボット展開に向けた角駆動型エゴセントリックナビゲーション
- Authors: Mikolaj Walczak, Romina Aalishah, Wyatt Mackey, Brittany Story, David L. Boothe Jr., Nicholas Waytowich, Xiaomin Lin, Tinoosh Mohsenin,
- Abstract要約: EDENは生物学的にインスパイアされたナビゲーションフレームワークで、学習したエントルヒンナル様のグリッド細胞表現と強化学習を統合し、自律的なナビゲーションを可能にする。
EDENは哺乳類の角膜-海馬システムにインスパイアされ、視覚とモーションセンサーのデータを使用して、経路統合とベクターベースのナビゲーションを行うことができる。
- 参考スコア(独自算出の注目度): 1.5190286092106713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning agents are often fragile while humans remain adaptive and flexible to varying scenarios. To bridge this gap, we present EDEN, a biologically inspired navigation framework that integrates learned entorhinal-like grid cell representations and reinforcement learning to enable autonomous navigation. Inspired by the mammalian entorhinal-hippocampal system, EDEN allows agents to perform path integration and vector-based navigation using visual and motion sensor data. At the core of EDEN is a grid cell encoder that transforms egocentric motion into periodic spatial codes, producing low-dimensional, interpretable embeddings of position. To generate these activations from raw sensory input, we combine fiducial marker detections in the lightweight MiniWorld simulator and DINO-based visual features in the high-fidelity Gazebo simulator. These spatial representations serve as input to a policy trained with Proximal Policy Optimization (PPO), enabling dynamic, goal-directed navigation. We evaluate EDEN in both MiniWorld, for rapid prototyping, and Gazebo, which offers realistic physics and perception noise. Compared to baseline agents using raw state inputs (e.g., position, velocity) or standard convolutional image encoders, EDEN achieves a 99% success rate, within the simple scenarios, and >94% within complex floorplans with occluded paths with more efficient and reliable step-wise navigation. In addition, as a replacement of ground truth activations, we present a trainable Grid Cell encoder enabling the development of periodic grid-like patterns from vision and motion sensor data, emulating the development of such patterns within biological mammals. This work represents a step toward biologically grounded spatial intelligence in robotics, bridging neural navigation principles with reinforcement learning for scalable deployment.
- Abstract(参考訳): 深層強化学習エージェントは脆弱であることが多いが、人間は様々なシナリオに適応し、柔軟である。
このギャップを埋めるために,学習した角膜様格子細胞表現と強化学習を統合して自律的なナビゲーションを可能にする,生物学的にインスパイアされたナビゲーションフレームワークであるEDENを提案する。
EDENは哺乳類の角膜-海馬システムにインスパイアされ、視覚とモーションセンサーのデータを用いて経路統合とベクトルベースのナビゲーションを行うことができる。
EDENのコアとなるグリッドセルエンコーダは、自我中心運動を周期的な空間符号に変換し、低次元で解釈可能な位置埋め込みを生成する。
生の感覚入力からこれらのアクティベーションを生成するために,軽量なMiniWorldシミュレータと高忠実なGazeboシミュレータのDINOベースの視覚特徴を併用する。
これらの空間表現は、PPO(Proximal Policy Optimization)で訓練されたポリシーへの入力として機能し、動的でゴール指向のナビゲーションを可能にする。
高速プロトタイピングのためのMiniWorldと、現実的な物理と知覚ノイズを提供するGazeboの両方でEDENを評価した。
原状態入力(例えば位置、速度)や標準畳み込み画像エンコーダを用いたベースラインエージェントと比較して、EDENは単純なシナリオでは99%の成功率、より効率的で信頼性の高いステップワイドナビゲーションを備えた複雑なフロアプランでは94%である。
さらに,本研究は,地上の真理活性化の代替として,視覚・運動センサデータから周期的な格子状パターンの開発を可能にする訓練可能なグリッドセルエンコーダを提案し,生体哺乳類におけるそのようなパターンの発達をエミュレートする。
この研究は、ロボット工学における生物学的に根ざした空間知性への一歩であり、スケーラブルな展開のための強化学習で神経ナビゲーションの原則をブリッジする。
関連論文リスト
- Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Towards bio-inspired unsupervised representation learning for indoor
aerial navigation [4.26712082692017]
本研究では,生物にインスパイアされた深層学習アルゴリズムによる同時位置決めとマッピング(SLAM)とそのドローンナビゲーションシステムへの応用について述べる。
本稿では,低次元潜在状態記述子を出力し,知覚的エイリアスに対する感度を軽減し,高効率な組込みハードウェアの開発を行う教師なし表現学習手法を提案する。
設計したアルゴリズムは,室内の倉庫環境において収集されたデータセットに基づいて評価され,最初の結果はロバストな屋内航法の実現可能性を示している。
論文 参考訳(メタデータ) (2021-06-17T08:42:38Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。