論文の概要: Visual Homing in Outdoor Robots Using Mushroom Body Circuits and Learning Walks
- arxiv url: http://arxiv.org/abs/2507.09725v1
- Date: Sun, 13 Jul 2025 17:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.867486
- Title: Visual Homing in Outdoor Robots Using Mushroom Body Circuits and Learning Walks
- Title(参考訳): ボディーサーキットと学習ウォークを用いた屋外ロボットの視覚的ハミング
- Authors: Gabriel G. Gattaux, Julien R. Serres, Franck Ruffier, Antoine Wystrach,
- Abstract要約: アントは、最小限の感覚入力と数回の学習ウォークで、堅牢な視覚ホーミングを実現する。
本稿では,自律走行車のようなロボット上での視覚的ホーミングのための側方化Mushroom Bodyアーキテクチャの実装について紹介する。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ants achieve robust visual homing with minimal sensory input and only a few learning walks, inspiring biomimetic solutions for autonomous navigation. While Mushroom Body (MB) models have been used in robotic route following, they have not yet been applied to visual homing. We present the first real-world implementation of a lateralized MB architecture for visual homing onboard a compact autonomous car-like robot. We test whether the sign of the angular path integration (PI) signal can categorize panoramic views, acquired during learning walks and encoded in the MB, into "goal on the left" and "goal on the right" memory banks, enabling robust homing in natural outdoor settings. We validate this approach through four incremental experiments: (1) simulation showing attractor-like nest dynamics; (2) real-world homing after decoupled learning walks, producing nest search behavior; (3) homing after random walks using noisy PI emulated with GPS-RTK; and (4) precise stopping-at-the-goal behavior enabled by a fifth MB Output Neuron (MBON) encoding goal-views to control velocity. This mimics the accurate homing behavior of ants and functionally resembles waypoint-based position control in robotics, despite relying solely on visual input. Operating at 8 Hz on a Raspberry Pi 4 with 32x32 pixel views and a memory footprint under 9 kB, our system offers a biologically grounded, resource-efficient solution for autonomous visual homing.
- Abstract(参考訳): アリは、最小限の感覚入力と数回の学習ウォークで堅牢な視覚ホーミングを実現し、自律的なナビゲーションのための生体模倣ソリューションを刺激する。
マッシュルーム・ボディ(MB)モデルはロボットの経路に使われてきたが、視覚的ホーミングには適用されていない。
本稿では,小型車載ロボットを用いた視覚的ホーミングのための横型MBアーキテクチャの現実的実装について紹介する。
我々は,この角路積分(PI)信号の符号が,学習中に取得したパノラマビューを「左のゴール」と「右のゴール」のメモリバンクに分類し,自然の屋外環境でのロバストなホーミングを可能にするかどうかを検証した。
本手法は,(1)誘引子様のネストダイナミクスを示すシミュレーション,(2)非結合学習後の実世界のハミング,(3)GPS-RTKをエミュレートしたノイズのあるPIを用いたランダムウォーク後のハミング,(4)第5MB出力ニューロン(MBON)が目標視を符号化して速度を制御できる精度の高いストップ・アット・ザ・ゴール動作,の4つの段階的な実験を通して検証する。
これはアリの正確なホーミング動作を模倣し、視覚入力のみに依存するにもかかわらず、ロボット工学におけるウェイポイントに基づく位置制御に機能的に類似している。
32x32ピクセルビューと9kB以下のメモリフットプリントを備えたRaspberry Pi 4上で8Hzで動作するこのシステムは、生物学的に基盤を置き、自律的なビジュアルホーミングのためのリソース効率の高いソリューションを提供する。
関連論文リスト
- EDEN: Entorhinal Driven Egocentric Navigation Toward Robotic Deployment [1.5190286092106713]
EDENは生物学的にインスパイアされたナビゲーションフレームワークで、学習したエントルヒンナル様のグリッド細胞表現と強化学習を統合し、自律的なナビゲーションを可能にする。
EDENは哺乳類の角膜-海馬システムにインスパイアされ、視覚とモーションセンサーのデータを使用して、経路統合とベクターベースのナビゲーションを行うことができる。
論文 参考訳(メタデータ) (2025-06-03T16:28:33Z) - Endowing Embodied Agents with Spatial Reasoning Capabilities for Vision-and-Language Navigation [0.0]
本稿では,生物学的空間認知理論と認知地図理論に着想を得た,バイオインスパイアされた空間認知ナビゲーションフレームワークBrainNavを提案する。
BrainNavは、デュアルマップ(座標マップとトポロジマップ)とデュアル指向(相対方向と絶対方向)戦略を統合し、動的なシーンキャプチャとパス計画によるリアルタイムナビゲーションを可能にする。
その5つのコアモジュール、ヒッポ海馬記憶ハブ、視覚皮質知覚エンジン、頭頂部空間コンストラクタ、前頭前決定センター、および脳運動実行単位の生体認知機能により、空間幻覚を減少させ、適応性を高める。
論文 参考訳(メタデータ) (2025-04-09T02:19:22Z) - Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Bio-inspired spike-based Hippocampus and Posterior Parietal Cortex
models for robot navigation and environment pseudo-mapping [52.77024349608834]
本研究はスパイクに基づくロボットナビゲーションと環境擬似マッピングシステムを提案する。
海馬は環境状態マップの表現を担い、PPCは局所的な意思決定を担当している。
これはバイオインスパイアされた海馬記憶に基づく動的学習を用いた環境擬似マッピングシステムの最初の実装である。
論文 参考訳(メタデータ) (2023-05-22T10:20:34Z) - Control Transformer: Robot Navigation in Unknown Environments through
PRM-Guided Return-Conditioned Sequence Modeling [0.0]
サンプルベース確率的ロードマッププランナによって導かれる低レベルポリシーから返却条件付きシーケンスをモデル化する制御変換器を提案する。
制御トランスフォーマーは迷路を通り、未知の環境へ移動できることを示す。
論文 参考訳(メタデータ) (2022-11-11T18:44:41Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - See What the Robot Can't See: Learning Cooperative Perception for Visual
Navigation [11.943412856714154]
センサをトレーニングして、関連する視点情報を移動ロボットにエンコードし、伝達する。
我々は、全てのセンサーが目標への最短経路に沿って方向を予測できるようにするという課題を克服する。
その結果,センサとロボットの通信により,SPLの最大2.0倍の改善が達成された。
論文 参考訳(メタデータ) (2022-08-01T11:37:01Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。