論文の概要: Direct learning of home vector direction for insect-inspired robot navigation
- arxiv url: http://arxiv.org/abs/2405.03827v1
- Date: Mon, 6 May 2024 20:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 18:04:44.950090
- Title: Direct learning of home vector direction for insect-inspired robot navigation
- Title(参考訳): 昆虫に触発されたロボットナビゲーションのための自宅ベクトル方向の直接学習
- Authors: Michiel Firlefyn, Jesse Hagenaars, Guido de Croon,
- Abstract要約: 昆虫は長年、巣の環境から視覚的手がかりを使って、ナビゲートと帰路の能力で認識されてきた。
本研究では,巣の近くの学習飛行において,視覚的知覚から自宅ベクトル方向を直接学習するロボットナビゲーション手法を提案する。
本研究は,シミュレートされた森林環境と実林環境の両面での学習を成功させるとともに,シミュレートされた4倍体のホーミング制御に成功したことを実証する。
- 参考スコア(独自算出の注目度): 2.751676617871172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insects have long been recognized for their ability to navigate and return home using visual cues from their nest's environment. However, the precise mechanism underlying this remarkable homing skill remains a subject of ongoing investigation. Drawing inspiration from the learning flights of honey bees and wasps, we propose a robot navigation method that directly learns the home vector direction from visual percepts during a learning flight in the vicinity of the nest. After learning, the robot will travel away from the nest, come back by means of odometry, and eliminate the resultant drift by inferring the home vector orientation from the currently experienced view. Using a compact convolutional neural network, we demonstrate successful learning in both simulated and real forest environments, as well as successful homing control of a simulated quadrotor. The average errors of the inferred home vectors in general stay well below the 90{\deg} required for successful homing, and below 24{\deg} if all images contain sufficient texture and illumination. Moreover, we show that the trajectory followed during the initial learning flight has a pronounced impact on the network's performance. A higher density of sample points in proximity to the nest results in a more consistent return. Code and data are available at https://mavlab.tudelft.nl/learning_to_home .
- Abstract(参考訳): 昆虫は長い間、巣の環境から視覚的手がかりを使って、ナビゲートと帰路の能力で認識されてきた。
しかし、この顕著なホーミングスキルの根底にある正確なメカニズムは、現在も進行中の調査の対象となっている。
ハチミツバチとハチミツバチの学習飛行からインスピレーションを得て,巣の近くの学習飛行中に視覚的知覚から家ベクトル方向を直接学習するロボットナビゲーション法を提案する。
学習後、ロボットは巣から離れて、オドメトリーで戻ってきて、現在経験のあるビューから自宅ベクトルの向きを推測することで漂流を除去する。
コンパクトな畳み込みニューラルネットワークを用いて、シミュレーションされた森林環境と実際の森林環境の両方で学習を成功させ、シミュレートされた四重項子のホーミング制御に成功したことを実証する。
推定されたホームベクトルの平均誤差は、ホーミングが成功するのに必要な90{\deg}以下であり、全ての画像が十分なテクスチャと照明を含んでいる場合、24{\deg}以下である。
さらに,初期学習飛行における軌道がネットワークの性能に顕著な影響を及ぼすことを示す。
巣に近いサンプルポイントの密度が高いと、より一貫したリターンをもたらす。
コードとデータはhttps://mavlab.tudelft.nl/learning_to_home で公開されている。
関連論文リスト
- Visuospatial navigation without distance, prediction, or maps [1.3812010983144802]
従来の視覚ナビゲーションタスクにおいて,最小限のフィードフォワードフレームワークの有効性を示す。
視覚的距離は目標への直接的軌跡を可能にするが、2つの異なるアルゴリズムは視覚的角度だけで頑健にナビゲートするように開発されている。
それぞれに独特の文脈的トレードオフが与えられ、げっ歯類、昆虫、魚、精子で観察される運動行動と一致している。
論文 参考訳(メタデータ) (2024-07-18T14:07:44Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Learning Perception-Aware Agile Flight in Cluttered Environments [38.59659342532348]
乱雑な環境下での知覚に敏感で最小時間飛行を実現するニューラルネットワークポリシーを学習する手法を提案する。
提案手法は認識と制御を密に結合し,計算速度(10倍高速)と成功率に有意な優位性を示す。
本研究では, クローズドループ制御性能を最大50km/hの速さで実機とハードウェア・イン・ザ・ループシミュレーションを用いて実証する。
論文 参考訳(メタデータ) (2022-10-04T18:18:58Z) - Home Run: Finding Your Way Home by Imagining Trajectories [4.6956495676681484]
本稿では,画素ベース観測から学習した生成モデルを用いて,エージェントが地図の新しい,より短い経路を正確に予測する方法を示す。
論文 参考訳(メタデータ) (2022-08-19T08:38:17Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Sim-to-Real Transfer for Vision-and-Language Navigation [70.86250473583354]
本研究では,従来は目に見えなかった環境下でロボットを解放し,制約のない自然言語ナビゲーション指示に従うという課題について検討する。
VLN(Vision-and-Language Navigation)の課題に関する最近の研究は、シミュレーションにおいて大きな進歩を遂げている。
ロボット工学における本研究の意義を評価するため,シミュレーションで訓練されたVLNエージェントを物理ロボットに転送する。
論文 参考訳(メタデータ) (2020-11-07T16:49:04Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。