論文の概要: Understanding visual attention beehind bee-inspired UAV navigation
- arxiv url: http://arxiv.org/abs/2507.11992v1
- Date: Wed, 16 Jul 2025 07:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.284534
- Title: Understanding visual attention beehind bee-inspired UAV navigation
- Title(参考訳): ミツバチにインスパイアされたUAVナビゲーションの視覚的注意
- Authors: Pranav Rajbhandari, Abhi Veda, Matthew Garratt, Mandayam Srinivasan, Sridhar Ravi,
- Abstract要約: センサ入力として光学フローのみを使用して障害物のあるトンネルをナビゲートする強化学習エージェントを訓練する。
この方法で訓練されたエージェントは、光学流の非連続性の領域や、大きな光学流の大きさの領域に最も注意を払う。
このパターンは、独立に訓練されたエージェント間で持続しており、これは物理的なUAVに対する単純な明示的な制御法を開発するための良い戦略になり得ることを示唆している。
- 参考スコア(独自算出の注目度): 0.7067443325368975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bio-inspired design is often used in autonomous UAV navigation due to the capacity of biological systems for flight and obstacle avoidance despite limited sensory and computational capabilities. In particular, honeybees mainly use the sensory input of optic flow, the apparent motion of objects in their visual field, to navigate cluttered environments. In our work, we train a Reinforcement Learning agent to navigate a tunnel with obstacles using only optic flow as sensory input. We inspect the attention patterns of trained agents to determine the regions of optic flow on which they primarily base their motor decisions. We find that agents trained in this way pay most attention to regions of discontinuity in optic flow, as well as regions with large optic flow magnitude. The trained agents appear to navigate a cluttered tunnel by avoiding the obstacles that produce large optic flow, while maintaining a centered position in their environment, which resembles the behavior seen in flying insects. This pattern persists across independently trained agents, which suggests that this could be a good strategy for developing a simple explicit control law for physical UAVs.
- Abstract(参考訳): バイオインスパイアされた設計は、センサーや計算能力に制限があるにもかかわらず、飛行や障害物回避のための生物学的システムの能力のために、自律型UAVナビゲーションでしばしば使用される。
特に、ハチミツバチは、主に視力の流れの感覚入力、視界における物体の見かけの動きを使って、散らかった環境をナビゲートする。
本研究では, センサ入力として光学フローのみを用いて, 障害物のあるトンネルをナビゲートする強化学習エージェントを訓練する。
トレーニングされたエージェントの注意パターンを検査し、主に運動決定に基づく視線の流れの領域を決定する。
この方法で訓練されたエージェントは、光学流の非連続性の領域や、大きな光学流の大きさの領域に最も注意を払う。
訓練されたエージェントは、大きな光の流れを発生させる障害物を避けながら、空飛ぶ昆虫に見られる行動に似た、環境の中心的な位置を維持しながら、散らかったトンネルをナビゲートしているように見える。
このパターンは、独立に訓練されたエージェント間で持続し、これは物理的UAVのための単純な明示的な制御法を開発するための良い戦略になり得ることを示唆している。
関連論文リスト
- DisBeaNet: A Deep Neural Network to augment Unmanned Surface Vessels for maritime situational awareness [0.0]
本稿では,海洋環境における船舶の検知・追跡のための低コスト視覚認識システムを提案する。
ニューラルネットワークであるDisBeaNetは、血管を検出し、追跡し、単眼カメラから血管の距離と軸受を推定することができる。
論文 参考訳(メタデータ) (2024-05-10T00:15:17Z) - Airship Formations for Animal Motion Capture and Behavior Analysis [4.939986309170004]
複数の角度から野生の馬を追跡し、追跡し、視覚的に記録するために、飛行船の形成を使用するように設計されたシステムを紹介します。
本研究では,複数の角度から野生の馬を追跡し,追跡し,視覚的に記録するための飛行船形成システムを紹介する。
論文 参考訳(メタデータ) (2024-04-13T12:18:19Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - Active Perception Applied To Unmanned Aerial Vehicles Through Deep
Reinforcement Learning [0.5161531917413708]
本研究は,水面構造物の追跡・認識の問題に取り組むことで,UAVのアクティブな認識に寄与することを目的としている。
本稿では,従来の画像処理技術とDeep-RL(Deep Reinforcement Learning, 深層強化学習)エージェントを用いて,環境を知覚し,不確実性に対処できることを示す。
論文 参考訳(メタデータ) (2022-09-13T22:51:34Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Emergent behavior and neural dynamics in artificial agents tracking
turbulent plumes [1.8065361710947974]
我々は、深層強化学習を用いて、リカレントニューラルネットワーク(RNN)エージェントを訓練し、シミュレートされた乱流プラムの源を見つける。
風向の変化を観測する実験的な仮説が提案されている。
論文 参考訳(メタデータ) (2021-09-25T20:57:02Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。