論文の概要: All Eyes, no IMU: Learning Flight Attitude from Vision Alone
- arxiv url: http://arxiv.org/abs/2507.11302v1
- Date: Tue, 15 Jul 2025 13:31:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.125716
- Title: All Eyes, no IMU: Learning Flight Attitude from Vision Alone
- Title(参考訳): すべての目とIMU:視力から飛行姿勢を学ぶ
- Authors: Jesse J. Hagenaars, Stein Stroobants, Sander M. Bohte, Guido C. H. E. De Croon,
- Abstract要約: 汎用環境での飛行制御に対する視覚のみのアプローチを初めて提示する。
本研究では、下向きのイベントカメラを備えた四輪ドローンが、イベントストリームのみからその姿勢と回転率を推定できることを示す。
私たちの研究は、自律的な昆虫スケールの飛行ロボットを実現するための候補として、視覚のみの飛行制御を実証しています。
- 参考スコア(独自算出の注目度): 13.780259242770724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision is an essential part of attitude control for many flying animals, some of which have no dedicated sense of gravity. Flying robots, on the other hand, typically depend heavily on accelerometers and gyroscopes for attitude stabilization. In this work, we present the first vision-only approach to flight control for use in generic environments. We show that a quadrotor drone equipped with a downward-facing event camera can estimate its attitude and rotation rate from just the event stream, enabling flight control without inertial sensors. Our approach uses a small recurrent convolutional neural network trained through supervised learning. Real-world flight tests demonstrate that our combination of event camera and low-latency neural network is capable of replacing the inertial measurement unit in a traditional flight control loop. Furthermore, we investigate the network's generalization across different environments, and the impact of memory and different fields of view. While networks with memory and access to horizon-like visual cues achieve best performance, variants with a narrower field of view achieve better relative generalization. Our work showcases vision-only flight control as a promising candidate for enabling autonomous, insect-scale flying robots.
- Abstract(参考訳): 視覚は多くの飛行する動物にとって、姿勢制御の重要な部分であり、そのうちのいくつかは重力の専門的な感覚を持たない。
一方フライングロボットは、姿勢安定のための加速度計やジャイロスコープに大きく依存する。
本研究では,一般的な環境での飛行制御における視覚のみのアプローチを提案する。
我々は,下向きのイベントカメラを備えた四輪ドローンが,イベントストリームのみから姿勢と回転率を推定できることを示し,慣性センサを使わずに飛行制御を可能にする。
我々のアプローチは、教師あり学習によって訓練された小さな再帰的畳み込みニューラルネットワークを使用する。
実世界の飛行テストでは、従来の飛行制御ループにおける慣性測定ユニットを置き換えることができるイベントカメラと低遅延ニューラルネットワークの組み合わせが示されています。
さらに、異なる環境におけるネットワークの一般化と、メモリと異なる視野の影響について検討する。
メモリと水平線のような視覚的手がかりを持つネットワークは最高の性能を発揮するが、視野の狭い変種はより優れた相対的一般化を実現する。
私たちの研究は、自律的な昆虫スケールの飛行ロボットを実現するための候補として、視覚のみの飛行制御を実証しています。
関連論文リスト
- Vision Transformers for End-to-End Vision-Based Quadrotor Obstacle Avoidance [13.467819526775472]
高速な視覚に基づく四極子障害物回避のための注意に基づくエンドツーエンドアプローチの能力を実証する。
我々は、高忠実度シミュレーションにおいて、深度画像制御のための視覚変換器(ViT)モデルに対して畳み込み、U-Netおよび繰り返しアーキテクチャを訓練し、比較する。
論文 参考訳(メタデータ) (2024-05-16T18:36:43Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Learning a Single Near-hover Position Controller for Vastly Different
Quadcopters [56.37274861303324]
本稿では,クワッドコプターのための適応型ニアホバー位置制御器を提案する。
これは、非常に異なる質量、大きさ、運動定数を持つクワッドコプターに展開することができる。
また、実行中に未知の障害に迅速に適応する。
論文 参考訳(メタデータ) (2022-09-19T17:55:05Z) - Masked Visual Pre-training for Motor Control [118.18189211080225]
実世界の画像からの自己教師付き視覚前訓練は、画素から運動制御タスクを学習するのに有効である。
私たちはビジュアルエンコーダを凍結し、強化学習でニューラルネットワークコントローラをトレーニングします。
これは、モーター制御のために現実の画像を大規模に活用した初めての自己教師型モデルである。
論文 参考訳(メタデータ) (2022-03-11T18:58:10Z) - Visual Attention Prediction Improves Performance of Autonomous Drone
Racing Agents [45.36060508554703]
人間はエンドツーエンドの自律飛行のために訓練されたニューラルネットワークよりも速くドローンをレースする。
本研究では、人間の視線行動や注意を模倣できるニューラルネットワークが、ニューラルネットワークの性能を向上させるかどうかを検討する。
論文 参考訳(メタデータ) (2022-01-07T18:07:51Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - Evolved Neuromorphic Control for High Speed Divergence-based Landings of
MAVs [0.0]
小型航空機の着陸制御のためのスパイクニューラルネットワークを開発した。
得られたニューロモルフィックコントローラは,シミュレーションから実世界への堅牢な移動を示す。
私たちの知る限りでは、この研究は現実世界の飛行ロボットの制御ループにスパイクするニューラルネットワークを統合する最初のものである。
論文 参考訳(メタデータ) (2020-03-06T10:19:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。