論文の概要: Controlled Flight of an Insect-Scale Flapping-Wing Robot via Integrated Onboard Sensing and Computation
- arxiv url: http://arxiv.org/abs/2602.08328v1
- Date: Mon, 09 Feb 2026 07:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.273927
- Title: Controlled Flight of an Insect-Scale Flapping-Wing Robot via Integrated Onboard Sensing and Computation
- Title(参考訳): オンボードセンシングと計算による昆虫型羽ばたきロボットの飛行制御
- Authors: Yi-Hsuan Hsiao, Quang Phuc Kieu, Zhongtao Guan, Suhan Kim, Jiaze Cai, Owen Matteson, Jonathan P. How, Elizabeth Farrell Helbling, YuFeng Chen,
- Abstract要約: 本報告では,1.29グラムの航空機用ロボットによる軌道のホバリングと追跡を,オンボードでのセンシングと計算のみで行う。
モーションキャプチャーシステムの外で30秒の飛行実験で、ロボットは障害物を回避し、最終的にはひまわりに着陸した。
- 参考スコア(独自算出の注目度): 16.63542876415974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aerial insects can effortlessly navigate dense vegetation, whereas similarly sized aerial robots typically depend on offboard sensors and computation to maintain stable flight. This disparity restricts insect-scale robots to operation within motion capture environments, substantially limiting their applicability to tasks such as search-and-rescue and precision agriculture. In this work, we present a 1.29-gram aerial robot capable of hovering and tracking trajectories with solely onboard sensing and computation. The combination of a sensor suite, estimators, and a low-level controller achieved centimeter-scale positional flight accuracy. Additionally, we developed a hierarchical controller in which a human operator provides high-level commands to direct the robot's motion. In a 30-second flight experiment conducted outside a motion capture system, the robot avoided obstacles and ultimately landed on a sunflower. This level of sensing and computational autonomy represents a significant advancement for the aerial microrobotics community, further opening opportunities to explore onboard planning and power autonomy.
- Abstract(参考訳): 空気中の昆虫は、密集した植生を自由にナビゲートできるが、同様の大きさの空中ロボットは、通常、安定した飛行を維持するためにオフボードセンサーと計算に依存する。
この格差により、昆虫サイズのロボットはモーションキャプチャ環境での操作が制限され、探索・救助や精密農業といったタスクへの適用性が著しく制限される。
本研究では,1.29グラムの航空機用ロボットによる軌道のホバリングと追跡を行う。
センサースイート、推定器、低レベルコントローラの組み合わせは、センチメートル規模の飛行精度を実現した。
さらに,人間の操作者がロボットの動きを指示する高レベルなコマンドを提供する階層型コントローラを開発した。
モーションキャプチャーシステムの外で30秒の飛行実験で、ロボットは障害物を回避し、最終的にはひまわりに着陸した。
このレベルのセンシングと計算の自律性は、飛行中のマイクロロボティクスコミュニティにとって重要な進歩であり、さらに計画と電力の自律性を探求する機会が開かれた。
関連論文リスト
- Aerobatic maneuvers in insect-scale flapping-wing aerial robots via deep-learned robust tube model predictive control [38.02123507620609]
航空昆虫は、鋭い制動、ササード、身体のフリップのような非常に機敏な行動を示す。
昆虫のようなササードの動きを示し, 横速度と加速速度は1秒あたり197センチメートル, 1秒あたり1.7メートルであった。
ロボットはまた、秒速160cm以下でのササード操作や、大きなコマンド・ツー・フォースのマッピングエラーを実行することもできる。
論文 参考訳(メタデータ) (2025-08-05T03:40:11Z) - Multi-model fusion for Aerial Vision and Dialog Navigation based on
human attention aids [69.98258892165767]
本稿では,2023年ICCV会話史のための航空航法課題について述べる。
本稿では,人間注意支援型トランスフォーマモデル(HAA-Transformer)と人間注意支援型LSTMモデル(HAA-LSTM)の融合訓練方法を提案する。
論文 参考訳(メタデータ) (2023-08-27T10:32:52Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Inverted Landing in a Small Aerial Robot via Deep Reinforcement Learning
for Triggering and Control of Rotational Maneuvers [11.29285364660789]
高速で頑健な逆着陸は、特に機内でのセンシングと計算に完全に依存しながらも、空中ロボットにとって難しい偉業である。
これまでの研究では、一連の視覚的手がかりとキネマティックな動作の間に直接的な因果関係が特定され、小型の空中ロボットでこの困難なエアロバティックな操作を確実に実行することができた。
本研究では、まずDeep Reinforcement Learningと物理シミュレーションを用いて、頑健な逆着陸のための汎用的最適制御ポリシーを得る。
論文 参考訳(メタデータ) (2022-09-22T14:38:10Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Autonomous Navigation of Underactuated Bipedal Robots in
Height-Constrained Environments [20.246040671823554]
本稿では,二足歩行ロボットのためのエンドツーエンドの自律ナビゲーションフレームワークを提案する。
平面歩行と垂直歩行高さの結合力学を捉えるために,垂直移動式Spring-Loaded Inverted Pendulum (vSLIP)モデルを導入した。
可変歩行高さ制御装置を利用して、二足歩行ロボットは、計画された軌跡に従いながら、安定した周期歩行歩行を維持できる。
論文 参考訳(メタデータ) (2021-09-13T05:36:14Z) - The GRIFFIN Perception Dataset: Bridging the Gap Between Flapping-Wing
Flight and Robotic Perception [0.0]
羽ばたき翼ロボットの知覚は高い振動レベルと飛行中の急な動きに苦しむ。
本稿では,鳥型羽ばたきロボットの知覚データセットを提案する。
論文 参考訳(メタデータ) (2021-01-25T19:42:13Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。