論文の概要: AI and Vision based Autonomous Navigation of Nano-Drones in Partially-Known Environments
- arxiv url: http://arxiv.org/abs/2505.04972v1
- Date: Thu, 08 May 2025 06:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.76939
- Title: AI and Vision based Autonomous Navigation of Nano-Drones in Partially-Known Environments
- Title(参考訳): AIとビジョンに基づく部分知識環境におけるナノドロンの自律ナビゲーション
- Authors: Mattia Sartori, Chetna Singhal, Neelabhro Roy, Davide Brunelli, James Gross,
- Abstract要約: この研究は、Crzyflie 2.1と呼ばれる、ポケットサイズの30グラムのプラットホームの安全かつ自律的な飛行を可能にすることに焦点を当てている。
統合センシング, コンピューティング, コミュニケーションのパラダイムを取り入れた, 障害物回避のためのAI支援型リアクティブ計画手法を提案する。
ドローンを毎秒$sim8$のフレームでコマンドできる能力と、COCOの平均平均精度が60.8ドルのモデル性能を示す。
- 参考スコア(独自算出の注目度): 8.595976385391896
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The miniaturisation of sensors and processors, the advancements in connected edge intelligence, and the exponential interest in Artificial Intelligence are boosting the affirmation of autonomous nano-size drones in the Internet of Robotic Things ecosystem. However, achieving safe autonomous navigation and high-level tasks such as exploration and surveillance with these tiny platforms is extremely challenging due to their limited resources. This work focuses on enabling the safe and autonomous flight of a pocket-size, 30-gram platform called Crazyflie 2.1 in a partially known environment. We propose a novel AI-aided, vision-based reactive planning method for obstacle avoidance under the ambit of Integrated Sensing, Computing and Communication paradigm. We deal with the constraints of the nano-drone by splitting the navigation task into two parts: a deep learning-based object detector runs on the edge (external hardware) while the planning algorithm is executed onboard. The results show the ability to command the drone at $\sim8$ frames-per-second and a model performance reaching a COCO mean-average-precision of $60.8$. Field experiments demonstrate the feasibility of the solution with the drone flying at a top speed of $1$ m/s while steering away from an obstacle placed in an unknown position and reaching the target destination. The outcome highlights the compatibility of the communication delay and the model performance with the requirements of the real-time navigation task. We provide a feasible alternative to a fully onboard implementation that can be extended to autonomous exploration with nano-drones.
- Abstract(参考訳): センサーとプロセッサの小型化、エッジインテリジェンス接続の進歩、人工知能への指数関数的な関心は、IoTエコシステムにおける自律型ナノサイズのドローンの確証を高めている。
しかし、安全な自律ナビゲーションと、これらの小さなプラットフォームによる探索や監視のようなハイレベルなタスクを達成することは、リソースが限られているため非常に難しい。
この研究は、Crazyflie 2.1と呼ばれるポケットサイズの30グラムのプラットフォームを部分的に知られている環境で安全に自律飛行できるようにすることに焦点を当てている。
統合センシング, コンピューティング, コミュニケーションのパラダイムを取り入れた, 障害物回避のためのAI支援型リアクティブ計画手法を提案する。
我々は,ナビゲーションタスクを2つの部分に分割することで,ナノドロンの制約に対処する: 深層学習に基づく物体検出装置がエッジ(外部ハードウェア)上で動作し,計画アルゴリズムがオンボードで実行される。
その結果、ドローンを毎秒$\sim8$のフレームでコマンドできるようになり、COCOの平均精度は60.8ドルに達した。
フィールド実験は、無人機が未知の位置に配置された障害物から遠ざかって目標に到達しながら、最高速度で1,$m/sで飛行する可能性を示している。
その結果、リアルタイムナビゲーションタスクの要求に応じて、通信遅延とモデル性能の整合性を強調した。
我々は、ナノドロンの自律探査に拡張可能な、完全に搭載された実装に代わる実現可能な代替手段を提供する。
関連論文リスト
- Tiny-PULP-Dronets: Squeezing Neural Networks for Faster and Lighter Inference on Multi-Tasking Autonomous Nano-Drones [12.96119439129453]
この研究は、ナノドロンの自律ナビゲーションのためのステート・オブ・ザ・アート畳み込みニューラルネットワークであるPULP-Dronetから、モデルサイズを1桁以上圧縮する新しい手法であるTiny-PULP-Dronetへと移行した。
この大規模な削減は、高レベルのインテリジェンスを達成するための基本的な要件であるナノドロンの安価なマルチタスクへの道を開く。
論文 参考訳(メタデータ) (2024-07-02T16:24:57Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Towards bio-inspired unsupervised representation learning for indoor
aerial navigation [4.26712082692017]
本研究では,生物にインスパイアされた深層学習アルゴリズムによる同時位置決めとマッピング(SLAM)とそのドローンナビゲーションシステムへの応用について述べる。
本稿では,低次元潜在状態記述子を出力し,知覚的エイリアスに対する感度を軽減し,高効率な組込みハードウェアの開発を行う教師なし表現学習手法を提案する。
設計したアルゴリズムは,室内の倉庫環境において収集されたデータセットに基づいて評価され,最初の結果はロバストな屋内航法の実現可能性を示している。
論文 参考訳(メタデータ) (2021-06-17T08:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。