論文の概要: An Autonomous Drone Swarm for Detecting and Tracking Anomalies among Dense Vegetation
- arxiv url: http://arxiv.org/abs/2407.10754v1
- Date: Mon, 15 Jul 2024 14:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 14:51:56.392380
- Title: An Autonomous Drone Swarm for Detecting and Tracking Anomalies among Dense Vegetation
- Title(参考訳): 密度植生中の異常を検知・追跡する自律型ドローン群
- Authors: Rakesh John Amala Arokia Nathan, Sigrid Strand, Daniel Mehrwald, Dmitriy Shutin, Oliver Bimber,
- Abstract要約: ドローンの群れは、密集した目標を事実上検出し、追跡することができることを示す。
6機のドローンによる実生活実験で、平均位置精度は0.39m、平均精度は93.2%に達した。
合成開口画像統合プロセスにセンサノイズを効果的に組み込むことができることを示す。
- 参考スコア(独自算出の注目度): 3.6394530599964026
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Swarms of drones offer an increased sensing aperture, and having them mimic behaviors of natural swarms enhances sampling by adapting the aperture to local conditions. We demonstrate that such an approach makes detecting and tracking heavily occluded targets practically feasible. While object classification applied to conventional aerial images generalizes poorly the randomness of occlusion and is therefore inefficient even under lightly occluded conditions, anomaly detection applied to synthetic aperture integral images is robust for dense vegetation, such as forests, and is independent of pre-trained classes. Our autonomous swarm searches the environment for occurrences of the unknown or unexpected, tracking them while continuously adapting its sampling pattern to optimize for local viewing conditions. In our real-life field experiments with a swarm of six drones, we achieved an average positional accuracy of 0.39 m with an average precision of 93.2% and an average recall of 95.9%. Here, adapted particle swarm optimization considers detection confidences and predicted target appearance. We show that sensor noise can effectively be included in the synthetic aperture image integration process, removing the need for a computationally costly optimization of high-dimensional parameter spaces. Finally, we present a complete hard- and software framework that supports low-latency transmission (approx. 80 ms round-trip time) and fast processing (approx. 600 ms per formation step) of extensive (70-120 Mbit/s) video and telemetry data, and swarm control for swarms of up to ten drones.
- Abstract(参考訳): ドローンの群れは、センサーの開口を増大させ、自然の群れの振る舞いを模倣させ、その開口を局所的な条件に適応させることでサンプリングを強化する。
このような手法により、密集した目標の検出と追跡が事実上実現可能であることを実証する。
従来の航空画像に適用された物体分類は, 隠蔽のランダム性に乏しく, 光遮蔽条件下であっても非効率であるが, 合成開口積分画像に適用された異常検出は森林などの密集植生に対して堅牢であり, 事前訓練されたクラスとは無関係である。
我々の自律群集は未知または予期せぬ事象の環境を探索し、サンプリングパターンを継続的に適応させ、局所的な視聴条件に最適化する。
6機のドローンによる実生活実験では、平均位置精度0.39m、平均精度93.2%、平均リコール95.9%を達成した。
ここで、適応粒子群最適化は、検出信頼度と予測対象外見を考慮する。
本研究では,高次元パラメータ空間の計算コスト最適化の必要性を排除し,合成開口画像統合プロセスにセンサノイズを効果的に組み込むことができることを示す。
最後に,70~120Mbit/sの広帯域ビデオおよびテレメトリデータの低遅延伝送(約80msのラウンドトリップ時間)と高速処理(約600msのフォーメーションステップ)をサポートし,最大10台のドローンの群れをスワム制御する完全ハード・ソフトウェアフレームワークを提案する。
関連論文リスト
- Is That Rain? Understanding Effects on Visual Odometry Performance for Autonomous UAVs and Efficient DNN-based Rain Classification at the Edge [1.8936798735951972]
最先端のローカルトラッキングと軌道計画は通常、飛行制御アルゴリズムにカメラセンサーを入力して実行される。
最先端のビジュアル・オドメトリーシステムでは, 1.5mの最悪ケース平均追跡誤差が可能であることを示す。
我々は、モバイルおよび制約されたデプロイメントシナリオに適したディープニューラルネットワークモデルのセットをトレーニングし、これらの雨の条件を効率的に正確に分類できる範囲を判断する。
論文 参考訳(メタデータ) (2024-07-17T15:47:25Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Enhancing Lidar-based Object Detection in Adverse Weather using Offset
Sequences in Time [1.1725016312484975]
ライダーによる物体検出は、雨や霧などの悪天候の影響を著しく受けている。
本研究は,ライダーによる物体検出の信頼性に対する悪天候の影響を緩和する有効な方法の総合的研究である。
論文 参考訳(メタデータ) (2024-01-17T08:31:58Z) - Intelligent Anomaly Detection for Lane Rendering Using Transformer with Self-Supervised Pre-Training and Customized Fine-Tuning [8.042684255871707]
本稿では,車線描画画像の異常検出を分類問題に変換する。
本研究では,データ前処理,マスク付き画像モデリング(MiM)手法による自己教師付き事前学習,ラベル平滑化によるクロスエントロピーベース損失を用いた微調整,後処理からなる4相パイプラインを提案する。
その結果,提案パイプラインは車線描画画像異常検出において優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-12-07T16:10:10Z) - Synthetic Aperture Sensing for Occlusion Removal with Drone Swarms [4.640835690336653]
我々は、密集した森林地帯において、密集した目標を検出し、追跡する上で、自律型ドローン群がいかに効率的かを実証する。
閉塞密度や目標視斜視といった局所的な観測条件の探索と最適化は、従来のブラインドサンプリング戦略よりもはるかに高速で信頼性の高い結果を提供する。
論文 参考訳(メタデータ) (2022-12-30T13:19:15Z) - Localizing Scan Targets from Human Pose for Autonomous Lung Ultrasound
Imaging [61.60067283680348]
新型コロナウイルス(COVID-19)の世界的なパンデミックの出現に伴い、超音波画像を完全に自動化する必要がある。
本稿では,学習型コンピュータビジョン技術を取り入れた,視覚に基づくデータ駆動方式を提案する。
本手法は、プローブ位置決めのための15.52mm(9.47mm)、プローブ方位のための4.32(3.69deg)の精度を達成し、全走査目標に対する誤差閾値25mm以下で成功率を80%以上とした。
論文 参考訳(メタデータ) (2022-12-15T14:34:12Z) - 6D Camera Relocalization in Visually Ambiguous Extreme Environments [79.68352435957266]
本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
論文 参考訳(メタデータ) (2022-07-13T16:40:02Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Neural Network Virtual Sensors for Fuel Injection Quantities with
Provable Performance Specifications [71.1911136637719]
証明可能な保証が、他の現実世界の設定にどのように自然に適用できるかを示す。
本研究では, 燃料噴射量を一定範囲で最大化するために, 特定の間隔の燃料噴射量を目標にする方法を示す。
論文 参考訳(メタデータ) (2020-06-30T23:33:17Z) - Leveraging Uncertainties for Deep Multi-modal Object Detection in
Autonomous Driving [12.310862288230075]
この研究は、LiDAR点雲とRGBカメラ画像を組み合わせて、堅牢で正確な3Dオブジェクト検出を行う確率論的ディープニューラルネットワークを提案する。
分類および回帰作業における不確実性を明示的にモデル化し、不確実性を活用してサンプリング機構を用いて核融合ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-02-01T14:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。