論文の概要: On-board Deep-learning-based Unmanned Aerial Vehicle Fault Cause
Detection and Identification
- arxiv url: http://arxiv.org/abs/2005.00336v2
- Date: Wed, 6 May 2020 18:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:29:12.389163
- Title: On-board Deep-learning-based Unmanned Aerial Vehicle Fault Cause
Detection and Identification
- Title(参考訳): 深層学習に基づく無人航空機事故の検出と同定
- Authors: Vidyasagar Sadhu, Saman Zonouz, Dario Pompili
- Abstract要約: 本稿では,センサデータに基づいてドローンの誤操作を検出し,分類する新しいアーキテクチャを提案する。
提案したディープラーニングアーキテクチャを,実機でのシミュレーションと実験により検証する。
我々のソリューションは90%以上の精度で検出でき、様々な種類のドローンの誤動作を分類できる。
- 参考スコア(独自算出の注目度): 6.585891825257162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increase in use of Unmanned Aerial Vehicles (UAVs)/drones, it is
important to detect and identify causes of failure in real time for proper
recovery from a potential crash-like scenario or post incident forensics
analysis. The cause of crash could be either a fault in the sensor/actuator
system, a physical damage/attack, or a cyber attack on the drone's software. In
this paper, we propose novel architectures based on deep Convolutional and Long
Short-Term Memory Neural Networks (CNNs and LSTMs) to detect (via Autoencoder)
and classify drone mis-operations based on sensor data. The proposed
architectures are able to learn high-level features automatically from the raw
sensor data and learn the spatial and temporal dynamics in the sensor data. We
validate the proposed deep-learning architectures via simulations and
experiments on a real drone. Empirical results show that our solution is able
to detect with over 90% accuracy and classify various types of drone
mis-operations (with about 99% accuracy (simulation data) and upto 88% accuracy
(experimental data)).
- Abstract(参考訳): 無人航空機(uavs)/drnesの使用の増加に伴い、事故ライクなシナリオやインシデント後の鑑識分析から適切な回復のために、リアルタイムに故障原因を検出し識別することが重要である。
墜落の原因は、センサー・アクティベーターシステムの故障、物理的ダメージ・攻撃、またはドローンのソフトウェアへのサイバー攻撃である可能性がある。
本稿では,センサデータに基づくドローンの誤動作の検出と分類を行うために,深層畳み込み・長短期記憶ニューラルネットワーク(CNN,LSTM)に基づく新しいアーキテクチャを提案する。
提案アーキテクチャでは,センサデータから高次特徴を自動的に学習し,センサデータの空間的・時間的ダイナミクスを学習することができる。
提案したディープラーニングアーキテクチャを,実機でのシミュレーションと実験により検証する。
実験結果によると、我々のソリューションは90%以上の精度で検出でき、様々な種類のドローンの誤動作(シミュレーションデータ)を99%の精度で、最大88%の精度(実験データ)で分類できる。
関連論文リスト
- Drone Detection using Deep Neural Networks Trained on Pure Synthetic Data [0.4369058206183195]
実世界のデータに転送する純粋に合成されたデータセットに基づいて訓練されたドローン検出高速RCNNモデルを提案する。
以上の結果から, 合成データを用いたドローン検出は, 収集コストを低減し, ラベル付け品質を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-13T23:09:53Z) - Learning 3D Perception from Others' Predictions [64.09115694891679]
本研究では,3次元物体検出装置を構築するための新たなシナリオについて検討する。
例えば、自動運転車が新しいエリアに入ると、その領域に最適化された検出器を持つ他の交通参加者から学ぶことができる。
論文 参考訳(メタデータ) (2024-10-03T16:31:28Z) - DroBoost: An Intelligent Score and Model Boosting Method for Drone Detection [1.2564343689544843]
ドローン検出は、画像の可視性や品質が好ましくないような、困難な物体検出タスクである。
私たちの仕事は、いくつかの改善を組み合わせることで、以前のアプローチを改善します。
提案された技術は、Drone vs. Bird Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2024-06-30T20:49:56Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Track Boosting and Synthetic Data Aided Drone Detection [0.0]
本手法は, YOLOv5モデルを実データおよび合成データで微調整することにより, ドローン検出問題にアプローチする。
以上の結果から,合成データの最適なサブセットで実データを増やすことで,性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-24T10:16:27Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Scarce Data Driven Deep Learning of Drones via Generalized Data
Distribution Space [12.377024173799631]
GAN(Generative Adversarial Network)を通じて、ドローンデータの一般的な分布を理解することで、不足したデータを取得して、迅速かつ正確な学習を実現することができることを示す。
我々は、実際のドローン画像とコンピュータ支援設計のシミュレーション画像の両方を含むドローン画像データセット上で、我々の結果を実証した。
論文 参考訳(メタデータ) (2021-08-18T17:07:32Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Contextual-Bandit Anomaly Detection for IoT Data in Distributed
Hierarchical Edge Computing [65.78881372074983]
IoTデバイスは複雑なディープニューラルネットワーク(DNN)モデルにはほとんど余裕がなく、異常検出タスクをクラウドにオフロードすることは長い遅延を引き起こす。
本稿では,分散階層エッジコンピューティング(HEC)システムを対象とした適応型異常検出手法のデモと構築を行う。
提案手法は,検出タスクをクラウドにオフロードした場合と比較して,精度を犠牲にすることなく検出遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-04-15T06:13:33Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。