論文の概要: Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning
- arxiv url: http://arxiv.org/abs/2206.02670v4
- Date: Tue, 20 Jun 2023 16:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 06:07:06.735651
- Title: Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning
- Title(参考訳): UAV誘導計画のための説明可能な深層強化学習に基づくロバスト攻撃検出
- Authors: Thomas Hickling, Nabil Aouf and Phillippa Spencer
- Abstract要約: 公の場で活動する無人航空機(UAV)エージェントに対する敵攻撃が増加している。
深層学習(DL)アプローチによるこれらのUAVの制御と誘導は、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に対する懸念を追加する可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dangers of adversarial attacks on Uncrewed Aerial Vehicle (UAV) agents
operating in public are increasing. Adopting AI-based techniques and, more
specifically, Deep Learning (DL) approaches to control and guide these UAVs can
be beneficial in terms of performance but can add concerns regarding the safety
of those techniques and their vulnerability against adversarial attacks.
Confusion in the agent's decision-making process caused by these attacks can
seriously affect the safety of the UAV. This paper proposes an innovative
approach based on the explainability of DL methods to build an efficient
detector that will protect these DL schemes and the UAVs adopting them from
attacks. The agent adopts a Deep Reinforcement Learning (DRL) scheme for
guidance and planning. The agent is trained with a Deep Deterministic Policy
Gradient (DDPG) with Prioritised Experience Replay (PER) DRL scheme that
utilises Artificial Potential Field (APF) to improve training times and
obstacle avoidance performance. A simulated environment for UAV explainable
DRL-based planning and guidance, including obstacles and adversarial attacks,
is built. The adversarial attacks are generated by the Basic Iterative Method
(BIM) algorithm and reduced obstacle course completion rates from 97\% to 35\%.
Two adversarial attack detectors are proposed to counter this reduction. The
first one is a Convolutional Neural Network Adversarial Detector (CNN-AD),
which achieves accuracy in the detection of 80\%. The second detector utilises
a Long Short Term Memory (LSTM) network. It achieves an accuracy of 91\% with
faster computing times compared to the CNN-AD, allowing for real-time
adversarial detection.
- Abstract(参考訳): 民間で活動する無人航空機(UAV)エージェントに対する敵攻撃の危険性が高まっている。
AIベースのテクニックを採用し、より具体的には、これらのUAVを制御し、ガイドするためのディープラーニング(DL)アプローチを採用することは、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に関する懸念を追加することができる。
これらの攻撃によるエージェントの意思決定プロセスの混乱は、UAVの安全性に深刻な影響を及ぼす可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
エージェントは、ガイダンスと計画のためのDeep Reinforcement Learning(DRL)スキームを採用する。
エージェントは、人工電位場(APF)を利用してトレーニング時間と障害物回避性能を改善する優先経験再生(PER)DRLスキームを用いて、DDPG(Deep Deterministic Policy Gradient)を用いて訓練される。
UAVの説明可能なDRLベースの計画と指導のためのシミュレーション環境が構築されている。
敵攻撃は, 基本反復法(BIM)アルゴリズムにより発生し, 障害物コース完了率を97 %から35 %に下げる。
この減少に対抗するために2つの対向攻撃検出器が提案されている。
ひとつは畳み込みニューラルネットワークの逆検出器(cnn-ad)で、80\%の精度を実現している。
第2検出器はLong Short Term Memory (LSTM)ネットワークを利用する。
CNN-ADよりも高速な計算時間で91\%の精度を実現し、リアルタイムの敵検出を可能にする。
関連論文リスト
- MADRL-based UAVs Trajectory Design with Anti-Collision Mechanism in
Vehicular Networks [1.9662978733004604]
今後6Gネットワークでは、無人航空機(UAV)が移動基地局として機能することが期待される。
最も困難な問題の1つは、複数のUAVのための軌道の設計であり、同じ領域に協調して機能する。
本稿では,これらの問題に対処するためのランクベースのバイナリマスキング手法を提案する。
論文 参考訳(メタデータ) (2024-01-21T20:08:32Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - PAD: Towards Principled Adversarial Malware Detection Against Evasion
Attacks [17.783849474913726]
本稿では,PAD(Principled Adversarial Malware Detection)と呼ばれる新しい対向学習フレームワークを提案する。
PADは、マルウェア検出装置を敵から守るために、分布的に離散的な摂動を定量化する学習可能な凸測定を基礎としている。
PADは、83.45%以上の精度で、27の回避攻撃に対するMLベースのマルウェア検出を強化できる。
VirusTotalの多くのアンチマルウェアスキャナーと、現実的な敵のマルウェアとを一致または性能で比較する。
論文 参考訳(メタデータ) (2023-02-22T12:24:49Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Two methods for Jamming Identification in UAVs Networks using New
Synthetic Dataset [3.473643536900493]
本稿では,UAVネットワークにおけるジャマーを識別する2つの手法を提案する。
最初の戦略は、異常検出のための時系列アプローチに基づいている。
2つ目は、新しく設計されたディープネットワークに基づいている。
論文 参考訳(メタデータ) (2022-03-21T22:32:37Z) - Adversarial Defense for Automatic Speaker Verification by
Self-Supervised Learning [101.42920161993455]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。