論文の概要: Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning
- arxiv url: http://arxiv.org/abs/2206.02670v4
- Date: Tue, 20 Jun 2023 16:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 06:07:06.735651
- Title: Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning
- Title(参考訳): UAV誘導計画のための説明可能な深層強化学習に基づくロバスト攻撃検出
- Authors: Thomas Hickling, Nabil Aouf and Phillippa Spencer
- Abstract要約: 公の場で活動する無人航空機(UAV)エージェントに対する敵攻撃が増加している。
深層学習(DL)アプローチによるこれらのUAVの制御と誘導は、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に対する懸念を追加する可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dangers of adversarial attacks on Uncrewed Aerial Vehicle (UAV) agents
operating in public are increasing. Adopting AI-based techniques and, more
specifically, Deep Learning (DL) approaches to control and guide these UAVs can
be beneficial in terms of performance but can add concerns regarding the safety
of those techniques and their vulnerability against adversarial attacks.
Confusion in the agent's decision-making process caused by these attacks can
seriously affect the safety of the UAV. This paper proposes an innovative
approach based on the explainability of DL methods to build an efficient
detector that will protect these DL schemes and the UAVs adopting them from
attacks. The agent adopts a Deep Reinforcement Learning (DRL) scheme for
guidance and planning. The agent is trained with a Deep Deterministic Policy
Gradient (DDPG) with Prioritised Experience Replay (PER) DRL scheme that
utilises Artificial Potential Field (APF) to improve training times and
obstacle avoidance performance. A simulated environment for UAV explainable
DRL-based planning and guidance, including obstacles and adversarial attacks,
is built. The adversarial attacks are generated by the Basic Iterative Method
(BIM) algorithm and reduced obstacle course completion rates from 97\% to 35\%.
Two adversarial attack detectors are proposed to counter this reduction. The
first one is a Convolutional Neural Network Adversarial Detector (CNN-AD),
which achieves accuracy in the detection of 80\%. The second detector utilises
a Long Short Term Memory (LSTM) network. It achieves an accuracy of 91\% with
faster computing times compared to the CNN-AD, allowing for real-time
adversarial detection.
- Abstract(参考訳): 民間で活動する無人航空機(UAV)エージェントに対する敵攻撃の危険性が高まっている。
AIベースのテクニックを採用し、より具体的には、これらのUAVを制御し、ガイドするためのディープラーニング(DL)アプローチを採用することは、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に関する懸念を追加することができる。
これらの攻撃によるエージェントの意思決定プロセスの混乱は、UAVの安全性に深刻な影響を及ぼす可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
エージェントは、ガイダンスと計画のためのDeep Reinforcement Learning(DRL)スキームを採用する。
エージェントは、人工電位場(APF)を利用してトレーニング時間と障害物回避性能を改善する優先経験再生(PER)DRLスキームを用いて、DDPG(Deep Deterministic Policy Gradient)を用いて訓練される。
UAVの説明可能なDRLベースの計画と指導のためのシミュレーション環境が構築されている。
敵攻撃は, 基本反復法(BIM)アルゴリズムにより発生し, 障害物コース完了率を97 %から35 %に下げる。
この減少に対抗するために2つの対向攻撃検出器が提案されている。
ひとつは畳み込みニューラルネットワークの逆検出器(cnn-ad)で、80\%の精度を実現している。
第2検出器はLong Short Term Memory (LSTM)ネットワークを利用する。
CNN-ADよりも高速な計算時間で91\%の精度を実現し、リアルタイムの敵検出を可能にする。
関連論文リスト
- Charging Ahead: A Hierarchical Adversarial Framework for Counteracting Advanced Cyber Threats in EV Charging Stations [1.873794246359724]
電気自動車(EV)は、より高い充電優先度を得るために偽情報を提供し、グリッド不安定を引き起こす可能性がある。
本稿では,EV充電ステーションにおける盗難サイバー攻撃を効果的に検出するDRL(HADRL)を用いた階層的対向フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-04T08:23:03Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Fortify the Guardian, Not the Treasure: Resilient Adversarial Detectors [0.0]
アダプティブアタックとは、攻撃者が防御を意識し、その戦略を適応させる攻撃である。
提案手法は, クリーンな精度を損なうことなく, 敵の訓練を活用して攻撃を検知する能力を強化する。
CIFAR-10とSVHNデータセットの実験的評価により,提案アルゴリズムは,適応的敵攻撃を正確に識別する検出器の能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-04-18T12:13:09Z) - MADRL-based UAVs Trajectory Design with Anti-Collision Mechanism in
Vehicular Networks [1.9662978733004604]
今後6Gネットワークでは、無人航空機(UAV)が移動基地局として機能することが期待される。
最も困難な問題の1つは、複数のUAVのための軌道の設計であり、同じ領域に協調して機能する。
本稿では,これらの問題に対処するためのランクベースのバイナリマスキング手法を提案する。
論文 参考訳(メタデータ) (2024-01-21T20:08:32Z) - PAD: Towards Principled Adversarial Malware Detection Against Evasion
Attacks [17.783849474913726]
本稿では,PAD(Principled Adversarial Malware Detection)と呼ばれる新しい対向学習フレームワークを提案する。
PADは、マルウェア検出装置を敵から守るために、分布的に離散的な摂動を定量化する学習可能な凸測定を基礎としている。
PADは、83.45%以上の精度で、27の回避攻撃に対するMLベースのマルウェア検出を強化できる。
VirusTotalの多くのアンチマルウェアスキャナーと、現実的な敵のマルウェアとを一致または性能で比較する。
論文 参考訳(メタデータ) (2023-02-22T12:24:49Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。