論文の概要: Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning
- arxiv url: http://arxiv.org/abs/2206.02670v1
- Date: Mon, 6 Jun 2022 15:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 20:17:13.226813
- Title: Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning
- Title(参考訳): UAV誘導計画のための説明可能な深層強化学習に基づくロバスト攻撃検出
- Authors: Thomas Hickling, Nabil Aouf and Phillippa Spencer
- Abstract要約: 公営の無人航空機(UAV)エージェントに対する敵の攻撃が増加している。
AIベースのテクニックを採用し、さらに具体的には、これらのUAVを制御し、ガイドするためのディープラーニング(DL)アプローチを採用することは、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と、エージェントが混乱するにつれて衝突が起こる可能性のある敵攻撃に対する脆弱性に対する懸念をさらに高めることができる。
本稿では、これらのDLスキームを保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The danger of adversarial attacks to unprotected Uncrewed Aerial Vehicle
(UAV) agents operating in public is growing. Adopting AI-based techniques and
more specifically Deep Learning (DL) approaches to control and guide these UAVs
can be beneficial in terms of performance but add more concerns regarding the
safety of those techniques and their vulnerability against adversarial attacks
causing the chances of collisions going up as the agent becomes confused. This
paper proposes an innovative approach based on the explainability of DL methods
to build an efficient detector that will protect these DL schemes and thus the
UAVs adopting them from potential attacks. The agent is adopting a Deep
Reinforcement Learning (DRL) scheme for guidance and planning. It is formed and
trained with a Deep Deterministic Policy Gradient (DDPG) with Prioritised
Experience Replay (PER) DRL scheme that utilises Artificial Potential Field
(APF) to improve training times and obstacle avoidance performance. The
adversarial attacks are generated by Fast Gradient Sign Method (FGSM) and Basic
Iterative Method (BIM) algorithms and reduced obstacle course completion rates
from 80\% to 35\%. A Realistic Synthetic environment for UAV explainable DRL
based planning and guidance including obstacles and adversarial attacks is
built. Two adversarial attack detectors are proposed. The first one adopts a
Convolutional Neural Network (CNN) architecture and achieves an accuracy in
detection of 80\%. The second detector is developed based on a Long Short Term
Memory (LSTM) network and achieves an accuracy of 91\% with much faster
computing times when compared to the CNN based detector.
- Abstract(参考訳): 公の場で活動する無人航空機(uav)エージェントに対する敵対的な攻撃の危険性が高まっている。
AIベースのテクニックを採用し、さらに具体的には、これらのUAVを制御し、ガイドするためのディープラーニング(DL)アプローチを採用することは、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と、エージェントが混乱するにつれて衝突が起こる可能性のある敵攻撃に対する脆弱性に対する懸念をさらに高めることができる。
本稿では,これらのdlスキームを保護する効率的な検出器を構築するための,dlメソッドの説明可能性に基づく革新的なアプローチを提案する。
エージェントは、ガイダンスと計画のためのDeep Reinforcement Learning(DRL)スキームを採用している。
人工電位場(APF)を利用する優先経験再生(PER)DRLスキームを用いて、DDPG(Deep Deterministic Policy Gradient)を用いて、トレーニング時間と障害物回避性能を改善する。
敵の攻撃はFGSM(Fast Gradient Sign Method)とBIM(Basic Iterative Method)アルゴリズムによって発生し、障害物コース完了率を80\%から35\%に下げる。
UAVの説明可能なDRLベース計画と障害や敵攻撃を含むガイダンスのための現実的合成環境を構築した。
2つの攻撃検知器が提案されている。
1つは、畳み込みニューラルネットワーク(CNN)アーキテクチャを採用し、80%の精度で検出する。
第2検出器はLong Short Term Memory (LSTM) ネットワークに基づいて開発され、CNNベースの検出器と比較して計算時間をはるかに速くして91\%の精度を達成する。
関連論文リスト
- Charging Ahead: A Hierarchical Adversarial Framework for Counteracting Advanced Cyber Threats in EV Charging Stations [1.873794246359724]
電気自動車(EV)は、より高い充電優先度を得るために偽情報を提供し、グリッド不安定を引き起こす可能性がある。
本稿では,EV充電ステーションにおける盗難サイバー攻撃を効果的に検出するDRL(HADRL)を用いた階層的対向フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-04T08:23:03Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Fortify the Guardian, Not the Treasure: Resilient Adversarial Detectors [0.0]
アダプティブアタックとは、攻撃者が防御を意識し、その戦略を適応させる攻撃である。
提案手法は, クリーンな精度を損なうことなく, 敵の訓練を活用して攻撃を検知する能力を強化する。
CIFAR-10とSVHNデータセットの実験的評価により,提案アルゴリズムは,適応的敵攻撃を正確に識別する検出器の能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-04-18T12:13:09Z) - MADRL-based UAVs Trajectory Design with Anti-Collision Mechanism in
Vehicular Networks [1.9662978733004604]
今後6Gネットワークでは、無人航空機(UAV)が移動基地局として機能することが期待される。
最も困難な問題の1つは、複数のUAVのための軌道の設計であり、同じ領域に協調して機能する。
本稿では,これらの問題に対処するためのランクベースのバイナリマスキング手法を提案する。
論文 参考訳(メタデータ) (2024-01-21T20:08:32Z) - PAD: Towards Principled Adversarial Malware Detection Against Evasion
Attacks [17.783849474913726]
本稿では,PAD(Principled Adversarial Malware Detection)と呼ばれる新しい対向学習フレームワークを提案する。
PADは、マルウェア検出装置を敵から守るために、分布的に離散的な摂動を定量化する学習可能な凸測定を基礎としている。
PADは、83.45%以上の精度で、27の回避攻撃に対するMLベースのマルウェア検出を強化できる。
VirusTotalの多くのアンチマルウェアスキャナーと、現実的な敵のマルウェアとを一致または性能で比較する。
論文 参考訳(メタデータ) (2023-02-22T12:24:49Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。