論文の概要: PGN: A perturbation generation network against deep reinforcement
learning
- arxiv url: http://arxiv.org/abs/2312.12904v1
- Date: Wed, 20 Dec 2023 10:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 16:05:07.493798
- Title: PGN: A perturbation generation network against deep reinforcement
learning
- Title(参考訳): PGN:深層強化学習のための摂動生成ネットワーク
- Authors: Xiangjuan Li, Feifan Li, Yang Li, Quan Pan
- Abstract要約: エージェントを攻撃するための効果的な敵例を作成するための新しい生成モデルを提案する。
深層強化学習の特異性を考慮して,ステルスネスの尺度として行動整合性比を提案する。
- 参考スコア(独自算出の注目度): 8.546103661706391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning has advanced greatly and applied in many areas.
In this paper, we explore the vulnerability of deep reinforcement learning by
proposing a novel generative model for creating effective adversarial examples
to attack the agent. Our proposed model can achieve both targeted attacks and
untargeted attacks. Considering the specificity of deep reinforcement learning,
we propose the action consistency ratio as a measure of stealthiness, and a new
measurement index of effectiveness and stealthiness. Experiment results show
that our method can ensure the effectiveness and stealthiness of attack
compared with other algorithms. Moreover, our methods are considerably faster
and thus can achieve rapid and efficient verification of the vulnerability of
deep reinforcement learning.
- Abstract(参考訳): 深層強化学習は大きく進歩し、多くの分野で応用されている。
本稿では,エージェントを攻撃対象とする新しい生成モデルを提案することで,深層強化学習の脆弱性を探究する。
提案手法は標的攻撃と未目標攻撃の両方を達成できる。
深層強化学習の特異性を考慮して, ステルス性尺度としての行動整合性率と, 効果とステルス性の新しい測定指標を提案する。
実験の結果,本手法は他のアルゴリズムと比較して攻撃の有効性とステルス性が確保できることがわかった。
さらに,本手法はかなり高速であり,深層強化学習の脆弱性を迅速かつ効率的に検証することができる。
関連論文リスト
- Golden Ratio Search: A Low-Power Adversarial Attack for Deep Learning based Modulation Classification [8.187445866881637]
深層学習に基づく自動変調分類(AMC)のための最小パワー・ホワイトボックス対向攻撃を提案する。
提案手法の有効性を,既存の攻撃手法との比較により評価した。
実験の結果、提案した攻撃は強力で、最小限の電力を必要とし、より少ない時間で発生可能であることが示された。
論文 参考訳(メタデータ) (2024-09-17T17:17:54Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Multi-Task Federated Reinforcement Learning with Adversaries [2.6080102941802106]
強化学習アルゴリズムは敵からの深刻な脅威となる。
本稿では,多タスク連関強化学習アルゴリズムの解析を行う。
攻撃性能が向上した適応攻撃法を提案する。
論文 参考訳(メタデータ) (2021-03-11T05:39:52Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。