論文の概要: Enhancing the Robustness of QMIX against State-adversarial Attacks
- arxiv url: http://arxiv.org/abs/2307.00907v1
- Date: Mon, 3 Jul 2023 10:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 13:27:43.913004
- Title: Enhancing the Robustness of QMIX against State-adversarial Attacks
- Title(参考訳): 国家攻撃に対するQMIXのロバスト性向上
- Authors: Weiran Guo, Guanjun Liu, Ziyuan Zhou, Ling Wang, Jiacun Wang
- Abstract要約: 本稿では,SARLアルゴリズムの堅牢性を向上し,それらをマルチエージェントシナリオに拡張する4つの手法について論じる。
我々は、この研究で様々な攻撃を用いてモデルを訓練する。
次に、トレーニングフェーズ全体を通して、対応する攻撃に適応して、他の攻撃を用いて教えられたモデルをテストする。
- 参考スコア(独自算出の注目度): 6.627954554805906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) performance is generally impacted by
state-adversarial attacks, a perturbation applied to an agent's observation.
Most recent research has concentrated on robust single-agent reinforcement
learning (SARL) algorithms against state-adversarial attacks. Still, there has
yet to be much work on robust multi-agent reinforcement learning. Using QMIX,
one of the popular cooperative multi-agent reinforcement algorithms, as an
example, we discuss four techniques to improve the robustness of SARL
algorithms and extend them to multi-agent scenarios. To increase the robustness
of multi-agent reinforcement learning (MARL) algorithms, we train models using
a variety of attacks in this research. We then test the models taught using the
other attacks by subjecting them to the corresponding attacks throughout the
training phase. In this way, we organize and summarize techniques for enhancing
robustness when used with MARL.
- Abstract(参考訳): 深層強化学習(DRL)のパフォーマンスは一般に、エージェントの観察に適用される摂動である国家の敵対的攻撃によって影響を受ける。
最近の研究は、国家の攻撃に対する堅牢な単一エージェント強化学習(SARL)アルゴリズムに集中している。
それでも、堅牢なマルチエージェント強化学習に関する作業は、まだ多くありません。
協調型マルチエージェント強化アルゴリズムの1つであるqmixを用いて,sarlアルゴリズムのロバスト性を改善し,それをマルチエージェントシナリオに拡張するための4つの手法について検討した。
マルチエージェント強化学習(MARL)アルゴリズムのロバスト性を高めるため,本研究では様々な攻撃を用いてモデルを訓練する。
そして、トレーニングフェーズを通して、他の攻撃を用いて教えられたモデルを対応する攻撃に従わせてテストする。
このようにして,MARLを用いた場合の堅牢性向上手法を整理,要約する。
関連論文リスト
- Mitigating Adversarial Perturbations for Deep Reinforcement Learning via Vector Quantization [18.56608399174564]
優れた強化学習(RL)エージェントは、展開中に敵の摂動に対してレジリエンスを欠いていることが多い。
これは、現実世界にデプロイする前に堅牢なエージェントを構築することの重要性を強調している。
本研究では,RLの入力変換に基づくディフェンスについて検討する。
論文 参考訳(メタデータ) (2024-10-04T12:41:54Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Enhancing ML-Based DoS Attack Detection Through Combinatorial Fusion
Analysis [2.7973964073307265]
サービス拒否(DoS)攻撃の緩和は、オンラインサービスのセキュリティと可用性にとって不可欠である。
先進的なアルゴリズムを用いて複数のMLモデルを組み合わせた,革新的な融合法を提案する。
本研究は,DoS攻撃の検出を改良し,防御機構の強化に寄与する手法の可能性を強調した。
論文 参考訳(メタデータ) (2023-10-02T02:21:48Z) - MA2CL:Masked Attentive Contrastive Learning for Multi-Agent
Reinforcement Learning [128.19212716007794]
我々はtextbfMulti-textbfAgent textbfMasked textbfAttentive textbfContrastive textbfLearning (MA2CL) という効果的なフレームワークを提案する。
MA2CLは、潜伏空間におけるマスクされたエージェント観察を再構築することにより、時間的およびエージェントレベルの予測の両方の学習表現を奨励する。
提案手法は,様々なMARLアルゴリズムの性能とサンプル効率を大幅に向上させ,様々な視覚的,状態的シナリオにおいて,他の手法よりも優れる。
論文 参考訳(メタデータ) (2023-06-03T05:32:19Z) - Sparse Adversarial Attack in Multi-agent Reinforcement Learning [18.876664289847422]
我々は,cMARLシステムに対するテキストスパース対逆攻撃を提案する。
実験により、現在のcMARLアルゴリズムで訓練されたポリシーは、攻撃を受けたエージェントが1人または数人しかいない場合に、性能が劣ることが示された。
論文 参考訳(メタデータ) (2022-05-19T07:46:26Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - Adversarial attacks in consensus-based multi-agent reinforcement
learning [0.0]
敵エージェントがネットワーク内の他のエージェント全員を説得して、ネットワークが望む目的を最適化するポリシーを実装することができることを示す。
この意味では、標準コンセンサスベースのMARLアルゴリズムは攻撃に脆弱である。
論文 参考訳(メタデータ) (2021-03-11T21:44:18Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。