論文の概要: Attacking c-MARL More Effectively: A Data Driven Approach
- arxiv url: http://arxiv.org/abs/2202.03558v2
- Date: Sun, 10 Sep 2023 18:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 23:42:13.929673
- Title: Attacking c-MARL More Effectively: A Data Driven Approach
- Title(参考訳): c-MARLをより効果的に攻撃する: データ駆動アプローチ
- Authors: Nhan H. Pham, Lam M. Nguyen, Jie Chen, Hoang Thanh Lam, Subhro Das,
Tsui-Wei Weng
- Abstract要約: 我々は,c-MBAと呼ばれるモデルベースアプローチを用いて,c-MARLエージェントのロバスト性を評価することを提案する。
提案手法は,c-MARLエージェントの対向状態摂動により,既存のモデルフリーアプローチよりもチーム報酬を低減できる。
- 参考スコア(独自算出の注目度): 31.52155719556526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, a proliferation of methods were developed for cooperative
multi-agent reinforcement learning (c-MARL). However, the robustness of c-MARL
agents against adversarial attacks has been rarely explored. In this paper, we
propose to evaluate the robustness of c-MARL agents via a model-based approach,
named c-MBA. Our proposed formulation can craft much stronger adversarial state
perturbations of c-MARL agents to lower total team rewards than existing
model-free approaches. In addition, we propose the first victim-agent selection
strategy and the first data-driven approach to define targeted failure states
where each of them allows us to develop even stronger adversarial attack
without the expert knowledge to the underlying environment. Our numerical
experiments on two representative MARL benchmarks illustrate the advantage of
our approach over other baselines: our model-based attack consistently
outperforms other baselines in all tested environments.
- Abstract(参考訳): 近年,協調型マルチエージェント強化学習(c-marl)のための手法が開発されている。
しかし、敵攻撃に対するc-MARL剤の堅牢性はめったに調査されていない。
本稿では,モデルベースアプローチであるc-MBAを用いて,c-MARLエージェントの堅牢性を評価する。
提案手法は,c-MARLエージェントの対向状態摂動により,既存のモデルフリーアプローチよりもチーム報酬を低減できる。
さらに,本論文では,本研究の基盤となる環境に対する知識を必要とせずに,より強力な敵攻撃を実現できるような,最初の被害者・エージェント選択戦略と,目標とする障害状態を定義するためのデータ駆動型アプローチを提案する。
2つの代表的なMARLベンチマークに関する数値実験は、我々のアプローチが他のベースラインよりも優れていることを示している。
関連論文リスト
- Ensembling Prioritized Hybrid Policies for Multi-agent Pathfinding [20.29854058559947]
MARL(Multi-Agent Reinforcement Learning)をベースとしたMAPF(Multi-Agent Path Finding)が最近注目されている。
いくつかのMARL-MAPFメソッドは、あるエージェントが知覚できる情報を豊かにするためにコミュニケーションを使用する。
本稿では,通信ベースMAPFソルバの性能向上を図るために,EPH(Ensembling Prioritized Hybrid Policies)を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:47:12Z) - Preference Poisoning Attacks on Reward Model Learning [49.806139447922526]
攻撃者は、目標とする結果の促進または復号化を目標として、好み比較の小さなサブセットを反転させることができることを示す。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
我々はまた、他の種類の毒殺攻撃に対する最先端の防御策が、少なくとも我々の環境では有効性に制限されていることも示している。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Robustness Testing for Multi-Agent Reinforcement Learning: State
Perturbations on Critical Agents [2.5204420653245245]
MARL(Multi-Agent Reinforcement Learning)は、スマート交通や無人航空機など、多くの分野に広く応用されている。
本研究は,MARLのための新しいロバストネステストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-09T02:26:28Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Improving Model Robustness with Latent Distribution Locally and Globally [28.99007833855102]
本研究では,大域的多様体の観点からの敵攻撃に対するディープニューラルネットワークのモデルロバスト性について考察する。
本稿では,ロバストな最適化による新しい対角訓練法と,潜在マニフォールド適応例(LMAE)を生成するための抽出可能な方法を提案する。
The proposed adversarial training with latent Distribution (ATLD) method defends against adversarial attack by crafting LMAEs with the latent manifold in unsupervised manner。
論文 参考訳(メタデータ) (2021-07-08T07:52:53Z) - Model-based Multi-agent Policy Optimization with Adaptive Opponent-wise
Rollouts [52.844741540236285]
マルチエージェント強化学習(MARL)におけるモデルベース手法について検討する。
AORPO(Adaptive Opponent-wise Rollout Policy)と呼ばれる新しい分散型モデルベースのMARL法を提案する。
論文 参考訳(メタデータ) (2021-05-07T16:20:22Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Policy Evaluation and Seeking for Multi-Agent Reinforcement Learning via
Best Response [15.149039407681945]
多エージェント強化学習におけるメタレベルでの利己的な振る舞いをモデル化するために、厳密なベストレスポンスダイナミクスを採用する。
我々のアプローチは、弱い応答に依存するアルファランクよりもシングルエージェント強化学習と互換性がある。
論文 参考訳(メタデータ) (2020-06-17T01:17:52Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。