論文の概要: Neutral Agent-based Adversarial Policy Learning against Deep Reinforcement Learning in Multi-party Open Systems
- arxiv url: http://arxiv.org/abs/2510.10937v1
- Date: Mon, 13 Oct 2025 02:53:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.1624
- Title: Neutral Agent-based Adversarial Policy Learning against Deep Reinforcement Learning in Multi-party Open Systems
- Title(参考訳): ニュートラルエージェントに基づく多人数オープンシステムにおける深層強化学習に対する敵対的政策学習
- Authors: Qizhou Peng, Yang Zheng, Yu Wen, Yanna Wu, Yingying Du,
- Abstract要約: マルチパーティオープンシステムにおける様々なタスクシナリオにまたがる中立的エージェントベースアプローチを提案する。
本稿では,Starcraft II と自律走行シミュレーションプラットフォーム Highway-env に基づく SMAC プラットフォーム上で提案手法を評価する。
- 参考スコア(独自算出の注目度): 3.431456142488844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has been an important machine learning paradigm for solving long-horizon sequential decision-making problems under uncertainty. By integrating deep neural networks (DNNs) into the RL framework, deep reinforcement learning (DRL) has emerged, which achieved significant success in various domains. However, the integration of DNNs also makes it vulnerable to adversarial attacks. Existing adversarial attack techniques mainly focus on either directly manipulating the environment with which a victim agent interacts or deploying an adversarial agent that interacts with the victim agent to induce abnormal behaviors. While these techniques achieve promising results, their adoption in multi-party open systems remains limited due to two major reasons: impractical assumption of full control over the environment and dependent on interactions with victim agents. To enable adversarial attacks in multi-party open systems, in this paper, we redesigned an adversarial policy learning approach that can mislead well-trained victim agents without requiring direct interactions with these agents or full control over their environments. Particularly, we propose a neutral agent-based approach across various task scenarios in multi-party open systems. While the neutral agents seemingly are detached from the victim agents, indirectly influence them through the shared environment. We evaluate our proposed method on the SMAC platform based on Starcraft II and the autonomous driving simulation platform Highway-env. The experimental results demonstrate that our method can launch general and effective adversarial attacks in multi-party open systems.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、不確実性の下での長期的意思決定問題を解決するための重要な機械学習パラダイムである。
ディープニューラルネットワーク(DNN)をRLフレームワークに統合することにより、ディープ強化学習(DRL)が登場し、さまざまな領域で大きな成功を収めた。
しかし、DNNの統合により、敵の攻撃にも脆弱になる。
既存の敵攻撃技術は主に、被害者エージェントが相互作用する環境を直接操作するか、または被害者エージェントと相互作用して異常な行動を誘発する敵エージェントを配置することに焦点を当てている。
これらの技術は有望な結果をもたらすが、環境に対する完全な制御を非現実的に仮定し、被害者エージェントとの相互作用に依存するという2つの大きな理由により、マルチパーティオープンシステムへの導入は制限されている。
マルチパーティオープンシステムにおける敵対的攻撃を可能にするため、本稿では、これらのエージェントとの直接のインタラクションや環境の完全な制御を必要とせずに、よく訓練された被害者エージェントを誤解させることのできる、敵対的政策学習アプローチを再設計する。
特に,マルチパーティオープンシステムにおけるタスクシナリオにまたがる中立的エージェントベースアプローチを提案する。
中立なエージェントは、被害者のエージェントから切り離されているように見えるが、間接的に、共有環境を通じてそれらに影響を与える。
本稿では,Starcraft II と自律走行シミュレーションプラットフォーム Highway-env に基づく SMAC プラットフォーム上で提案手法を評価する。
実験により,マルチパーティオープンシステムにおいて,本手法が汎用的で効果的な敵攻撃を起動できることが実証された。
関連論文リスト
- Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - TRAP: Targeted Redirecting of Agentic Preferences [3.6293956720749425]
本稿では,拡散型セマンティックインジェクションを用いてエージェントの意思決定を制御する,生成的敵対的フレームワークであるTRAPを紹介する。
提案手法は, 負のプロンプトに基づく劣化と正のセマンティック最適化を組み合わせ, シームズ意味ネットワークとレイアウト対応空間マスキングによって導かれる。
TRAPはLLaVA-34B、Gemma3、Mistral-3.1など主要なモデルで100%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2025-05-29T14:57:16Z) - Universal Adversarial Perturbation Attacks On Modern Behavior Cloning Policies [15.999261636389702]
Demonstration(LfD)アルゴリズムからの学習は、ロボット操作タスクにおいて有望な結果を示している。
しかし、オフラインの普遍的摂動攻撃に対する彼らの脆弱性は、まだ解明されていない。
本稿では,従来のアルゴリズムと最近提案されたアルゴリズムの両方に対する敵攻撃の包括的研究について述べる。
論文 参考訳(メタデータ) (2025-02-06T01:17:39Z) - Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems [27.316115171846953]
大規模言語モデル(LLM)は、実世界のAI意思決定タスクにおいて大きな可能性を示している。
LLMは、固有の常識と推論能力を活用するために微調整され、特定の用途に適合する。
この微調整プロセスは、特に安全クリティカルなサイバー物理システムにおいて、かなりの安全性とセキュリティの脆弱性をもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:59:43Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Toward Evaluating Robustness of Reinforcement Learning with Adversarial Policy [32.1138935956272]
強化学習エージェントは、デプロイ中に回避攻撃を受けやすい。
本稿では,効率的なブラックボックス対応政策学習のための本質的なモチベーション付き適応政策(IMAP)を提案する。
論文 参考訳(メタデータ) (2023-05-04T07:24:12Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Attacking Cooperative Multi-Agent Reinforcement Learning by Adversarial Minority Influence [41.14664289570607]
Adrial Minority Influence (AMI) は実用的なブラックボックス攻撃であり、被害者のパラメータを知らずに起動できる。
AMIは複雑なマルチエージェント相互作用とエージェントの協調的な目標を考えることでも強い。
我々は、実世界のロボット群に対する最初の攻撃と、シミュレーションされた環境における事実上の愚かなエージェントを、全体として最悪のシナリオへと攻撃することに成功した。
論文 参考訳(メタデータ) (2023-02-07T08:54:37Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。