論文の概要: Distributed Detection of Adversarial Attacks in Multi-Agent Reinforcement Learning with Continuous Action Space
- arxiv url: http://arxiv.org/abs/2508.15764v1
- Date: Thu, 21 Aug 2025 17:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.439967
- Title: Distributed Detection of Adversarial Attacks in Multi-Agent Reinforcement Learning with Continuous Action Space
- Title(参考訳): 連続行動空間を用いた多エージェント強化学習における敵攻撃の分散検出
- Authors: Kiarash Kazari, Ezzeldin Shereen, György Dán,
- Abstract要約: 本研究では,協調型マルチエージェント強化学習と連続行動空間との対向攻撃を検出する問題に対処する。
本稿では,エージェントの局所的な観察のみに依存する分散検出器を提案し,観測可能なエージェントの正常な挙動を統計的に評価する。
我々は,様々な攻撃手法に対して,様々なマルチエージェントPettingZooベンチマークを用いて提案手法の評価を行い,本手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 6.649910168731417
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We address the problem of detecting adversarial attacks against cooperative multi-agent reinforcement learning with continuous action space. We propose a decentralized detector that relies solely on the local observations of the agents and makes use of a statistical characterization of the normal behavior of observable agents. The proposed detector utilizes deep neural networks to approximate the normal behavior of agents as parametric multivariate Gaussian distributions. Based on the predicted density functions, we define a normality score and provide a characterization of its mean and variance. This characterization allows us to employ a two-sided CUSUM procedure for detecting deviations of the normality score from its mean, serving as a detector of anomalous behavior in real-time. We evaluate our scheme on various multi-agent PettingZoo benchmarks against different state-of-the-art attack methods, and our results demonstrate the effectiveness of our method in detecting impactful adversarial attacks. Particularly, it outperforms the discrete counterpart by achieving AUC-ROC scores of over 0.95 against the most impactful attacks in all evaluated environments.
- Abstract(参考訳): 本研究では,協調型マルチエージェント強化学習と連続行動空間との対向攻撃を検出する問題に対処する。
本稿では,エージェントの局所的な観察のみに依存する分散検出器を提案し,観測可能なエージェントの正常な挙動を統計的に評価する。
提案検出器はディープニューラルネットワークを用いてエージェントの正常な挙動をパラメトリック多変量ガウス分布として近似する。
予測された密度関数に基づいて、正規度スコアを定義し、その平均と分散のキャラクタリゼーションを提供する。
この特徴付けにより, 2面のCUSUM法を用いて, 平均値から正規度スコアの偏差を検出することができ, リアルタイムに異常な動作を検出することができる。
我々は,様々な攻撃手法に対して,様々なマルチエージェントPettingZooベンチマークを用いて提案手法の評価を行い,本手法の有効性を実証した。
特に、AUC-ROCスコアが0.95以上と評価された全ての環境において最も影響の大きい攻撃に対して達成することで、AUC-ROCよりも優れている。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Detecting Adversarial Data using Perturbation Forgery [28.237738842260615]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布,スパースマスク生成,擬似逆数データ生成を含む摂動フォージェリを提案し,不明瞭な勾配ベース,生成型および物理的逆数攻撃を検出可能な逆数検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Beating Attackers At Their Own Games: Adversarial Example Detection
Using Adversarial Gradient Directions [16.993439721743478]
提案手法は, 対向勾配の方向が対向空間を特徴づける上で重要な役割を担っていることを示す。
CIFAR-10とImageNetの2つの異なるデータベースで実施された実験により、提案手法は5つの異なる攻撃に対して97.9%と98.6%のAUC-ROCを達成した。
論文 参考訳(メタデータ) (2020-12-31T01:12:24Z) - Closeness and Uncertainty Aware Adversarial Examples Detection in
Adversarial Machine Learning [0.7734726150561088]
敵のサンプルを検出するための2つの異なるメトリクス群の使用法を探索し、評価します。
敵検出のための新機能を導入し、これらの指標のパフォーマンスが使用される攻撃の強さに大きく依存していることを示します。
論文 参考訳(メタデータ) (2020-12-11T14:44:59Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Sequential Anomaly Detection using Inverse Reinforcement Learning [23.554584457413483]
逆強化学習(IRL)を用いた逐次異常検出のためのエンドツーエンドフレームワークを提案する。
我々はニューラルネットワークを用いて報酬関数を表現し、学習された報酬関数を用いて、ターゲットエージェントからの新しい観察が正常なパターンに従うかどうかを評価する。
公開されている実世界のデータに関する実証研究は,本手法が異常の同定に有効であることを示している。
論文 参考訳(メタデータ) (2020-04-22T05:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。