論文の概要: Explainable AI Based Diagnosis of Poisoning Attacks in Evolutionary Swarms
- arxiv url: http://arxiv.org/abs/2505.01181v1
- Date: Fri, 02 May 2025 10:48:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.997882
- Title: Explainable AI Based Diagnosis of Poisoning Attacks in Evolutionary Swarms
- Title(参考訳): 進化的群れにおける殺虫攻撃の説明可能なAIによる診断
- Authors: Mehrdad Asadi, Roxana Rădulescu, Ann Nowé,
- Abstract要約: スワーミングシステムは、監視、監視、災害支援など、重要な環境での協調作業に優れています。
ワイルドにおけるチームレベルの協調戦略は、データ中毒攻撃に弱いため、エージェント間の不正確な調整や敵対行動を引き起こす。
進化的インテリジェンスを用いてエージェント間の相互作用をモデル化する。
本稿では、チーム戦略に対する毒素の影響を定量化するための説明可能なAI手法の適用性を示し、診断を可能にするフットプリントの特徴を抽出する。
- 参考スコア(独自算出の注目度): 5.30217683474006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Swarming systems, such as for example multi-drone networks, excel at cooperative tasks like monitoring, surveillance, or disaster assistance in critical environments, where autonomous agents make decentralized decisions in order to fulfill team-level objectives in a robust and efficient manner. Unfortunately, team-level coordinated strategies in the wild are vulnerable to data poisoning attacks, resulting in either inaccurate coordination or adversarial behavior among the agents. To address this challenge, we contribute a framework that investigates the effects of such data poisoning attacks, using explainable AI methods. We model the interaction among agents using evolutionary intelligence, where an optimal coalition strategically emerges to perform coordinated tasks. Then, through a rigorous evaluation, the swarm model is systematically poisoned using data manipulation attacks. We showcase the applicability of explainable AI methods to quantify the effects of poisoning on the team strategy and extract footprint characterizations that enable diagnosing. Our findings indicate that when the model is poisoned above 10%, non-optimal strategies resulting in inefficient cooperation can be identified.
- Abstract(参考訳): マルチドローンネットワークのようなスワーミングシステムは、監視、監視、災害支援といった協力的な作業において、自律的なエージェントが、堅牢で効率的な方法でチームレベルの目的を達成するために、分散化された決定を行う。
残念なことに、ワイルドにおけるチームレベルの協調戦略は、データ中毒攻撃に弱いため、エージェント間の不正確な調整または敵の行動をもたらす。
この課題に対処するために、説明可能なAI手法を用いて、このようなデータ中毒攻撃の影響を調査するフレームワークをコントリビュートする。
進化的インテリジェンスを用いてエージェント間の相互作用をモデル化する。
次に、厳密な評価により、データ操作攻撃を用いて、Swarmモデルを体系的に有毒化する。
本稿では、チーム戦略に対する毒素の影響を定量化するための説明可能なAI手法の適用性を示し、診断を可能にするフットプリントの特徴を抽出する。
以上の結果から, モデルが10%を超えると, 不効率な協調が生じる非最適戦略が同定できることが示唆された。
関連論文リスト
- Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Decentralized Adversarial Training over Graphs [44.03711922549992]
近年、敵攻撃に対する機械学習モデルの脆弱性が注目されている。
マルチエージェントシステムのための分散逆数フレームワークを開発する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Indiscriminate Data Poisoning Attacks on Neural Networks [28.09519873656809]
データ中毒攻撃は、トレーニングプロセスに "poisoned" データを注入することで、モデルに影響を与えることを目的としている。
既存の毒殺攻撃を詳しく調べて、Stackelbergのシーケンシャルゲームを解くための、古いアルゴリズムと新しいアルゴリズムを結びつける。
本稿では,近代的な自動微分パッケージを有効利用し,同時に有毒点を生成するための効率的な実装を提案する。
論文 参考訳(メタデータ) (2022-04-19T18:57:26Z) - VigDet: Knowledge Informed Neural Temporal Point Process for
Coordination Detection on Social Media [8.181808709549227]
ソーシャルメディア上の調整されたアカウントは 偽情報キャンペーンによって 世論に影響を与え 社会的成果を操るために使われます
本稿では、時間的論理や事前定義されたフィルタリング関数といった事前知識を用いて、ニューラル時間的点過程を組み込んだ協調検出フレームワークを提案する。
実世界のデータセットを用いた実験結果から, 教師なしと半教師なしの両方の設定におけるSOTAモデルと比較して, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-10-28T22:19:14Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Detection of Insider Attacks in Distributed Projected Subgradient
Algorithms [11.096339082411882]
汎用ニューラルネットワークは悪質なエージェントの検出とローカライズに特に適していることを示す。
本稿では,連合学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用することを提案する。
シミュレーションでは,AIに基づく手法の有効性と有効性を検証するために,最小二乗問題を考える。
論文 参考訳(メタデータ) (2021-01-18T08:01:06Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。