論文の概要: Multi-Agent Influence Diagrams to Hybrid Threat Modeling
- arxiv url: http://arxiv.org/abs/2603.03526v1
- Date: Tue, 03 Mar 2026 21:17:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.091834
- Title: Multi-Agent Influence Diagrams to Hybrid Threat Modeling
- Title(参考訳): ハイブリッド脅威モデリングにおけるマルチエージェント影響図
- Authors: Maarten C. Vonk, Anna V. Kononova, Thomas Bäck, Tim Sweijs,
- Abstract要約: 欧米の政府は、従来の軍事水準以下の敵対行動から守るために、反ハイブリドの脅威対策を採用してきた。
これらの対策の影響は、ハイブリッド脅威のあいまいさ、そのドメイン間の性質、そして対策がどのように敵の行動を形作るかについての不確実性のため不明瞭である。
本稿では,従来のハイブリッド脅威モデリング手法を(マルチエージェント)インフルエント・ダイアグラム・フレームワークを通じて統合することにより,この影響を明らかにするための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.2282508171588806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Western governments have adopted an assortment of counter-hybrid threat measures to defend against hostile actions below the conventional military threshold. The impact of these measures is unclear because of the ambiguity of hybrid threats, their cross-domain nature, and uncertainty about how countermeasures shape adversarial behavior. This paper offers a novel approach to clarifying this impact by unifying previously bifurcating hybrid threat modeling methods through a (multi-agent) influence diagram framework. The model balances the costs of countermeasures, their ability to dissuade the adversary from executing hybrid threats, and their potential to mitigate the impact of hybrid threats. We run 1000 semi-synthetic variants of a real-world-inspired scenario simulating the strategic interaction between attacking agent A and defending agent B over a cyber attack on critical infrastructure to explore the effectiveness of a set of five different counter-hybrid threat measures. Counter-hybrid measures range from strengthening resilience and denial of the adversary's ability to execute a hybrid threat to dissuasion through the threat of punishment. Our analysis primarily evaluates the overarching characteristics of counter-hybrid threat measures. This approach allows us to generalize the effectiveness of these measures and examine parameter impact sensitivity. In addition, we discuss policy relevance and outline future research avenues.
- Abstract(参考訳): 欧米の政府は、従来の軍事水準以下の敵対行動から守るために、反ハイブリドの脅威対策を採用してきた。
これらの対策の影響は、ハイブリッド脅威のあいまいさ、そのドメイン間の性質、そして対策がどのように敵の行動を形作るかについての不確実性のため不明瞭である。
本稿では,従来のハイブリッド脅威モデリング手法を(マルチエージェント)インフルエント・ダイアグラム・フレームワークを通じて統合することにより,この影響を明らかにするための新しいアプローチを提案する。
このモデルは、対策のコスト、ハイブリッド脅威の実行から敵を説得する能力、ハイブリッド脅威の影響を軽減する可能性のバランスをとる。
攻撃剤Aと防衛剤Bの戦略的相互作用をシミュレートした実世界のシナリオの,1000種類の半合成変種を実行し,重要なインフラに対するサイバー攻撃について検討し,5種類の対ハイブリッド脅威対策の有効性を検証した。
反ハイブリド対策は、弾力性を強化することや、罰の脅威を通じて解決へのハイブリッドな脅威を実行する敵の能力を否定することまで様々である。
本分析は, 主に, 抗ハイブリッド脅威対策の包括的特徴を評価する。
このアプローチにより,これらの測定の有効性を一般化し,パラメータ影響感度を検証できる。
また、政策関連について論じ、今後の研究の道筋について概説する。
関連論文リスト
- How Worst-Case Are Adversarial Attacks? Linking Adversarial and Perturbation Robustness [4.60092781176058]
アドリア攻撃はモデル脆弱性の特定に広く用いられているが、ランダムな摂動に対する堅牢性のためのプロキシとしての有効性については議論が続いている。
逆の例が、同じ大きさの摂動下での誤予測リスクを代表的に見積もっているかどうかを問う。
本研究では, 統計的に均一な雑音に近づいた体制において, 脆弱性を調査するための攻撃戦略を提案することにより, この接続の限界について検討する。
論文 参考訳(メタデータ) (2026-01-20T22:24:47Z) - Chain of Attack: On the Robustness of Vision-Language Models Against Transfer-Based Adversarial Attacks [34.40254709148148]
事前学習された視覚言語モデル(VLM)は、画像および自然言語理解において顕著な性能を示した。
彼らの潜在的な安全性と堅牢性の問題は、敵がシステムを回避し、悪意のある攻撃を通じて有害なコンテンツを生成することを懸念する。
本稿では,マルチモーダルなセマンティック・アップデートに基づいて,敵対的事例の生成を反復的に促進するアタック・チェーン(CoA)を提案する。
論文 参考訳(メタデータ) (2024-11-24T05:28:07Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Dynamic Defense Approach for Adversarial Robustness in Deep Neural
Networks via Stochastic Ensemble Smoothed Model [12.858728363390703]
本稿ではランダムスムージングの防御法とモデルスムージングに基づくアンサンブルスムージングについて述べる。
ホワイトボックス攻撃下のアンサンブルモデルの極端な転送可能性と脆弱性を扱う。
論文 参考訳(メタデータ) (2021-05-06T16:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。