論文の概要: Detecting Ambiguity Aversion in Cyberattack Behavior to Inform Cognitive Defense Strategies
- arxiv url: http://arxiv.org/abs/2512.08107v1
- Date: Mon, 08 Dec 2025 23:26:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.755366
- Title: Detecting Ambiguity Aversion in Cyberattack Behavior to Inform Cognitive Defense Strategies
- Title(参考訳): サイバー攻撃行動における曖昧さの検知 : 認知防御戦略をインフォームする
- Authors: Stephan Carney, Soham Hans, Sofia Hirschmann, Stacey Marsella, Yvonne Fonken, Peggy Wu, Nikolos Gurney,
- Abstract要約: 本研究は、ハッカーがあいまいさ回避を示すときのモデル化と検出能力について検討する。
この認知特性を運用することにより、我々の研究は適応的な認知防衛戦略を開発するための基礎的な要素を提供する。
- 参考スコア(独自算出の注目度): 0.7036032466145113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversaries (hackers) attempting to infiltrate networks frequently face uncertainty in their operational environments. This research explores the ability to model and detect when they exhibit ambiguity aversion, a cognitive bias reflecting a preference for known (versus unknown) probabilities. We introduce a novel methodological framework that (1) leverages rich, multi-modal data from human-subjects red-team experiments, (2) employs a large language model (LLM) pipeline to parse unstructured logs into MITRE ATT&CK-mapped action sequences, and (3) applies a new computational model to infer an attacker's ambiguity aversion level in near-real time. By operationalizing this cognitive trait, our work provides a foundational component for developing adaptive cognitive defense strategies.
- Abstract(参考訳): ネットワークに侵入しようとする敵(ハッカー)は、運用環境ではしばしば不確実性に直面している。
本研究は、未知の確率の嗜好を反映した認知バイアスであるあいまいさ回避(ambiguity aversion)をモデル化し、検出する能力について検討する。
我々は,(1)人間を対象とするレッドチーム実験からのリッチでマルチモーダルなデータを活用する新しい手法フレームワークを提案し,(2)大規模言語モデル(LLM)パイプラインを用いて,非構造化ログをMITRE ATT&CKマッピングされたアクションシーケンスに解析し,(3)攻撃者の曖昧さ回避レベルをほぼリアルタイムに推定する新しい計算モデルを適用した。
この認知特性を運用することにより、我々の研究は適応的な認知防衛戦略を開発するための基礎的な要素を提供する。
関連論文リスト
- Hiding in the AI Traffic: Abusing MCP for LLM-Powered Agentic Red Teaming [0.0]
本稿では,モデルコンテキストプロトコル(MCP)を利用した新しいコマンド・アンド・コントロール(C2)アーキテクチャを導入し,適応型偵察エージェントを網羅的に協調する。
私たちのアーキテクチャは、システム全体のゴール指向の振る舞いを改善するだけでなく、コマンドとコントロールの振る舞いを完全に検出および防止するために使用できる主要なホストやネットワークアーティファクトを排除します。
論文 参考訳(メタデータ) (2025-11-20T02:51:04Z) - Security Logs to ATT&CK Insights: Leveraging LLMs for High-Level Threat Understanding and Cognitive Trait Inference [1.8135692038751479]
リアルタイム防衛には、侵入検知システム(IDS)ログから攻撃意図と認知戦略を推測する能力が必要である。
本研究では,Suricata IDSログを解析し,攻撃行動を推測するために,大規模言語モデル(LLM)を利用する新しいフレームワークを提案する。
このことは、行動適応型サイバーディフェンスと認知的特徴推論に関する将来の研究の基盤となる。
論文 参考訳(メタデータ) (2025-10-23T18:43:31Z) - Algorithms for Adversarially Robust Deep Learning [58.656107500646364]
望ましいロバスト性を示すアルゴリズムの設計に向けた最近の進歩について論じる。
医用画像,分子識別,画像分類における最先端の一般化を実現するアルゴリズムを提案する。
我々は、堅牢な言語ベースのエージェントを設計するための進歩のフロンティアとして、新たな攻撃と防御を提案する。
論文 参考訳(メタデータ) (2025-09-23T14:48:58Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - A Framework for Understanding and Visualizing Strategies of RL Agents [0.0]
本稿では,時間論理式を用いてエージェント戦略を特徴付ける逐次決定タスクの理解可能なモデル学習フレームワークを提案する。
我々は,手工芸の専門家政策と訓練された強化学習エージェントの痕跡を用いて,StarCraft II (SC2) の戦闘シナリオに関する枠組みを評価した。
論文 参考訳(メタデータ) (2022-08-17T21:58:19Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。