論文の概要: Guarding Against Malicious Biased Threats (GAMBiT): Experimental Design of Cognitive Sensors and Triggers with Behavioral Impact Analysis
- arxiv url: http://arxiv.org/abs/2512.00098v1
- Date: Thu, 27 Nov 2025 02:18:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.064183
- Title: Guarding Against Malicious Biased Threats (GAMBiT): Experimental Design of Cognitive Sensors and Triggers with Behavioral Impact Analysis
- Title(参考訳): GAMBiT : 行動影響分析による認知センサとトリガーの実験設計
- Authors: Brandon Beltz, Po-Yu Chen, James Doty, Yvonne Fonken, Nikolos Gurney, Hsiang-Wen Hsing, Sofia Hirschmann, Brett Israelsen, Nathan Lau, Mengyun Li, Stacy Marsella, Michael Murray, Jinwoo Oh, Amy Sliva, Kunal Srivastava, Stoney Trent, Peggy Wu, Ya-Ting Yang, Quanyan Zhu,
- Abstract要約: GAMBiTは認知科学からの洞察を認知的トリガーを通じてサイバー環境に埋め込む。
GAMBiTは、攻撃者の心が戦場の一部となる新しいパラダイムを確立する。
- 参考スコア(独自算出の注目度): 17.809804870177192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces GAMBiT (Guarding Against Malicious Biased Threats), a cognitive-informed cyber defense framework that leverages deviations from human rationality as a new defensive surface. Conventional cyber defenses assume rational, utility-maximizing attackers, yet real-world adversaries exhibit cognitive constraints and biases that shape their interactions with complex digital systems. GAMBiT embeds insights from cognitive science into cyber environments through cognitive triggers, which activate biases such as loss aversion, base-rate neglect, and sunk-cost fallacy, and through newly developed cognitive sensors that infer attackers' cognitive states from behavioral and network data. Three rounds of human-subject experiments (total n=61) in a simulated small business network demonstrate that these manipulations significantly disrupt attacker performance, reducing mission progress, diverting actions off the true attack path, and increasing detectability. These results demonstrate that cognitive biases can be systematically triggered to degrade the attacker's efficiency and enhance the defender's advantage. GAMBiT establishes a new paradigm in which the attacker's mind becomes part of the battlefield and cognitive manipulation becomes a proactive vector for cyber defense.
- Abstract(参考訳): GAMBiT(Guarding Against Malicious Biased Threats)は,人間の合理性からの逸脱を新たな防御面として活用する認知情報を用いたサイバー防衛フレームワークである。
従来のサイバー防衛は、合理的で実用性を最大化する攻撃者を仮定するが、現実の敵は、複雑なデジタルシステムとの相互作用を形成する認知的制約とバイアスを示す。
GAMBiTは、認知科学からの洞察を認知的トリガーを通じてサイバー環境に埋め込むことで、損失回避、ベースレートの無視、サンクコストの誤認などのバイアスを活性化し、また、攻撃者の認知状態を行動データやネットワークデータから推定する新たな認知センサーによって、そのバイアスを和らげる。
シミュレーションされた小型ビジネスネットワークにおける3ラウンドの人物体実験 (total n=61) は、これらの操作が攻撃性能を著しく破壊し、ミッションの進捗を減少させ、真の攻撃経路からアクションを逸脱させ、検出可能性を高めることを示した。
これらの結果は,攻撃者の効率を低下させ,防御者の優位性を高めるために,認知バイアスが体系的に引き起こされることを示す。
GAMBiTは、攻撃者の心が戦場の一部となり、認知的操作がサイバー防御の積極的なベクターとなる新しいパラダイムを確立する。
関連論文リスト
- Towards Proactive Defense Against Cyber Cognitive Attacks [3.357544650969485]
サイバー認知攻撃は破壊的革新(DI)を活用し、心理的バイアスを利用して意思決定プロセスを操作する。
AI駆動の偽情報や合成メディアといった新しい技術は、これらの脅威の規模と洗練を加速してきた。
認知攻撃におけるDIの出現とその悪用を予測する新しい予測手法を提案する。
論文 参考訳(メタデータ) (2025-10-17T16:25:47Z) - Bi-Level Game-Theoretic Planning of Cyber Deception for Cognitive Arbitrage [22.661656301757663]
本稿では,Advanced Persistent Threat(APT)攻撃者の認知的脆弱性の活用方法について検討する。
攻撃に対処するために、優越性の窓を利用する認知的防御を提案する。
論文 参考訳(メタデータ) (2025-09-05T21:11:25Z) - Quantifying Loss Aversion in Cyber Adversaries via LLM Analysis [2.798191832420146]
IARPAのReSCINDプログラムは、攻撃的な認知特性を推論し、防御し、悪用しようと試みている。
本稿では,大規模言語モデル(LLM)を利用して,ハッカー行動からの損失回避の認知バイアスに関する定量的知見を抽出する手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T05:51:30Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Game of Travesty: Decoy-based Psychological Cyber Deception for Proactive Human Agents [13.47548023934913]
本研究では,ディフェンダーとヒューマンエージェント間のシグナリングゲームフレームワークを採用し,サイバー防御偽装プロトコルを開発する。
提案された枠組みは、より効果的なシグナリングスキームを設計する上での基本的な理論に繋がる。
論文 参考訳(メタデータ) (2023-09-23T15:27:26Z) - Learning to Defend by Attacking (and Vice-Versa): Transfer of Learning
in Cybersecurity Games [1.14219428942199]
本稿では, 事例ベース学習理論, 心の理論, 学習の伝達の認知能力に着想を得た, 人間の意思決定の新しいモデルを提案する。
このモデルは、ディフェンダーとアタッカーの両方の役割から学び、相手の信念、意図、行動を予測することによって機能する。
シミュレーション実験の結果は、攻撃と防衛の役割で訓練されたエージェントの認知にインスパイアされたモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-06-03T17:51:04Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。