論文の概要: Quantifying Loss Aversion in Cyber Adversaries via LLM Analysis
- arxiv url: http://arxiv.org/abs/2508.13240v1
- Date: Mon, 18 Aug 2025 05:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.680535
- Title: Quantifying Loss Aversion in Cyber Adversaries via LLM Analysis
- Title(参考訳): LLM解析によるサイバーアドバイザの損失回避の定量化
- Authors: Soham Hans, Nikolos Gurney, Stacy Marsella, Sofia Hirschmann,
- Abstract要約: IARPAのReSCINDプログラムは、攻撃的な認知特性を推論し、防御し、悪用しようと試みている。
本稿では,大規模言語モデル(LLM)を利用して,ハッカー行動からの損失回避の認知バイアスに関する定量的知見を抽出する手法を提案する。
- 参考スコア(独自算出の注目度): 2.798191832420146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding and quantifying human cognitive biases from empirical data has long posed a formidable challenge, particularly in cybersecurity, where defending against unknown adversaries is paramount. Traditional cyber defense strategies have largely focused on fortification, while some approaches attempt to anticipate attacker strategies by mapping them to cognitive vulnerabilities, yet they fall short in dynamically interpreting attacks in progress. In recognition of this gap, IARPA's ReSCIND program seeks to infer, defend against, and even exploit attacker cognitive traits. In this paper, we present a novel methodology that leverages large language models (LLMs) to extract quantifiable insights into the cognitive bias of loss aversion from hacker behavior. Our data are collected from an experiment in which hackers were recruited to attack a controlled demonstration network. We process the hacker generated notes using LLMs using it to segment the various actions and correlate the actions to predefined persistence mechanisms used by hackers. By correlating the implementation of these mechanisms with various operational triggers, our analysis provides new insights into how loss aversion manifests in hacker decision-making. The results demonstrate that LLMs can effectively dissect and interpret nuanced behavioral patterns, thereby offering a transformative approach to enhancing cyber defense strategies through real-time, behavior-based analysis.
- Abstract(参考訳): 経験的データから人間の認知バイアスを理解して定量化することは、特にサイバーセキュリティにおいて、未知の敵に対する防御が最重要となる深刻な課題を長年突きつけてきた。
従来のサイバー防衛戦略は、主に要塞化に焦点を当てているが、いくつかのアプローチは、攻撃戦略を認知的脆弱性にマッピングすることで予測しようとするが、進行中の攻撃を動的に解釈するには不十分である。
このギャップを認識して、IARPAのReSCINDプログラムは攻撃的な認知特性を推論し、防御し、さらに悪用しようと試みている。
本稿では,大規模言語モデル(LLM)を利用して,ハッカー行動からの損失回避の認知バイアスに関する定量的知見を抽出する手法を提案する。
私たちのデータは、ハッカーが制御されたデモネットワークを攻撃するために雇われた実験から収集されます。
ハッカーが生成したメモを LLM を用いて処理し、様々なアクションを分類し、ハッカーが事前に定義した永続メカニズムに関連付ける。
これらのメカニズムの実装とさまざまな操作トリガとを関連付けることで、ハッカーの意思決定における損失回避の現れ方に関する新たな洞察を提供する。
その結果, LLMは, 行動パターンを効果的に識別・解釈し, リアルタイムな行動分析によるサイバー防衛戦略の強化に転換的アプローチを提供することができた。
関連論文リスト
- Concealment of Intent: A Game-Theoretic Analysis [15.387256204743407]
我々は、意図を隠蔽する敵のプロンプトというスケーラブルな攻撃戦略を提示し、スキルの合成を通じて悪意のある意図を隠蔽する。
本分析では, 平衡点を同定し, 攻撃者に対する構造的優位性を明らかにする。
実験により,複数の実世界のLSMに対する攻撃の有効性を,様々な悪意ある行動にわたって検証した。
論文 参考訳(メタデータ) (2025-05-27T07:59:56Z) - Personalized Attacks of Social Engineering in Multi-turn Conversations -- LLM Agents for Simulation and Detection [19.625518218365382]
ソーシャルメディアプラットフォームに対する社会工学(SE)攻撃は重大なリスクをもたらす。
マルチターン会話を生成することで,SE攻撃機構をシミュレートするLLM-agentic framework,SE-VSimを提案する。
本研究は,被害者の人格に関する事前知識を活用することで,ユーザに対してパーソナライズされた保護を提供するための概念実証SE-OmniGuardを提案する。
論文 参考訳(メタデータ) (2025-03-18T19:14:44Z) - A Review of the Duality of Adversarial Learning in Network Intrusion: Attacks and Countermeasures [0.0]
敵対的攻撃、特にディープラーニングモデルの脆弱性を狙った攻撃は、サイバーセキュリティに対するニュアンスで重大な脅威となる。
本研究は,データポジショニング,テストタイムエベイション,リバースエンジニアリングなど,敵対的な学習の脅威について論じる。
我々の研究は、敵の攻撃によって引き起こされるネットワークセキュリティとプライバシの潜在的な侵害に対処するための防御メカニズムを強化するための基盤となる。
論文 参考訳(メタデータ) (2024-12-18T14:21:46Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。