論文の概要: Empirical assessment of the perception of graphical threat model acceptability
- arxiv url: http://arxiv.org/abs/2512.03351v1
- Date: Wed, 03 Dec 2025 01:30:51 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:12:33.089573
- Title: Empirical assessment of the perception of graphical threat model acceptability
- Title(参考訳): 図形的脅威モデル受容可能性の知覚に関する実証的評価
- Authors: Nathan D. Schiele, Olga Gadyatskaya,
- Abstract要約: 3つの一般的なグラフィカルな脅威モデル、アタック・ディフェンス・ツリー(ADT)、アタック・グラフ(AG)、CORASの受け入れ可能性を比較した。
ADTもCORASも幅広いシナリオで広く受け入れられており、技術的背景が限られているユーザでもうまく適用できることがわかった。
- 参考スコア(独自算出の注目度): 1.5551301255096368
- License:
- Abstract: Threat modeling (TM) is an important aspect of risk analysis and secure software engineering. Graphical threat models are a recommended tool to analyze and communicate threat information. However, the comparison of different graphical threat models, and the acceptability of these threat models for an audience with a limited technical background, is not well understood, despite these users making up a sizable portion of the cybersecurity industry. We seek to compare the acceptability of three general, graphical threat models, Attack-Defense Trees (ADTs), Attack Graphs (AGs), and CORAS, for users with a limited technical background. We conducted a laboratory study with 38 bachelor students who completed tasks with the three threat models across three different scenarios assigned using a Latin square design. Threat model submissions were qualitatively analyzed, and participants filled out a perception questionnaire based on the Method Evaluation Model (MEM). We find that both ADTs and CORAS are broadly acceptable for a wide range of scenarios, and both could be applied successfully by users with a limited technical background; further, we also find that the lack of a specific tool for AGs may have impacted the perceived usefulness of AGs. We can recommend that users with a limited technical background use ADTs or CORAS as a general graphical TM method. Further research on the acceptability of AGs to such an audience and the effect of a dedicated TM tool support is needed.
- Abstract(参考訳): 脅威モデリング(TM)は、リスク分析とセキュアなソフトウェア工学の重要な側面である。
グラフィカル脅威モデル(Graphical threat model)は、脅威情報を分析し、伝達するための推奨ツールである。
しかし、異なるグラフィカル脅威モデルの比較や、技術的背景が限られている聴衆に対するこれらの脅威モデルの受容性はよく理解されていない。
3つの一般的なグラフィカルな脅威モデル、アタック・ディフェンス・ツリー(ADT)、アタック・グラフ(AG)、CORAS(CORAS)を、限られた技術的背景を持つユーザに対して受け入れる可能性を比較する。
実験室では,38人の独身学生を対象に,ラテン四角形デザインを用いた3つのシナリオにまたがる3つの脅威モデルによるタスクを完了した。
脅威モデル提出は質的に分析され,参加者は方法評価モデル(MEM)に基づいた知覚質問紙に記入した。
ADTもCORASも幅広いシナリオで広く受け入れられており、技術的背景が限られているユーザでもうまく適用できることが分かりました。
ADT や CORAS を一般的なグラフィカルな TM 手法として用いることを推奨できる。
このような聴衆に対するAGsの受容性に関するさらなる研究と、専用のTMツールサポートの効果が求められている。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Technique Inference Engine: A Recommender Model to Support Cyber Threat Hunting [0.6990493129893112]
サイバー脅威ハンティングは、ネットワーク内の潜伏脅威を積極的に探すプラクティスである。
キャンペーンの一部として同時に発生する可能性のあるテクニックを特定する上で,アナリストを支援するために,Technology Inference Engineを提案する。
論文 参考訳(メタデータ) (2025-03-04T22:31:43Z) - A limited technical background is sufficient for attack-defense tree acceptability [0.7980273012483662]
アタック・ディフェンス・ツリー(ADT)は、セキュリティ関連の情報を分析・伝達するために非常に推奨される、グラフィカルな脅威モデリング手法である。
既存の攻撃木の実証研究は、高度に技術的(コンピュータ科学)なバックグラウンドを持つユーザに対してのみ、その受容性を確立している。
本研究は,ADTの受容性に対するユーザの技術的背景の影響を実証的研究で検証することによって,このギャップに対処する。
論文 参考訳(メタデータ) (2025-02-17T15:33:07Z) - It Is Time To Steer: A Scalable Framework for Analysis-driven Attack Graph Generation [50.06412862964449]
アタックグラフ(AG)は、コンピュータネットワークに対するマルチステップ攻撃に対するサイバーリスクアセスメントをサポートする最も適したソリューションである。
現在の解決策は、アルゴリズムの観点から生成問題に対処し、生成が完了した後のみ解析を仮定することである。
本稿では,アナリストがいつでもシステムに問い合わせることのできる新しいワークフローを通じて,従来のAG分析を再考する。
論文 参考訳(メタデータ) (2023-12-27T10:44:58Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Threat Detection for General Social Engineering Attack Using Machine
Learning Techniques [7.553860996595933]
本稿では,機械学習(ML)技術を用いた一般社会工学(SE)攻撃の脅威検出について検討する。
実験結果と分析の結果,1) ML手法は一般SE攻撃の検出に有効であり,いくつかのMLモデルは非常に有効である。
論文 参考訳(メタデータ) (2022-03-15T14:18:22Z) - Towards automation of threat modeling based on a semantic model of
attack patterns and weaknesses [0.0]
本研究は,形式的知識基盤(モデル)の構築と利用に関する課題を考察する。
提案モデルは、様々な脅威景観を構築するために、テクニック、攻撃パターン、弱点、脆弱性の関係を学習するために使用できる。
論文 参考訳(メタデータ) (2021-12-08T11:13:47Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。