論文の概要: Towards automation of threat modeling based on a semantic model of
attack patterns and weaknesses
- arxiv url: http://arxiv.org/abs/2112.04231v1
- Date: Wed, 8 Dec 2021 11:13:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 20:03:30.517570
- Title: Towards automation of threat modeling based on a semantic model of
attack patterns and weaknesses
- Title(参考訳): 攻撃パターンと弱点の意味モデルに基づく脅威モデリングの自動化に向けて
- Authors: Andrei Brazhuk
- Abstract要約: 本研究は,形式的知識基盤(モデル)の構築と利用に関する課題を考察する。
提案モデルは、様々な脅威景観を構築するために、テクニック、攻撃パターン、弱点、脆弱性の関係を学習するために使用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This works considers challenges of building and usage a formal knowledge base
(model), which unites the ATT&CK, CAPEC, CWE, CVE security enumerations. The
proposed model can be used to learn relations between attack techniques, attack
pattern, weaknesses, and vulnerabilities in order to build various threat
landscapes, in particular, for threat modeling. The model is created as an
ontology with freely available datasets in the OWL and RDF formats. The use of
ontologies is an alternative of structural and graph based approaches to
integrate the security enumerations. In this work we consider an approach of
threat modeling with the data components of ATT&CK based on the knowledge base
and an ontology driven threat modeling framework. Also, some evaluations are
made, how it can be possible to use the ontological approach of threat modeling
and which challenges this can be faced.
- Abstract(参考訳): これはatt&ck, capec, cwe, cve security enumerationsを統合した形式的知識ベース(モデル)の構築と使用の課題を考察するものだ。
提案されたモデルは、攻撃手法、攻撃パターン、弱点、脆弱性の関係を学習し、脅威モデリングのために、特に様々な脅威ランドスケープを構築するために使用できる。
このモデルは、OWLおよびRDFフォーマットで自由に利用可能なデータセットを備えたオントロジーとして作成される。
ontologiesは、セキュリティ列挙を統合するための構造的およびグラフベースのアプローチの代替手段である。
本研究では、知識ベースとオントロジー駆動の脅威モデリングフレームワークに基づいて、ATT&CKのデータコンポーネントを用いた脅威モデリングのアプローチを検討する。
また、いくつかの評価、脅威モデリングのオントロジ的アプローチの活用、それに直面する課題についても検討する。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - CARACAS: vehiCular ArchitectuRe for detAiled Can Attacks Simulation [37.89720165358964]
本稿では、CANメッセージによるコンポーネント制御やアタックインジェクション機能を含む車両モデルであるCARACASを紹介する。
CarACASは、バッテリ・エレクトリック・ビークル(BEV)モデルを含むこの手法の有効性を示し、2つの異なるシナリオでトルク制御を狙う攻撃に焦点を当てている。
論文 参考訳(メタデータ) (2024-06-11T10:16:55Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - Thief, Beware of What Get You There: Towards Understanding Model
Extraction Attack [13.28881502612207]
いくつかのシナリオでは、AIモデルはプロプライエタリに訓練され、事前に訓練されたモデルも十分な分散データも公開されていない。
既存の手法の有効性は,事前学習モデルの欠如に大きく影響している。
モデル抽出攻撃を、これらの要因を深層強化学習で捉える適応的フレームワークに定式化します。
論文 参考訳(メタデータ) (2021-04-13T03:46:59Z) - Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization [40.37373934201329]
GNNモデルに対するモデル抽出攻撃について検討・開発する。
まず、GNNモデル抽出の文脈で脅威モデリングを定式化する。
次に、攻撃を実装するために、各脅威においてアクセス可能な知識を利用する詳細な方法を示す。
論文 参考訳(メタデータ) (2020-10-24T03:09:37Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z) - Systematic Attack Surface Reduction For Deployed Sentiment Analysis
Models [0.0]
この研究は、モデルをベースライン化し、攻撃ベクトルを特定し、デプロイ後の機械学習モデルを保護するための構造化されたアプローチを提案する。
ブラックボックス感性分析システムにおいて,BADアーキテクチャを評価し,その逆のライフサイクルを定量的に評価する。
目標は、本番環境で機械学習モデルを確保するための実行可能な方法論を実証することである。
論文 参考訳(メタデータ) (2020-06-19T13:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。