論文の概要: Towards automation of threat modeling based on a semantic model of
attack patterns and weaknesses
- arxiv url: http://arxiv.org/abs/2112.04231v1
- Date: Wed, 8 Dec 2021 11:13:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 20:03:30.517570
- Title: Towards automation of threat modeling based on a semantic model of
attack patterns and weaknesses
- Title(参考訳): 攻撃パターンと弱点の意味モデルに基づく脅威モデリングの自動化に向けて
- Authors: Andrei Brazhuk
- Abstract要約: 本研究は,形式的知識基盤(モデル)の構築と利用に関する課題を考察する。
提案モデルは、様々な脅威景観を構築するために、テクニック、攻撃パターン、弱点、脆弱性の関係を学習するために使用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This works considers challenges of building and usage a formal knowledge base
(model), which unites the ATT&CK, CAPEC, CWE, CVE security enumerations. The
proposed model can be used to learn relations between attack techniques, attack
pattern, weaknesses, and vulnerabilities in order to build various threat
landscapes, in particular, for threat modeling. The model is created as an
ontology with freely available datasets in the OWL and RDF formats. The use of
ontologies is an alternative of structural and graph based approaches to
integrate the security enumerations. In this work we consider an approach of
threat modeling with the data components of ATT&CK based on the knowledge base
and an ontology driven threat modeling framework. Also, some evaluations are
made, how it can be possible to use the ontological approach of threat modeling
and which challenges this can be faced.
- Abstract(参考訳): これはatt&ck, capec, cwe, cve security enumerationsを統合した形式的知識ベース(モデル)の構築と使用の課題を考察するものだ。
提案されたモデルは、攻撃手法、攻撃パターン、弱点、脆弱性の関係を学習し、脅威モデリングのために、特に様々な脅威ランドスケープを構築するために使用できる。
このモデルは、OWLおよびRDFフォーマットで自由に利用可能なデータセットを備えたオントロジーとして作成される。
ontologiesは、セキュリティ列挙を統合するための構造的およびグラフベースのアプローチの代替手段である。
本研究では、知識ベースとオントロジー駆動の脅威モデリングフレームワークに基づいて、ATT&CKのデータコンポーネントを用いた脅威モデリングのアプローチを検討する。
また、いくつかの評価、脅威モデリングのオントロジ的アプローチの活用、それに直面する課題についても検討する。
関連論文リスト
- OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - Thief, Beware of What Get You There: Towards Understanding Model
Extraction Attack [13.28881502612207]
いくつかのシナリオでは、AIモデルはプロプライエタリに訓練され、事前に訓練されたモデルも十分な分散データも公開されていない。
既存の手法の有効性は,事前学習モデルの欠如に大きく影響している。
モデル抽出攻撃を、これらの要因を深層強化学習で捉える適応的フレームワークに定式化します。
論文 参考訳(メタデータ) (2021-04-13T03:46:59Z) - Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization [40.37373934201329]
GNNモデルに対するモデル抽出攻撃について検討・開発する。
まず、GNNモデル抽出の文脈で脅威モデリングを定式化する。
次に、攻撃を実装するために、各脅威においてアクセス可能な知識を利用する詳細な方法を示す。
論文 参考訳(メタデータ) (2020-10-24T03:09:37Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z) - Systematic Attack Surface Reduction For Deployed Sentiment Analysis
Models [0.0]
この研究は、モデルをベースライン化し、攻撃ベクトルを特定し、デプロイ後の機械学習モデルを保護するための構造化されたアプローチを提案する。
ブラックボックス感性分析システムにおいて,BADアーキテクチャを評価し,その逆のライフサイクルを定量的に評価する。
目標は、本番環境で機械学習モデルを確保するための実行可能な方法論を実証することである。
論文 参考訳(メタデータ) (2020-06-19T13:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。