論文の概要: An Automated, End-to-End Framework for Modeling Attacks From
Vulnerability Descriptions
- arxiv url: http://arxiv.org/abs/2008.04377v1
- Date: Mon, 10 Aug 2020 19:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:41:56.608046
- Title: An Automated, End-to-End Framework for Modeling Attacks From
Vulnerability Descriptions
- Title(参考訳): 脆弱性記述からの攻撃モデリングのためのエンドツーエンド自動フレームワーク
- Authors: Hodaya Binyamini, Ron Bitton, Masaki Inokuchi, Tomohiko Yagyu, Yuval
Elovici, Asaf Shabtai
- Abstract要約: 関連するアタックグラフを導出するためには、既知のアタック技術に関する最新情報をインタラクションルールとして表現する必要がある。
本稿では,セキュリティ脆弱性のテキスト記述から新たな攻撃テクニックをモデル化するための,エンドツーエンドで自動化された新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 46.40410084504383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attack graphs are one of the main techniques used to automate the risk
assessment process. In order to derive a relevant attack graph, up-to-date
information on known attack techniques should be represented as interaction
rules. Designing and creating new interaction rules is not a trivial task and
currently performed manually by security experts. However, since the number of
new security vulnerabilities and attack techniques continuously and rapidly
grows, there is a need to frequently update the rule set of attack graph tools
with new attack techniques to ensure that the set of interaction rules is
always up-to-date. We present a novel, end-to-end, automated framework for
modeling new attack techniques from textual description of a security
vulnerability. Given a description of a security vulnerability, the proposed
framework first extracts the relevant attack entities required to model the
attack, completes missing information on the vulnerability, and derives a new
interaction rule that models the attack; this new rule is integrated within
MulVAL attack graph tool. The proposed framework implements a novel pipeline
that includes a dedicated cybersecurity linguistic model trained on the the NVD
repository, a recurrent neural network model used for attack entity extraction,
a logistic regression model used for completing the missing information, and a
novel machine learning-based approach for automatically modeling the attacks as
MulVAL's interaction rule. We evaluated the performance of each of the
individual algorithms, as well as the complete framework and demonstrated its
effectiveness.
- Abstract(参考訳): アタックグラフはリスク評価プロセスの自動化に使用される主要なテクニックの1つである。
関連する攻撃グラフを導出するために、既知の攻撃技術に関する最新の情報をインタラクションルールとして表現する必要がある。
新しいインタラクションルールの設計と作成は簡単な作業ではなく、現在セキュリティ専門家が手作業で行っている。
しかし,新たなセキュリティ脆弱性やアタックテクニックが継続的に増え続けているため,新たなアタック手法でアタックグラフツールのルールセットを頻繁に更新することで,インタラクションルールのセットが常に最新であることを保証する必要がある。
本稿では,セキュリティ脆弱性のテキスト記述から新たな攻撃テクニックをモデル化するための,エンドツーエンドの自動フレームワークを提案する。
セキュリティ脆弱性の説明が与えられると、提案されたフレームワークは、最初に攻撃のモデル化に必要な関連する攻撃エンティティを抽出し、脆弱性に関する情報の欠如を完了し、攻撃をモデル化する新しいインタラクションルールを導出する。
提案フレームワークは,NVDリポジトリ上でトレーニングされた専用サイバーセキュリティ言語モデル,攻撃エンティティ抽出に使用されるリカレントニューラルネットワークモデル,不足情報を補完するロジスティック回帰モデル,MulVALのインタラクションルールとして自動モデル化するマシンラーニングベースのアプローチを含む,新たなパイプラインを実装している。
本研究は,各アルゴリズムの性能とフレームワークの完成度を評価し,その有効性を実証した。
関連論文リスト
- Cyber Knowledge Completion Using Large Language Models [1.4883782513177093]
IoT(Internet of Things)をCPS(Cyber-Physical Systems)に統合することで,サイバー攻撃面が拡大した。
CPSのリスクを評価することは、不完全で時代遅れのサイバーセキュリティ知識のため、ますます困難になっている。
近年のLarge Language Models (LLMs) の進歩は、サイバー攻撃による知識の完成を促進するユニークな機会となる。
論文 参考訳(メタデータ) (2024-09-24T15:20:39Z) - A Practical Trigger-Free Backdoor Attack on Neural Networks [33.426207982772226]
トレーニングデータへのアクセスを必要としないトリガーフリーのバックドア攻撃を提案する。
具体的には、悪意のあるデータの概念を攻撃者特定クラスの概念に組み込んだ、新しい微調整アプローチを設計する。
提案した攻撃の有効性,実用性,ステルスネスを実世界の3つのデータセットで評価した。
論文 参考訳(メタデータ) (2024-08-21T08:53:36Z) - Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Streamlining Attack Tree Generation: A Fragment-Based Approach [39.157069600312774]
本稿では,公開情報セキュリティデータベースの情報を活用した,フラグメントベースのアタックグラフ生成手法を提案する。
また,攻撃グラフ生成手法として,攻撃モデリングのためのドメイン固有言語を提案する。
論文 参考訳(メタデータ) (2023-10-01T12:41:38Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Zero-shot learning approach to adaptive Cybersecurity using Explainable
AI [0.5076419064097734]
本稿では,セキュリティ情報やイベント管理 (SIEM) や侵入検知 (IDS) といったサイバーセキュリティシステムで直面するアラーム浸水問題に対処する新しいアプローチを提案する。
我々は機械学習(ML)にゼロショット学習法を適用し、MLモデルによって生成された異常の予測に説明を活用する。
このアプローチでは、攻撃に関する事前の知識がなければ、それを識別し、分類に寄与する特徴を解読し、特定のカテゴリで攻撃をバケット化しようとする。
論文 参考訳(メタデータ) (2021-06-21T06:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。