論文の概要: Using Retriever Augmented Large Language Models for Attack Graph Generation
- arxiv url: http://arxiv.org/abs/2408.05855v1
- Date: Sun, 11 Aug 2024 19:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:05:59.049957
- Title: Using Retriever Augmented Large Language Models for Attack Graph Generation
- Title(参考訳): Retriever Augmented Large Language Models を用いた攻撃グラフ生成
- Authors: Renascence Tarafder Prapty, Ashish Kundu, Arun Iyengar,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
- 参考スコア(独自算出の注目度): 0.7619404259039284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the complexity of modern systems increases, so does the importance of assessing their security posture through effective vulnerability management and threat modeling techniques. One powerful tool in the arsenal of cybersecurity professionals is the attack graph, a representation of all potential attack paths within a system that an adversary might exploit to achieve a certain objective. Traditional methods of generating attack graphs involve expert knowledge, manual curation, and computational algorithms that might not cover the entire threat landscape due to the ever-evolving nature of vulnerabilities and exploits. This paper explores the approach of leveraging large language models (LLMs), such as ChatGPT, to automate the generation of attack graphs by intelligently chaining Common Vulnerabilities and Exposures (CVEs) based on their preconditions and effects. It also shows how to utilize LLMs to create attack graphs from threat reports.
- Abstract(参考訳): 現代のシステムの複雑さが増大するにつれて、効果的な脆弱性管理と脅威モデリング技術を通じて、セキュリティ姿勢を評価することの重要性も増す。
サイバーセキュリティ専門家の武器となる強力なツールのひとつがアタックグラフ(アタックグラフ)だ。
従来のアタックグラフの生成方法は、専門家の知識、手動のキュレーション、そして、脆弱性やエクスプロイトの進化を続ける性質のため、脅威の全体をカバーすることができない計算アルゴリズムを含む。
本稿では,ChatGPTのような大規模言語モデル(LLM)を活用して,その前提条件と効果に基づいて,CVE(Common Vulnerabilities and Exposures)をインテリジェントにチェーンすることで,攻撃グラフの自動生成を実現するアプローチについて検討する。
また、LSMを使って脅威レポートからアタックグラフを作成する方法も示している。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Cyber Knowledge Completion Using Large Language Models [1.4883782513177093]
IoT(Internet of Things)をCPS(Cyber-Physical Systems)に統合することで,サイバー攻撃面が拡大した。
CPSのリスクを評価することは、不完全で時代遅れのサイバーセキュリティ知識のため、ますます困難になっている。
近年のLarge Language Models (LLMs) の進歩は、サイバー攻撃による知識の完成を促進するユニークな機会となる。
論文 参考訳(メタデータ) (2024-09-24T15:20:39Z) - Safety in Graph Machine Learning: Threats and Safeguards [84.26643884225834]
社会的利益にもかかわらず、最近の研究はグラフMLモデルの普及に伴う重要な安全性上の懸念を浮き彫りにしている。
安全性を重視した設計が欠如しているため、これらのモデルは信頼性の低い予測を導き、一般化性の低下を示し、データの機密性を侵害することができる。
金融詐欺検出のような高額なシナリオでは、これらの脆弱性は個人と社会の両方を全般的に危険に晒す可能性がある。
論文 参考訳(メタデータ) (2024-05-17T18:11:11Z) - AI-based Attack Graph Generation [7.282532608209566]
攻撃グラフはネットワーク内のセキュリティ脅威を評価するために広く利用されている。
ネットワークがスケールするにつれて、攻撃グラフの生成が時間を要するようになると、欠点が生じる。
AIモデルを利用することで、アタックグラフを短時間で作成し、最適な結果を近似することができる。
論文 参考訳(メタデータ) (2023-11-24T08:35:16Z) - Streamlining Attack Tree Generation: A Fragment-Based Approach [39.157069600312774]
本稿では,公開情報セキュリティデータベースの情報を活用した,フラグメントベースのアタックグラフ生成手法を提案する。
また,攻撃グラフ生成手法として,攻撃モデリングのためのドメイン固有言語を提案する。
論文 参考訳(メタデータ) (2023-10-01T12:41:38Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Looking Beyond IoCs: Automatically Extracting Attack Patterns from
External CTI [3.871148938060281]
LADDERは、大規模にサイバー脅威情報レポートからテキストベースの攻撃パターンを抽出できるフレームワークである。
実世界のシナリオにおけるLADDERの適用を実証するためのユースケースをいくつか提示する。
論文 参考訳(メタデータ) (2022-11-01T12:16:30Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization [40.37373934201329]
GNNモデルに対するモデル抽出攻撃について検討・開発する。
まず、GNNモデル抽出の文脈で脅威モデリングを定式化する。
次に、攻撃を実装するために、各脅威においてアクセス可能な知識を利用する詳細な方法を示す。
論文 参考訳(メタデータ) (2020-10-24T03:09:37Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。