論文の概要: Using LLMs to Automate Threat Intelligence Analysis Workflows in Security Operation Centers
- arxiv url: http://arxiv.org/abs/2407.13093v1
- Date: Thu, 18 Jul 2024 01:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 19:03:47.711411
- Title: Using LLMs to Automate Threat Intelligence Analysis Workflows in Security Operation Centers
- Title(参考訳): LLMを使ってセキュリティ運用センターの脅威情報分析ワークフローを自動化する
- Authors: PeiYu Tseng, ZihDwo Yeh, Xushu Dai, Peng Liu,
- Abstract要約: このプロジェクトの目的は、CTIレポートの分析に関わる労働集約的な反復的なタスクを置き換えるAIエージェントの開発である。
LLM(例えばGPT-4)の革命的能力を利用するが、人間の介入は不要である。
- 参考スコア(独自算出の注目度): 2.4632515131525676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SIEM systems are prevalent and play a critical role in a variety of analyst workflows in Security Operation Centers. However, modern SIEMs face a big challenge: they still cannot relieve analysts from the repetitive tasks involved in analyzing CTI (Cyber Threat Intelligence) reports written in natural languages. This project aims to develop an AI agent to replace the labor intensive repetitive tasks involved in analyzing CTI reports. The agent exploits the revolutionary capabilities of LLMs (e.g., GPT-4), but it does not require any human intervention.
- Abstract(参考訳): SIEMシステムは広く普及しており、Security Operation Centerのさまざまなアナリストワークフローにおいて重要な役割を果たす。
しかし、現代のSIEMは大きな課題に直面しており、自然言語で書かれたCTI(Cyber Threat Intelligence)レポートを解析する反復的なタスクからアナリストを解放することはできません。
このプロジェクトの目的は、CTIレポートの分析に関わる労働集約的な反復的なタスクを置き換えるAIエージェントの開発である。
LLM(例えば、GPT-4)の革命的能力を利用するが、人間の介入は不要である。
関連論文リスト
- Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - IntelEX: A LLM-driven Attack-level Threat Intelligence Extraction Framework [16.13807499082312]
一般的な実践は、非構造化サイバー脅威インテリジェンス(CTI)レポートを構造化インテリジェンスに変換することである。
これにより、検出ルールの要約や、レッドチームのエクササイズに対する攻撃シナリオのシミュレーションといった、脅威に焦点を当てたセキュリティタスクが容易になります。
論文 参考訳(メタデータ) (2024-12-14T15:56:13Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Large Model Based Agents: State-of-the-Art, Cooperation Paradigms, Security and Privacy, and Future Trends [64.57762280003618]
近い将来、LM駆動の汎用AIエージェントが、生産タスクにおいて不可欠なツールとして機能することが予想される。
本稿では,将来のLMエージェントの自律的協調に関わるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-09-22T14:09:49Z) - Large Language Models for Cyber Security: A Systematic Literature Review [14.924782327303765]
サイバーセキュリティ(LLM4Security)における大規模言語モデルの適用に関する文献の総合的なレビューを行う。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出、フィッシング検出など、幅広いサイバーセキュリティタスクに応用されている。
第3に、細調整、転送学習、ドメイン固有の事前トレーニングなど、特定のサイバーセキュリティドメインにLLMを適用するための有望なテクニックをいくつか特定する。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - SEvenLLM: Benchmarking, Eliciting, and Enhancing Abilities of Large Language Models in Cyber Threat Intelligence [27.550484938124193]
本稿では,サイバーセキュリティのインシデント分析と応答能力をベンチマークし,評価し,改善するためのフレームワークを提案する。
サイバーセキュリティのWebサイトから、サイバーセキュリティの生テキストをクロールすることによって、高品質なバイリンガル命令コーパスを作成します。
命令データセットSEvenLLM-Instructは、マルチタスク学習目的のサイバーセキュリティLLMのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-05-06T13:17:43Z) - AutoAttacker: A Large Language Model Guided System to Implement
Automatic Cyber-attacks [13.955084410934694]
大規模言語モデル (LLM) は、自然言語処理における印象的な結果を示している。
LLMは必然的に前進するので、前と後の両方の攻撃段階を自動化できるかもしれない。
この研究は、防衛システムやチームが、野生で使用する前に予防的に新しい攻撃行動を検出することを学ぶのに役立つ。
論文 参考訳(メタデータ) (2024-03-02T00:10:45Z) - Highlighting the Safety Concerns of Deploying LLMs/VLMs in Robotics [54.57914943017522]
本稿では,大規模言語モデル (LLMs) と視覚言語モデル (VLMs) をロボティクスアプリケーションに統合する際のロバスト性と安全性に関する重要な課題を強調する。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Automatic Mapping of Unstructured Cyber Threat Intelligence: An
Experimental Study [1.1470070927586016]
機械学習(ML)を用いた攻撃手法における非構造化サイバー脅威情報(CTI)の自動分類に関する実験的検討を行った。
CTI分析のための2つの新しいデータセットにコントリビュートし、従来の機械学習モデルとディープラーニングモデルの両方を含む、いくつかのMLモデルを評価した。
本稿では,このタスクにおいてMLがどのように機能するか,どの分類器が最善か,どの条件下か,その主な原因である分類誤り,CTI分析の課題について,いくつかの教訓を提示する。
論文 参考訳(メタデータ) (2022-08-25T15:01:42Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。