論文の概要: Labeling NIDS Rules with MITRE ATT&CK Techniques: Machine Learning vs. Large Language Models
- arxiv url: http://arxiv.org/abs/2412.10978v1
- Date: Sat, 14 Dec 2024 21:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:53:44.784072
- Title: Labeling NIDS Rules with MITRE ATT&CK Techniques: Machine Learning vs. Large Language Models
- Title(参考訳): MITRE ATT&CK技術を用いたNIDSルールのラベル付け:機械学習対大規模言語モデル
- Authors: Nir Daniel, Florian Klaus Kaiser, Shay Giladi, Sapir Sharabi, Raz Moyal, Shalev Shpolyansky, Andres Murillo, Aviad Elyashar, Rami Puzis,
- Abstract要約: 大規模言語モデル(LLM)は、アタック技術とルールを関連付けることで、警告説明可能性ギャップを減らすための有望な技術である。
本稿では,3つの著名なLSMが,NIDSルールをMITRE ATT&CK戦術と手法でラベル付けしながら,NIDSルールを推論する能力について検討する。
LLMは説明可能でスケーラブルで効率的な初期マッピングを提供するが、従来の機械学習(ML)モデルでは精度が一貫して向上し、高精度、リコール、F1スコアを実現している。
- 参考スコア(独自算出の注目度): 4.440432588828829
- License:
- Abstract: Analysts in Security Operations Centers (SOCs) are often occupied with time-consuming investigations of alerts from Network Intrusion Detection Systems (NIDS). Many NIDS rules lack clear explanations and associations with attack techniques, complicating the alert triage and the generation of attack hypotheses. Large Language Models (LLMs) may be a promising technology to reduce the alert explainability gap by associating rules with attack techniques. In this paper, we investigate the ability of three prominent LLMs (ChatGPT, Claude, and Gemini) to reason about NIDS rules while labeling them with MITRE ATT&CK tactics and techniques. We discuss prompt design and present experiments performed with 973 Snort rules. Our results indicate that while LLMs provide explainable, scalable, and efficient initial mappings, traditional Machine Learning (ML) models consistently outperform them in accuracy, achieving higher precision, recall, and F1-scores. These results highlight the potential for hybrid LLM-ML approaches to enhance SOC operations and better address the evolving threat landscape.
- Abstract(参考訳): セキュリティ・オペレーション・センター(SOC)のアナリストは、ネットワーク侵入検知システム(NIDS)からのアラートの監視に時間を要することが多い。
多くのNIDSルールは、アタックテクニックと明確な説明や関連を持たず、警告トリアージとアタック仮説の生成を複雑にしている。
大規模言語モデル(LLM)は、アタック技術とルールを関連付けることで、警告説明可能性ギャップを減らすための有望な技術である。
本稿では,3つの著名なLCM(ChatGPT,Claude,Gemini)が,NIDSルールをMITRE ATT&CKの戦術と手法でラベル付けしながら推論する能力について検討する。
973のSnortルールで実施した迅速な設計と実験について論じる。
LLMは説明可能でスケーラブルで効率的な初期マッピングを提供するが、従来の機械学習(ML)モデルは精度を常に上回り、高精度、リコール、F1スコアを実現している。
これらの結果は、SOCオペレーションを強化し、進化する脅威状況に対処するLLM-MLハイブリッドアプローチの可能性を強調している。
関連論文リスト
- Attention Tracker: Detecting Prompt Injection Attacks in LLMs [62.247841717696765]
大型言語モデル (LLM) は様々なドメインに革命をもたらしたが、インジェクション攻撃に弱いままである。
そこで本研究では,特定の注意点が本来の指示から注入指示へと焦点を移す,注意散逸効果の概念を紹介した。
本研究では,アテンション・トラッカーを提案する。アテンション・トラッカーは,インジェクション・アタックを検出するために,インストラクション上の注意パターンを追跡する訓練不要な検出手法である。
論文 参考訳(メタデータ) (2024-11-01T04:05:59Z) - Embedding-based classifiers can detect prompt injection attacks [5.820776057182452]
大規模言語モデル(LLM)は敵の攻撃、特にインジェクション攻撃に対して脆弱である。
本稿では,組込み型機械学習(ML)分類器をベースとした新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:36:59Z) - EEG-Defender: Defending against Jailbreak through Early Exit Generation of Large Language Models [14.5687457011354]
大規模言語モデル(LLM)は、様々なアプリケーションで注目を集めている。
悪意のある目的のためにこれらのモデルを悪用しようとするユーザもいるため、懸念が高まっている。
我々は,LEMに対するEEG-Defenderと呼ばれる,シンプルながら重要な防御手法を導入する。
論文 参考訳(メタデータ) (2024-08-21T03:25:31Z) - Towards Explainable Network Intrusion Detection using Large Language Models [3.8436076642278745]
大規模言語モデル(LLM)は、特にチャットエージェントのような自然言語処理タスクに革命をもたらした。
本稿では,ネットワーク侵入検知システム(NIDS)におけるLLMの適用可能性について検討する。
予備的な調査では、LSMは悪性ネットフローの検出には適していないことが示されている。
特に、Retrieval Augmented Generation(RAG)と機能呼び出し機能を統合した場合の脅威応答の説明や支援において、NIDSの補完的エージェントとして有意義な可能性を秘めている。
論文 参考訳(メタデータ) (2024-08-08T09:59:30Z) - Detecting and Understanding Vulnerabilities in Language Models via Mechanistic Interpretability [44.99833362998488]
大規模言語モデル(LLM)は、幅広いタスクで素晴らしいパフォーマンスを示している。
特にLSMは敵攻撃に弱いことが知られており、入力に対する非受容的な変更はモデルの出力を誤解させる可能性がある。
本稿では,メカニスティック・インタプリタビリティ(MI)技術に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T09:55:34Z) - AutoDetect: Towards a Unified Framework for Automated Weakness Detection in Large Language Models [95.09157454599605]
大規模言語モデル(LLM)はますます強力になってきていますが、それでも顕著ですが微妙な弱点があります。
従来のベンチマークアプローチでは、特定のモデルの欠陥を徹底的に特定することはできない。
さまざまなタスクにまたがるLLMの弱点を自動的に露呈する統合フレームワークであるAutoDetectを導入する。
論文 参考訳(メタデータ) (2024-06-24T15:16:45Z) - Advancing TTP Analysis: Harnessing the Power of Large Language Models with Retrieval Augmented Generation [1.2289361708127877]
大規模言語モデル(LLM)が、サイバーセキュリティなどの重要なドメインに対して正確な応答を提供するために、効率的かつ適切な方法でどのように使用できるかは、不明である。
この研究は、デコーダのみのLLMに対するエンコーダのみのLLM(Retrieval Augmented Generation, RAG)に対する教師付き微調整(SFT)の使用について研究し、比較する。
本研究では,RAGを用いたデコーダのみのLLMが,SFTを用いたエンコーダのみのモデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-12-30T16:56:24Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Trojaning Language Models for Fun and Profit [53.45727748224679]
TROJAN-LMは、悪質に製作されたLMがホストNLPシステムを故障させる新しいタイプのトロイの木馬攻撃である。
セキュリティクリティカルなNLPタスクにおいて、3つの最先端のLMを実証的に研究することにより、TROJAN-LMが以下の特性を持つことを示す。
論文 参考訳(メタデータ) (2020-08-01T18:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。