論文の概要: On the Uses of Large Language Models to Interpret Ambiguous Cyberattack
Descriptions
- arxiv url: http://arxiv.org/abs/2306.14062v2
- Date: Tue, 22 Aug 2023 19:15:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 18:01:06.132358
- Title: On the Uses of Large Language Models to Interpret Ambiguous Cyberattack
Descriptions
- Title(参考訳): 曖昧なサイバー攻撃記述を解釈する大規模言語モデルの利用について
- Authors: Reza Fayyazi, Shanchieh Jay Yang
- Abstract要約: 戦術、テクニック、手順(TTP)は、攻撃者が脆弱性を悪用する方法と理由を説明することである。
あるセキュリティ専門家によって書かれたTTP記述は、別のセキュリティ専門家によって非常に異なる解釈が可能であるため、サイバーセキュリティ操作の混乱につながる。
AIの進歩は、サイバーオペレーションにおけるさまざまなタスクを支援するために自然言語処理(NLP)アルゴリズムの使用の増加につながっている。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The volume, variety, and velocity of change in vulnerabilities and exploits
have made incident threat analysis challenging with human expertise and
experience along. Tactics, Techniques, and Procedures (TTPs) are to describe
how and why attackers exploit vulnerabilities. However, a TTP description
written by one security professional can be interpreted very differently by
another, leading to confusion in cybersecurity operations or even business,
policy, and legal decisions. Meanwhile, advancements in AI have led to the
increasing use of Natural Language Processing (NLP) algorithms to assist the
various tasks in cyber operations. With the rise of Large Language Models
(LLMs), NLP tasks have significantly improved because of the LLM's semantic
understanding and scalability. This leads us to question how well LLMs can
interpret TTPs or general cyberattack descriptions to inform analysts of the
intended purposes of cyberattacks. We propose to analyze and compare the direct
use of LLMs (e.g., GPT-3.5) versus supervised fine-tuning (SFT) of
small-scale-LLMs (e.g., BERT) to study their capabilities in predicting ATT&CK
tactics. Our results reveal that the small-scale-LLMs with SFT provide a more
focused and clearer differentiation between the ATT&CK tactics (if such
differentiation exists). On the other hand, direct use of LLMs offer a broader
interpretation of cyberattack techniques. When treating more general cases,
despite the power of LLMs, inherent ambiguity exists and limits their
predictive power. We then summarize the challenges and recommend research
directions on LLMs to treat the inherent ambiguity of TTP descriptions used in
various cyber operations.
- Abstract(参考訳): 脆弱性やエクスプロイトの変化量、多様性、速度によって、インシデント脅威分析は、人間の専門知識や経験に挑戦している。
戦術、テクニック、手順(TTP)は、攻撃者が脆弱性を悪用する方法と理由を説明することである。
しかし、あるセキュリティ専門家によって書かれたTTP記述は、別のセキュリティ専門家によって非常に異なる解釈が可能であり、サイバーセキュリティの運用やビジネス、ポリシー、法的決定の混乱につながる。
一方、AIの進歩は、サイバーオペレーションにおける様々なタスクを支援するために自然言語処理(NLP)アルゴリズムの使用の増加につながっている。
LLM(Large Language Models)の台頭により、LPMのセマンティック理解と拡張性により、NLPタスクは大幅に改善された。
これにより、LCMがTTPや一般的なサイバーアタックの記述を正しく解釈し、サイバーアタックの意図した目的をアナリストに伝えることができるか疑問が持たれる。
我々は,小型LLM(例えばBERT)のLPM(例えばGPT-3.5)と教師付き微調整(SFT)を直接使用して,ATT&CK戦術の予測能力について検討することを提案する。
以上の結果から,SFTを用いた小型LLMは,ATT&CK戦術のより焦点を絞った,より明瞭な分化をもたらすことが明らかとなった。
一方、LSMの直接使用はサイバー攻撃技術のより広範な解釈を提供する。
より一般的なケースを扱う場合、LSMの力にもかかわらず、固有の曖昧さが存在し、予測力を制限する。
次に,これらの課題を要約し,様々なサイバー操作で使用されるTP記述のあいまいさを扱うため,LSMの研究指針を推薦する。
関連論文リスト
- Securing Large Language Models: Addressing Bias, Misinformation, and Prompt Attacks [12.893445918647842]
大きな言語モデル(LLM)は、様々な分野において印象的な機能を示しているが、その使用の増加は重要なセキュリティ上の懸念を提起している。
この記事では、LLMセキュリティにおける重要な問題に対処する最近の文献をレビューし、正確性、バイアス、コンテンツ検出、攻撃に対する脆弱性に焦点を当てる。
論文 参考訳(メタデータ) (2024-09-12T14:42:08Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Detecting and Understanding Vulnerabilities in Language Models via Mechanistic Interpretability [44.99833362998488]
大規模言語モデル(LLM)は、幅広いタスクで素晴らしいパフォーマンスを示している。
特にLSMは敵攻撃に弱いことが知られており、入力に対する非受容的な変更はモデルの出力を誤解させる可能性がある。
本稿では,メカニスティック・インタプリタビリティ(MI)技術に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T09:55:34Z) - Human-Interpretable Adversarial Prompt Attack on Large Language Models with Situational Context [49.13497493053742]
本研究は,無意味な接尾辞攻撃を状況駆動型文脈書き換えによって意味のあるプロンプトに変換することを検討する。
我々は、独立して意味のある敵の挿入と映画から派生した状況を組み合わせて、LLMを騙せるかどうかを確認します。
当社のアプローチでは,オープンソースとプロプライエタリなLLMの両方で,状況駆動型攻撃を成功させることが実証されている。
論文 参考訳(メタデータ) (2024-07-19T19:47:26Z) - A Comprehensive Overview of Large Language Models (LLMs) for Cyber Defences: Opportunities and Directions [12.044950530380563]
最近のLLM(Large Language Models)の進歩は、データ中心のアプリケーション分野で大きな成功を収めている。
サイバー防衛部門におけるLSMの最近の活動の概要について概説する。
トランスフォーマー, 事前学習トランスフォーマー, GPTからのLCMの進行に関する基本的な概念を述べる。
論文 参考訳(メタデータ) (2024-05-23T12:19:07Z) - Large Language Models for Cyber Security: A Systematic Literature Review [14.924782327303765]
サイバーセキュリティ(LLM4Security)における大規模言語モデルの適用に関する文献の総合的なレビューを行う。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出、フィッシング検出など、幅広いサイバーセキュリティタスクに応用されている。
第3に、細調整、転送学習、ドメイン固有の事前トレーニングなど、特定のサイバーセキュリティドメインにLLMを適用するための有望なテクニックをいくつか特定する。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Advancing TTP Analysis: Harnessing the Power of Large Language Models with Retrieval Augmented Generation [1.2289361708127877]
大規模言語モデル(LLM)が、サイバーセキュリティなどの重要なドメインに対して正確な応答を提供するために、効率的かつ適切な方法でどのように使用できるかは、不明である。
この研究は、デコーダのみのLLMに対するエンコーダのみのLLM(Retrieval Augmented Generation, RAG)に対する教師付き微調整(SFT)の使用について研究し、比較する。
本研究では,RAGを用いたデコーダのみのLLMが,SFTを用いたエンコーダのみのモデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-12-30T16:56:24Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Trojaning Language Models for Fun and Profit [53.45727748224679]
TROJAN-LMは、悪質に製作されたLMがホストNLPシステムを故障させる新しいタイプのトロイの木馬攻撃である。
セキュリティクリティカルなNLPタスクにおいて、3つの最先端のLMを実証的に研究することにより、TROJAN-LMが以下の特性を持つことを示す。
論文 参考訳(メタデータ) (2020-08-01T18:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。