論文の概要: On the Uses of Large Language Models to Interpret Ambiguous Cyberattack
Descriptions
- arxiv url: http://arxiv.org/abs/2306.14062v1
- Date: Sat, 24 Jun 2023 21:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:10:51.641377
- Title: On the Uses of Large Language Models to Interpret Ambiguous Cyberattack
Descriptions
- Title(参考訳): 曖昧なサイバー攻撃記述を解釈する大規模言語モデルの利用について
- Authors: Reza Fayyazi, Shanchieh Jay Yang
- Abstract要約: MITRE AT&CKフレームワークは、攻撃者が脆弱性を悪用する方法と理由を説明するために、戦術、テクニック、手順(TTP)を使用している。
あるセキュリティ専門家によって書かれたTTP記述は、別のセキュリティ専門家によって非常に異なる解釈が可能であるため、サイバーセキュリティ操作の混乱につながる。
LLM(Large Language Models)の台頭により、LPMのセマンティック理解と拡張性により、NLPタスクは大幅に改善された。
我々は,LLMの直接的使用と,ATT&CK記述を用いたBaseLLMsのトレーニングを提案し,分析し,ATT&CKの戦術を予測する能力について検討する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The volume, variety, and velocity of change in vulnerabilities and exploits
have made incident threat analysis challenging with human expertise and
experience along. The MITRE AT&CK framework employs Tactics, Techniques, and
Procedures (TTPs) to describe how and why attackers exploit vulnerabilities.
However, a TTP description written by one security professional can be
interpreted very differently by another, leading to confusion in cybersecurity
operations or even business, policy, and legal decisions. Meanwhile,
advancements in AI have led to the increasing use of Natural Language
Processing (NLP) algorithms to assist the various tasks in cyber operations.
With the rise of Large Language Models (LLMs), NLP tasks have significantly
improved because of the LLM's semantic understanding and scalability. This
leads us to question how well LLMs can interpret TTP or general cyberattack
descriptions. We propose and analyze the direct use of LLMs as well as training
BaseLLMs with ATT&CK descriptions to study their capability in predicting
ATT&CK tactics. Our results reveal that the BaseLLMs with supervised training
provide a more focused and clearer differentiation between the ATT&CK tactics
(if such differentiation exists). On the other hand, LLMs offer a broader
interpretation of cyberattack techniques. Despite the power of LLMs, inherent
ambiguity exists within their predictions. We thus summarize the existing
challenges and recommend research directions on LLMs to deal with the inherent
ambiguity of TTP descriptions.
- Abstract(参考訳): 脆弱性やエクスプロイトの変化量、多様性、速度によって、インシデント脅威分析は、人間の専門知識や経験に挑戦している。
MITRE AT&CKフレームワークは、攻撃者が脆弱性を悪用する方法と理由を説明するために、戦術、テクニック、手順(TTP)を使用している。
しかし、あるセキュリティ専門家によって書かれたTTP記述は、別のセキュリティ専門家によって非常に異なる解釈が可能であり、サイバーセキュリティの運用やビジネス、ポリシー、法的決定の混乱につながる。
一方、AIの進歩は、サイバーオペレーションにおける様々なタスクを支援するために自然言語処理(NLP)アルゴリズムの使用の増加につながっている。
LLM(Large Language Models)の台頭により、LPMのセマンティック理解と拡張性により、NLPタスクは大幅に改善された。
これにより、LCMがTTPや一般的なサイバー攻撃の記述をどの程度うまく解釈できるか疑問が持たれる。
我々は,LLMの直接使用と,ATT&CK記述を用いたBaseLLMsのトレーニングを提案し,解析し,ATT&CKの戦術を予測する能力について検討する。
以上の結果から,指導訓練を施したBaseLLMsは,ATT&CK戦術のより焦点を絞った,より明瞭な分化をもたらすことが明らかとなった。
一方、LLMはサイバー攻撃技術のより広範な解釈を提供する。
LLMの力にもかかわらず、固有の曖昧さはその予測の中に存在する。
そこで我々は,既存の課題を要約し,TLP記述のあいまいさに対処するため,LSMに関する研究の方向性を推奨する。
関連論文リスト
- Large Language Models for Cyber Security: A Systematic Literature Review [14.924782327303765]
サイバーセキュリティ(LLM4Security)における大規模言語モデルの適用に関する文献の総合的なレビューを行う。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出、フィッシング検出など、幅広いサイバーセキュリティタスクに応用されている。
第3に、細調整、転送学習、ドメイン固有の事前トレーニングなど、特定のサイバーセキュリティドメインにLLMを適用するための有望なテクニックをいくつか特定する。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - From Noise to Clarity: Unraveling the Adversarial Suffix of Large
Language Model Attacks via Translation of Text Embeddings [64.26248561154509]
近年の研究では、有害な指示に接尾辞を付けることで、LSMの防御をハックできることが判明している。
本稿では,非可読な逆接尾辞をコヒーレントかつ可読なテキストに翻訳可能な逆接尾辞埋め込み翻訳フレームワーク(ASETF)を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:46:27Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Large Language Models in Cybersecurity: State-of-the-Art [4.990712773805833]
大規模言語モデル(LLM)の台頭は、私たちの知性の理解に革命をもたらした。
本研究は, サイバーセキュリティの領域におけるLLMの防衛的, 敵的応用の徹底的な評価を, 既存の文献を考察した。
論文 参考訳(メタデータ) (2024-01-30T16:55:25Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Advancing TTP Analysis: Harnessing the Power of Encoder-Only and
Decoder-Only Language Models with Retrieval Augmented Generation [1.3812010983144802]
TTP(Tactics, Techniques, and Procedures)は、攻撃者が脆弱性を悪用するために使用する方法の概要である。
MITRE ATT&CKフレームワークにおけるTPの解釈は、サイバーセキュリティ実践者にとって困難である。
本稿では,RAG(Retrieval Augmented Generation)技術を用いて,サイバー攻撃手順ごとに関連するコンテキストを抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-12-30T16:56:24Z) - LLMs Killed the Script Kiddie: How Agents Supported by Large Language
Models Change the Landscape of Network Threat Testing [4.899163798406851]
我々は、脅威を推論し、ツールに関する情報を生成し、サイバーキャンペーンを自動化するために、Large Language Modelsの可能性を探る。
我々は、脅威キャンペーンの1つのアクションに対する計画-実行-報告ループと、マルチアクションキャンペーンのシーケンシャルな決定プロセスを指示するプロンプト連鎖設計の技術的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-10T18:49:20Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - Visual Adversarial Examples Jailbreak Aligned Large Language Models [66.53468356460365]
視覚入力の連続的かつ高次元的な性質は、敵対的攻撃に対する弱いリンクであることを示す。
我々は、視力統合されたLLMの安全ガードレールを回避するために、視覚的敵の例を利用する。
本研究は,マルチモダリティの追求に伴う敵のエスカレーションリスクを浮き彫りにする。
論文 参考訳(メタデータ) (2023-06-22T22:13:03Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Trojaning Language Models for Fun and Profit [53.45727748224679]
TROJAN-LMは、悪質に製作されたLMがホストNLPシステムを故障させる新しいタイプのトロイの木馬攻撃である。
セキュリティクリティカルなNLPタスクにおいて、3つの最先端のLMを実証的に研究することにより、TROJAN-LMが以下の特性を持つことを示す。
論文 参考訳(メタデータ) (2020-08-01T18:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。