論文の概要: Crimson: Empowering Strategic Reasoning in Cybersecurity through Large
Language Models
- arxiv url: http://arxiv.org/abs/2403.00878v1
- Date: Fri, 1 Mar 2024 08:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:04:40.939532
- Title: Crimson: Empowering Strategic Reasoning in Cybersecurity through Large
Language Models
- Title(参考訳): Crimson: 大規模言語モデルによるサイバーセキュリティにおける戦略的推論の強化
- Authors: Jiandong Jin, Bowen Tang, Mingxuan Ma, Xiao Liu, Yunfei Wang, Qingnan
Lai, Jia Yang, Changling Zhou
- Abstract要約: サイバーセキュリティの領域において,大規模言語モデル(LLM)の戦略的推論能力を高めるシステムであるCrimsonを紹介する。
CVEとMITRE ATT&CK技術とを関連付けることで、クリムソンは脅威予測と戦略防衛の取り組みを進めた。
- 参考スコア(独自算出の注目度): 4.960466107669653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduces Crimson, a system that enhances the strategic reasoning
capabilities of Large Language Models (LLMs) within the realm of cybersecurity.
By correlating CVEs with MITRE ATT&CK techniques, Crimson advances threat
anticipation and strategic defense efforts. Our approach includes defining and
evaluating cybersecurity strategic tasks, alongside implementing a
comprehensive human-in-the-loop data-synthetic workflow to develop the
CVE-to-ATT&CK Mapping (CVEM) dataset. We further enhance LLMs' reasoning
abilities through a novel Retrieval-Aware Training (RAT) process and its
refined iteration, RAT-R.
Our findings demonstrate that an LLM fine-tuned with our techniques,
possessing 7 billion parameters, approaches the performance level of GPT-4,
showing markedly lower rates of hallucination and errors, and surpassing other
models in strategic reasoning tasks. Moreover, domain-specific fine-tuning of
embedding models significantly improves performance within cybersecurity
contexts, underscoring the efficacy of our methodology. By leveraging Crimson
to convert raw vulnerability data into structured and actionable insights, we
bolster proactive cybersecurity defenses.
- Abstract(参考訳): サイバーセキュリティの分野では,大規模言語モデル(llm)の戦略的推論能力を高めるシステムであるcrimsonを紹介する。
CVEとMITRE ATT&CK技術とを関連付けることで、クリムソンは脅威予測と戦略的防衛活動を進めた。
我々のアプローチは、CVE-to-ATT&CKマッピング(CVEM)データセットを開発するための包括的なヒューマン・イン・ザ・ループデータ合成ワークフローの実装とともに、サイバーセキュリティ戦略タスクの定義と評価を含む。
我々は,新たな検索・認識訓練(RAT)プロセスと改良された反復RAT-Rにより,LLMの推論能力をさらに向上する。
以上の結果から,70億のパラメータを持つLPMがGPT-4の性能レベルに近づき,幻覚やエラーの頻度が著しく低く,戦略的推論タスクにおいて他のモデルを上回ることが示唆された。
さらに、ドメイン固有の埋め込みモデルの微調整により、サイバーセキュリティの文脈におけるパフォーマンスが著しく向上し、我々の方法論の有効性が強調される。
crimsonを利用して生の脆弱性データを構造化され実行可能な洞察に変換することで、私たちは積極的なサイバーセキュリティ防御を強化します。
関連論文リスト
- Unlearning Backdoor Attacks through Gradient-Based Model Pruning [10.801476967873173]
本研究では,その軽減を未学習課題として扱うことによって,バックドア攻撃に対抗する新しい手法を提案する。
このアプローチは単純さと有効性を提供し、データ可用性に制限のあるシナリオに適しています。
論文 参考訳(メタデータ) (2024-05-07T00:36:56Z) - Assessing Adversarial Robustness of Large Language Models: An Empirical Study [24.271839264950387]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、敵の攻撃に対する頑強さは依然として重要な問題である。
Llama, OPT, T5 など,主要なオープンソース LLM の脆弱性を露呈する,新しいホワイトボックス型攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T22:00:28Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - A Comprehensive Survey of Attack Techniques, Implementation, and Mitigation Strategies in Large Language Models [0.0]
この記事では、モデル自体に対する攻撃と、モデルアプリケーションに対する攻撃という2つの攻撃カテゴリについて説明する。
前者は専門知識、モデルデータへのアクセス、重要な実装時間が必要です。
後者は攻撃者にはよりアクセスしやすく、注目されている。
論文 参考訳(メタデータ) (2023-12-18T07:07:32Z) - Unscrambling the Rectification of Adversarial Attacks Transferability
across Computer Networks [4.576324217026666]
畳み込みニューラルネットワーク(CNN)モデルは、最先端のパフォーマンスを達成する上で重要な役割を果たす。
CNNは敵の攻撃を受けやすいため、妥協することができる。
本稿では,攻撃の強さを向上し,CNNにおける敵例の伝達可能性を評価するための,新しい包括的手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T22:36:24Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。