論文の概要: Adapting Large Language Models to Emerging Cybersecurity using Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2510.27080v1
- Date: Fri, 31 Oct 2025 00:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.945553
- Title: Adapting Large Language Models to Emerging Cybersecurity using Retrieval Augmented Generation
- Title(参考訳): 検索拡張生成を用いた大規模言語モデルの創発型サイバーセキュリティへの適用
- Authors: Arnabh Borah, Md Tanvirul Alam, Nidhi Rastogi,
- Abstract要約: セキュリティアプリケーションは、サイバー脅威検出のための大規模言語モデル(LLM)にますます依存している。
セキュリティの脅威は急速に進化するので、LLMは過去の出来事を思い出すだけでなく、新たな脆弱性や攻撃パターンにも適応する必要がある。
本稿では,サイバーセキュリティデータのコンテキスト化と,知識保持と時間的推論におけるLCMの精度向上を目的としたRAGベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.058685580689604
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Security applications are increasingly relying on large language models (LLMs) for cyber threat detection; however, their opaque reasoning often limits trust, particularly in decisions that require domain-specific cybersecurity knowledge. Because security threats evolve rapidly, LLMs must not only recall historical incidents but also adapt to emerging vulnerabilities and attack patterns. Retrieval-Augmented Generation (RAG) has demonstrated effectiveness in general LLM applications, but its potential for cybersecurity remains underexplored. In this work, we introduce a RAG-based framework designed to contextualize cybersecurity data and enhance LLM accuracy in knowledge retention and temporal reasoning. Using external datasets and the Llama-3-8B-Instruct model, we evaluate baseline RAG, an optimized hybrid retrieval approach, and conduct a comparative analysis across multiple performance metrics. Our findings highlight the promise of hybrid retrieval in strengthening the adaptability and reliability of LLMs for cybersecurity tasks.
- Abstract(参考訳): セキュリティアプリケーションは、サイバー脅威検出のための大規模言語モデル(LLM)にますます依存している。
セキュリティの脅威は急速に進化するので、LLMは過去の出来事を思い出すだけでなく、新たな脆弱性や攻撃パターンにも適応する必要がある。
Retrieval-Augmented Generation (RAG) は一般のLLMアプリケーションで有効性を示したが、サイバーセキュリティの可能性はまだ探索されていない。
本研究では,サイバーセキュリティデータのコンテキスト化と,知識保持と時間的推論におけるLCMの精度向上を目的としたRAGベースのフレームワークを提案する。
外部データセットとLlama-3-8B-Instructモデルを用いて、最適化されたハイブリッド検索手法であるベースラインRAGを評価し、複数のパフォーマンス指標の比較分析を行う。
本研究は, サイバーセキュリティ業務におけるLCMの適応性と信頼性を高めるためのハイブリッド検索の可能性を明らかにするものである。
関連論文リスト
- Advancing Autonomous Incident Response: Leveraging LLMs and Cyber Threat Intelligence [3.2284427438223013]
セキュリティチームは、警告の疲労、高い偽陽性率、および大量の非構造化サイバー脅威情報(CTI)文書に圧倒されている。
本稿では,Large Language Models (LLMs) を利用してIRの自動化と拡張を行う新しいRAGベースのフレームワークを提案する。
提案手法では, CTIベクタデータベース内のNLPに基づく類似性検索と, 外部CTIプラットフォームへの標準クエリを組み合わせたハイブリッド検索機構を提案する。
論文 参考訳(メタデータ) (2025-08-14T14:20:34Z) - Information Security Based on LLM Approaches: A Review [3.292159069489852]
大規模言語モデル(LLM)は、情報セキュリティの分野で幅広い応用可能性を示している。
本稿では,ニューラルネットワークとTransformerアーキテクチャに基づいて,大規模言語モデルの技術的基盤を分析する。
大規模言語モデリングの導入は,検出精度の向上とセキュリティシステムの誤警報率の低減に有効である。
論文 参考訳(メタデータ) (2025-07-24T09:09:36Z) - Reasoning-to-Defend: Safety-Aware Reasoning Can Defend Large Language Models from Jailbreaking [54.10710423370126]
本稿では,大規模言語モデルの生成プロセスに安全性を考慮した推論機構を統合する訓練パラダイムであるReasoning-to-Defend(R2D)を提案する。
CPOは、与えられた対話の安全性に対するモデルの認識を高める。
実験によると、R2Dは様々な攻撃を効果的に軽減し、元の性能を維持しながら全体の安全性を向上させる。
論文 参考訳(メタデータ) (2025-02-18T15:48:46Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - Generative AI in Cybersecurity: A Comprehensive Review of LLM Applications and Vulnerabilities [1.0974825157329373]
本稿では,ジェネレーティブAIとLarge Language Models(LLMs)によるサイバーセキュリティの将来を概観する。
ハードウェア設計のセキュリティ、侵入検知、ソフトウェアエンジニアリング、設計検証、サイバー脅威インテリジェンス、マルウェア検出、フィッシング検出など、さまざまな領域にわたるLCMアプリケーションを探索する。
GPT-4, GPT-3.5, Mixtral-8x7B, BERT, Falcon2, LLaMA などのモデルの発展に焦点を当て, LLM の進化とその現状について概説する。
論文 参考訳(メタデータ) (2024-05-21T13:02:27Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Purple Llama CyberSecEval: A Secure Coding Benchmark for Language Models [41.068780235482514]
本稿では,Large Language Models (LLMs) のプログラミングアシスタントとしてのサイバーセキュリティを促進するために開発された,包括的なベンチマークであるCyberSecEvalを提案する。
CyberSecEvalは、2つの重要なセキュリティ領域におけるLSMの徹底的な評価を提供する。
論文 参考訳(メタデータ) (2023-12-07T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。