論文の概要: Large Language Models for Explainable Threat Intelligence
- arxiv url: http://arxiv.org/abs/2511.05406v1
- Date: Fri, 07 Nov 2025 16:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.839808
- Title: Large Language Models for Explainable Threat Intelligence
- Title(参考訳): 説明可能な脅威知能のための大規模言語モデル
- Authors: Tiago Dinis, Miguel Correia, Roger Tavares,
- Abstract要約: 大規模言語モデル(LLM)はサイバーセキュリティに大きな可能性を秘めている。
本稿では,LLMとRAG(Research-augmented Generation)の併用による脅威知能の獲得について検討する。
提案システムであるRAGReconは、RAGを使用したLCMを使用して、サイバーセキュリティの脅威に関する質問に答える。
- 参考スコア(独自算出の注目度): 2.9873162504735133
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As cyber threats continue to grow in complexity, traditional security mechanisms struggle to keep up. Large language models (LLMs) offer significant potential in cybersecurity due to their advanced capabilities in text processing and generation. This paper explores the use of LLMs with retrieval-augmented generation (RAG) to obtain threat intelligence by combining real-time information retrieval with domain-specific data. The proposed system, RAGRecon, uses a LLM with RAG to answer questions about cybersecurity threats. Moreover, it makes this form of Artificial Intelligence (AI) explainable by generating and visually presenting to the user a knowledge graph for every reply. This increases the transparency and interpretability of the reasoning of the model, allowing analysts to better understand the connections made by the system based on the context recovered by the RAG system. We evaluated RAGRecon experimentally with two datasets and seven different LLMs and the responses matched the reference responses more than 91% of the time for the best combinations.
- Abstract(参考訳): サイバー脅威が複雑化するにつれ、従来のセキュリティメカニズムは追いつくのに苦労している。
大規模言語モデル(LLM)は、テキスト処理と生成の高度な能力のため、サイバーセキュリティにおいて大きな可能性を秘めている。
本稿では、リアルタイム情報検索とドメイン固有データを組み合わせた脅威知能を得るために、LLMをRAG(Research-augmented Generation)と併用することを検討する。
提案システムであるRAGReconは、RAGを使用したLCMを使用して、サイバーセキュリティの脅威に関する質問に答える。
さらに、この形式の人工知能(AI)は、応答毎に知識グラフを生成し、視覚的に提示することで、説明可能である。
これにより、モデルの推論の透明性と解釈性が向上し、アナリストはRAGシステムによって回復されたコンテキストに基づいて、システムによってなされるコネクションをよりよく理解できるようになる。
RAGReconを2つのデータセットと7つの異なるLCMで実験し、その応答は最良の組み合わせの91%以上で参照応答と一致した。
関連論文リスト
- Advancing Autonomous Incident Response: Leveraging LLMs and Cyber Threat Intelligence [3.2284427438223013]
セキュリティチームは、警告の疲労、高い偽陽性率、および大量の非構造化サイバー脅威情報(CTI)文書に圧倒されている。
本稿では,Large Language Models (LLMs) を利用してIRの自動化と拡張を行う新しいRAGベースのフレームワークを提案する。
提案手法では, CTIベクタデータベース内のNLPに基づく類似性検索と, 外部CTIプラットフォームへの標準クエリを組み合わせたハイブリッド検索機構を提案する。
論文 参考訳(メタデータ) (2025-08-14T14:20:34Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Knowledge Transfer from LLMs to Provenance Analysis: A Semantic-Augmented Method for APT Detection [1.2571354974258824]
本稿では,大規模言語モデル (LLM) をプロビタンスに基づく脅威検出に活用するための新しい戦略を提案する。
LLMは、証明データの解釈、システムコールの知識、ソフトウェアアイデンティティ、アプリケーション実行コンテキストの高レベルな理解など、さらなる詳細を提供する。
本評価では,教師付き脅威検出の精度は99.0%であり,半教師付き異常検出の精度は96.9%である。
論文 参考訳(メタデータ) (2025-03-24T03:51:09Z) - KGV: Integrating Large Language Models with Knowledge Graphs for Cyber Threat Intelligence Credibility Assessment [38.312774244521]
サイバー脅威インテリジェンス(サイバー脅威インテリジェンス、CTI)は、高度で組織化され、兵器化されたサイバー攻撃を防ぐ重要なツールである。
本稿では,大規模言語モデル (LLM) と単純な構造化知識グラフ (KG) を統合し,CTIの信頼性自動評価を行う最初のフレームワークである知識グラフベース検証(KGV)を提案する。
実験の結果,我々のKGVはCTI-200データセット上で最先端の事実推論手法より優れており,F1は5.7%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-15T11:32:46Z) - Context Matters: Pushing the Boundaries of Open-Ended Answer Generation with Graph-Structured Knowledge Context [4.1229332722825]
本稿では,知識グラフに基づく拡張と合わせて,グラフ駆動型コンテキスト検索を組み合わせた新しいフレームワークを提案する。
我々は,様々なパラメータサイズを持つ大規模言語モデル(LLM)の実験を行い,知識の基盤化能力を評価し,オープンな質問に対する回答の事実的正確性を決定する。
われわれの方法であるGraphContextGenは、テキストベースの検索システムよりも一貫して優れており、その堅牢性と多くのユースケースへの適応性を実証している。
論文 参考訳(メタデータ) (2024-01-23T11:25:34Z) - Large Language Models for Information Retrieval: A Survey [83.75872593741578]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。