論文の概要: POLAR: Automating Cyber Threat Prioritization through LLM-Powered Assessment
- arxiv url: http://arxiv.org/abs/2510.01552v1
- Date: Thu, 02 Oct 2025 00:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.927475
- Title: POLAR: Automating Cyber Threat Prioritization through LLM-Powered Assessment
- Title(参考訳): POLAR:LCMを利用した評価によるサイバー脅威の優先順位付けを自動化する
- Authors: Luoxi Tang, Yuqiao Meng, Ankita Patra, Weicheng Ma, Muchao Ye, Zhaohan Xi,
- Abstract要約: 大規模言語モデル(LLM)は、サイバー脅威の迅速な搾取に対抗するセキュリティアナリストを支援するために、集中的に使用される。
本稿では,サイバー脅威インテリジェンス(CTI)におけるLCMの固有の脆弱性について検討する。
本稿では, 階層化, 自己回帰的洗練, ループ内人間監督を統合した新たな分類手法を提案する。
- 参考スコア(独自算出の注目度): 13.18964488705143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are intensively used to assist security analysts in counteracting the rapid exploitation of cyber threats, wherein LLMs offer cyber threat intelligence (CTI) to support vulnerability assessment and incident response. While recent work has shown that LLMs can support a wide range of CTI tasks such as threat analysis, vulnerability detection, and intrusion defense, significant performance gaps persist in practical deployments. In this paper, we investigate the intrinsic vulnerabilities of LLMs in CTI, focusing on challenges that arise from the nature of the threat landscape itself rather than the model architecture. Using large-scale evaluations across multiple CTI benchmarks and real-world threat reports, we introduce a novel categorization methodology that integrates stratification, autoregressive refinement, and human-in-the-loop supervision to reliably analyze failure instances. Through extensive experiments and human inspections, we reveal three fundamental vulnerabilities: spurious correlations, contradictory knowledge, and constrained generalization, that limit LLMs in effectively supporting CTI. Subsequently, we provide actionable insights for designing more robust LLM-powered CTI systems to facilitate future research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、セキュリティアナリストがサイバー脅威の迅速な搾取に対処するのを支援するために集中的に使用され、LLMは脆弱性評価とインシデント対応をサポートするサイバー脅威インテリジェンス(CTI)を提供する。
最近の研究によると、LLMは脅威分析、脆弱性検出、侵入防御といった幅広いCTIタスクをサポートできるが、実際のデプロイでは大きなパフォーマンスギャップが持続している。
本稿では,モデルアーキテクチャではなく,脅威景観自体の性質から生じる課題に着目し,CTIにおけるLLMの本質的な脆弱性について検討する。
複数のCTIベンチマークと実世界の脅威レポートの大規模な評価を用いて、我々は、階層化、自己回帰的改善、ヒューマン・イン・ザ・ループの監視を統合し、障害インスタンスを確実に分析する新しい分類手法を導入する。
広範囲な実験と人間の検査を通して、我々は3つの根本的な脆弱性を明らかにする: 刺激的相関、矛盾する知識、および制約付き一般化。
その後,より堅牢なLCM駆動CTIシステムを設計し,今後の研究を促進するための実用的な洞察を提供する。
関連論文リスト
- Uncovering Vulnerabilities of LLM-Assisted Cyber Threat Intelligence [15.881854286231997]
大規模言語モデル(LLM)は、サイバー脅威の迅速な搾取に対抗するセキュリティアナリストを支援するために、集中的に使用される。
本稿では,サイバー脅威インテリジェンス(CTI)におけるLCMの固有の脆弱性について検討する。
本稿では, 階層化, 自己回帰的洗練, ループ内人間監督を統合した新たな分類手法を提案する。
論文 参考訳(メタデータ) (2025-09-28T02:08:27Z) - Advancing Autonomous Incident Response: Leveraging LLMs and Cyber Threat Intelligence [3.2284427438223013]
セキュリティチームは、警告の疲労、高い偽陽性率、および大量の非構造化サイバー脅威情報(CTI)文書に圧倒されている。
本稿では,Large Language Models (LLMs) を利用してIRの自動化と拡張を行う新しいRAGベースのフレームワークを提案する。
提案手法では, CTIベクタデータベース内のNLPに基づく類似性検索と, 外部CTIプラットフォームへの標準クエリを組み合わせたハイブリッド検索機構を提案する。
論文 参考訳(メタデータ) (2025-08-14T14:20:34Z) - AttackSeqBench: Benchmarking Large Language Models' Understanding of Sequential Patterns in Cyber Attacks [13.082370325093242]
我々は,サイバー脅威インテリジェンス(CTI)レポートにおいて,攻撃シーケンスの理解と推論を行うLarge Language Models(LLM)能力を評価するためのベンチマークであるAttackSeqBenchを紹介する。
本ベンチマークでは,3つの質問応答(QA)タスクを対象とし,各タスクは,相手行動の粒度の違いに焦点をあてる。
サイバー攻撃のシーケンシャルなパターンを分析する上での、その強みと限界を強調しながら、高速思考とスロー思考の両方で広範な実験と分析を行う。
論文 参考訳(メタデータ) (2025-03-05T04:25:21Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - CTIBench: A Benchmark for Evaluating LLMs in Cyber Threat Intelligence [0.7499722271664147]
CTIBenchは、CTIアプリケーションにおける大規模言語モデルの性能を評価するために設計されたベンチマークである。
これらのタスクにおけるいくつかの最先端モデルの評価は、CTIコンテキストにおけるその強みと弱みに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-06-11T16:42:02Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。