論文の概要: From Retrieval to Reasoning: A Framework for Cyber Threat Intelligence NER with Explicit and Adaptive Instructions
- arxiv url: http://arxiv.org/abs/2512.19414v1
- Date: Mon, 22 Dec 2025 14:13:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.782491
- Title: From Retrieval to Reasoning: A Framework for Cyber Threat Intelligence NER with Explicit and Adaptive Instructions
- Title(参考訳): RetrievalからReasoningへ: 明示的かつ適応的なインストラクションを備えたサイバー脅威インテリジェンスNERのためのフレームワーク
- Authors: Jiaren Peng, Hongda Sun, Xuan Tian, Cheng Huang, Zeqing Li, Rui Yan,
- Abstract要約: TTPromptは暗黙のインジェクションから明示的なインストラクションへとシフトするフレームワークである。
FIRは、最小ラベル付きデータのエラーから学習することで、LLMがガイドラインを自己定義することを可能にする。
トレーニングデータの1%しか改善されていないTTPromptは、データセット全体を微調整したモデルに対抗している。
- 参考スコア(独自算出の注目度): 15.710492251334792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automation of Cyber Threat Intelligence (CTI) relies heavily on Named Entity Recognition (NER) to extract critical entities from unstructured text. Currently, Large Language Models (LLMs) primarily address this task through retrieval-based In-Context Learning (ICL). This paper analyzes this mainstream paradigm, revealing a fundamental flaw: its success stems not from global semantic similarity but largely from the incidental overlap of entity types within retrieved examples. This exposes the limitations of relying on unreliable implicit induction. To address this, we propose TTPrompt, a framework shifting from implicit induction to explicit instruction. TTPrompt maps the core concepts of CTI's Tactics, Techniques, and Procedures (TTPs) into an instruction hierarchy: formulating task definitions as Tactics, guiding strategies as Techniques, and annotation guidelines as Procedures. Furthermore, to handle the adaptability challenge of static guidelines, we introduce Feedback-driven Instruction Refinement (FIR). FIR enables LLMs to self-refine guidelines by learning from errors on minimal labeled data, adapting to distinct annotation dialects. Experiments on five CTI NER benchmarks demonstrate that TTPrompt consistently surpasses retrieval-based baselines. Notably, with refinement on just 1% of training data, it rivals models fine-tuned on the full dataset. For instance, on LADDER, its Micro F1 of 71.96% approaches the fine-tuned baseline, and on the complex CTINexus, its Macro F1 exceeds the fine-tuned ACLM model by 10.91%.
- Abstract(参考訳): サイバー脅威インテリジェンス(CTI)の自動化は、構造化されていないテキストから重要なエンティティを抽出するために、名前付きエンティティ認識(NER)に大きく依存している。
現在、Large Language Models (LLMs) は検索ベースのIn-Context Learning (ICL) を通じてこの問題に対処している。
本稿では、この主流パラダイムを分析し、その成功は、グローバルな意味的類似性ではなく、抽出された例内のエンティティタイプが偶然に重複することに起因する、根本的な欠陥を明らかにする。
これは、信頼できない暗黙の誘導に依存する制限を露呈する。
そこで本研究では,暗黙的帰納命令から明示的命令へ移行するフレームワークであるTTPromptを提案する。
TTPrompt は CTI の Tactics, Techniques, and procedures (TTPs) の中核となる概念を命令階層にマッピングする。
さらに,静的ガイドラインの適応性問題に対処するために,フィードバック駆動型命令精錬(FIR)を導入する。
FIRにより、LLMは最小ラベル付きデータの誤りから学習し、異なるアノテーションの方言に適応することで、ガイドラインを自己定義することができる。
CTI NERベンチマーク5つの実験により、TTPromptは検索ベースラインを一貫して上回っていることが示された。
特に、トレーニングデータの1%しか改善されていないため、完全なデータセットで微調整されたモデルに匹敵する。
例えば、LADDERでは71.96%のマイクロF1が細調整されたベースラインに近づき、複雑なCTINexusでは、マクロF1が微細調整されたACLMモデルより10.91%上回る。
関連論文リスト
- KBQA-R1: Reinforcing Large Language Models for Knowledge Base Question Answering [64.62317305868264]
テキスト模倣から強化学習によるインタラクション最適化へパラダイムをシフトするフレームワークである textbfKBQA-R1 を提案する。
KBQAを多ターン決定プロセスとして扱うことで,行動のリストを用いて知識ベースをナビゲートすることを学ぶ。
WebQSP、GrailQA、GraphQuestionsの実験では、KBQA-R1が最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-10T17:45:42Z) - PANER: A Paraphrase-Augmented Framework for Low-Resource Named Entity Recognition [9.164874578520722]
我々は、従来のITアプローチの原則を組み合わせて、最近の最先端のLLMの大きなコンテキストウインドウを活用する軽量な数ショットのNERフレームワークを提示します。
ベンチマーク・データセットを用いた実験により,本手法は,数ショット・ゼロショットタスクにおける最先端モデルに匹敵する性能が得られることが示された。
論文 参考訳(メタデータ) (2025-10-20T16:36:18Z) - CoT Referring: Improving Referring Expression Tasks with Grounded Reasoning [67.18702329644526]
CoT Referringは、構造化されたチェーン・オブ・シークレット・トレーニングデータ構造を通じて、モデル推論をモダリティにわたって強化する。
トレーニングデータを再構築して、新たな出力フォームを実行し、既存のデータセットに新たなアノテーションを提供します。
また、検出とセグメント化機能を統合MLLMフレームワークに統合し、新しい適応重み付き損失で学習して性能を最適化する。
論文 参考訳(メタデータ) (2025-10-03T08:50:21Z) - LRCTI: A Large Language Model-Based Framework for Multi-Step Evidence Retrieval and Reasoning in Cyber Threat Intelligence Credibility Verification [7.608817324043705]
マルチステップCyber Threat Intelligence 信頼性検証のためのフレームワーク LRCTI を提案する。
このフレームワークはまず、複雑なインテリジェンスレポートを簡潔で行動可能な脅威クレームに抽出するために、テキスト要約モジュールを使用する。
次に、適応的な多段階証拠検索機構を使用して、CTI固有のコーパスからの情報を反復的に識別し、洗練する。
CTI-200 と PolitiFact の2つのベンチマークデータセットによる実験では、RCTI は F1-Macro と F1-Micro のスコアを 5% 以上改善し、それぞれ 90.9% と 93.6% に達した。
論文 参考訳(メタデータ) (2025-07-15T13:42:32Z) - DecIF: Improving Instruction-Following through Meta-Decomposition [9.939860059820917]
DecIFは、多種多様な高品質の命令追従データを生成する、完全に自律的でメタ分解誘導フレームワークである。
命令生成のために,LLMは様々なメタ情報を反復的に生成し,応答制約と組み合わせて意味的にリッチな命令を生成するように誘導する。
応答生成のために、各命令を原子レベルの評価基準に分解し、厳密な検証と不正確な命令応答対の除去を可能にする。
論文 参考訳(メタデータ) (2025-05-20T06:38:28Z) - Instantiating Standards: Enabling Standard-Driven Text TTP Extraction with Evolvable Memory [4.909107168534244]
抽象的な標準定義を実行可能な文脈化された知識に変換する新しいフレームワークを導入する。
本手法では,Large Language Model (LLM) を用いて知識の生成,更新,適用を行う。
実験の結果,GPT-4oを11%上回るテクニックF1スコアが得られた。
論文 参考訳(メタデータ) (2025-05-14T10:22:13Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Disperse-Then-Merge: Pushing the Limits of Instruction Tuning via Alignment Tax Reduction [75.25114727856861]
大規模言語モデル(LLM)は、スーパービジョンされた微調整プロセスの後半で劣化する傾向にある。
この問題に対処するための単純な分散結合フレームワークを導入する。
我々のフレームワークは、一連の標準知識と推論ベンチマークに基づいて、データキュレーションや正規化の訓練など、様々な高度な手法より優れています。
論文 参考訳(メタデータ) (2024-05-22T08:18:19Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [58.617025733655005]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。