論文の概要: DMFI: Dual-Modality Fine-Tuning and Inference Framework for LLM-Based Insider Threat Detection
- arxiv url: http://arxiv.org/abs/2508.05694v1
- Date: Wed, 06 Aug 2025 18:44:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.937095
- Title: DMFI: Dual-Modality Fine-Tuning and Inference Framework for LLM-Based Insider Threat Detection
- Title(参考訳): DMFI:LLMを用いたインサイダー脅威検出のための2モードファインチューニングと推論フレームワーク
- Authors: Kaichuan Kong, Dongjie Liu, Xiaobo Jin, Guanggang Geng, Zhiying Li, Jian Weng,
- Abstract要約: インサイダー脅威モダリティ(ITD)は、サイバーセキュリティにおいて永続的で高影響の課題となる。
伝統的なモデルは、しばしば意味的な意図と複雑な振る舞いのダイナミクスを捉えるのに苦労する。
動作認識の微調整とセマンティック推論を統合した2つのモダリティフレームワークであるDMFIを提案する。
- 参考スコア(独自算出の注目度): 9.049925971684837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insider threat detection (ITD) poses a persistent and high-impact challenge in cybersecurity due to the subtle, long-term, and context-dependent nature of malicious insider behaviors. Traditional models often struggle to capture semantic intent and complex behavior dynamics, while existing LLM-based solutions face limitations in prompt adaptability and modality coverage. To bridge this gap, we propose DMFI, a dual-modality framework that integrates semantic inference with behavior-aware fine-tuning. DMFI converts raw logs into two structured views: (1) a semantic view that processes content-rich artifacts (e.g., emails, https) using instruction-formatted prompts; and (2) a behavioral abstraction, constructed via a 4W-guided (When-Where-What-Which) transformation to encode contextual action sequences. Two LoRA-enhanced LLMs are fine-tuned independently, and their outputs are fused via a lightweight MLP-based decision module. We further introduce DMFI-B, a discriminative adaptation strategy that separates normal and abnormal behavior representations, improving robustness under severe class imbalance. Experiments on CERT r4.2 and r5.2 datasets demonstrate that DMFI outperforms state-of-the-art methods in detection accuracy. Our approach combines the semantic reasoning power of LLMs with structured behavior modeling, offering a scalable and effective solution for real-world insider threat detection. Our work demonstrates the effectiveness of combining LLM reasoning with structured behavioral modeling, offering a scalable and deployable solution for modern insider threat detection.
- Abstract(参考訳): インサイダー脅威検出(ITD)は、悪意のあるインサイダー行動の微妙で長期的、文脈に依存した性質のため、サイバーセキュリティにおいて永続的で高影響の課題となる。
従来のモデルは意味的意図と複雑な振る舞いのダイナミクスを捉えるのに苦労するが、既存のLCMベースのソリューションは適応性とモダリティのカバーを早めるのに限界に直面している。
このギャップを埋めるために,動作認識の微調整と意味推論を統合した2次元モダリティフレームワークDMFIを提案する。
DMFIは生ログを2つの構造化されたビューに変換する。(1) 命令形式プロンプトを用いてコンテンツリッチなアーティファクト(eメール,https)を処理するセマンティックビュー、(2) 4W-Guided(When-Where-What-Which)変換を用いて構築された行動抽象化。
2つの LoRA 拡張 LLM は独立に微調整され、その出力は軽量な MLP ベースの決定モジュールを介して融合される。
さらに、DMFI-Bは、正常な行動表現と異常な行動表現を分離し、厳密なクラス不均衡下で頑健さを向上させる識別適応戦略である。
CERT r4.2とr5.2データセットの実験は、DMFIが検出精度において最先端の手法よりも優れていることを示した。
提案手法は,LLMのセマンティック推論能力と構造化行動モデリングを組み合わせ,現実世界のインサイダー脅威検出のためのスケーラブルで効果的なソリューションを提供する。
我々の研究は、LLM推論と構造化行動モデリングを組み合わせることで、最新のインサイダー脅威検出のためのスケーラブルでデプロイ可能なソリューションを提供することの有効性を実証する。
関連論文リスト
- Adversarial Testing in LLMs: Insights into Decision-Making Vulnerabilities [5.0778942095543576]
本稿では,大規模言語モデルの意思決定過程を体系的にストレステストする逆評価フレームワークを提案する。
我々は、GPT-3.5、GPT-4、Gemini-1.5、DeepSeek-V3など、最先端のLLMに適用する。
我々の研究は、モデル間で異なる行動パターンを強調し、信頼できるAIデプロイメントにおける適応性と公平性認識の重要性を強調した。
論文 参考訳(メタデータ) (2025-05-19T14:50:44Z) - Diffusion Augmented Retrieval: A Training-Free Approach to Interactive Text-to-Image Retrieval [7.439049772394586]
Diffusion Augmented Retrieval (DAR)は、複数の中間表現を生成するフレームワークである。
DARの結果は微調整されたI-TIRモデルと同等だが、チューニングオーバーヘッドは発生しない。
論文 参考訳(メタデータ) (2025-01-26T03:29:18Z) - LF-Steering: Latent Feature Activation Steering for Enhancing Semantic Consistency in Large Language Models [16.37602070339033]
LLM(Large Language Models)は、意味的に等価なパラフレーズ入力によって、しばしば一貫性のない応答を生成する。
セマンティック不整合の原因となる潜在特徴表現を正確に識別する新しいアクティベーションステアリング手法LF-ステアリングを提案する。
本手法は, 関連トランス層の隠蔽状態をスパースオートエンコーダに基づいて, 疎活性化された高次元特徴空間にマッピングする。
論文 参考訳(メタデータ) (2025-01-19T13:06:51Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Decision Mamba: A Multi-Grained State Space Model with Self-Evolution Regularization for Offline RL [57.202733701029594]
本稿では,自己進化型政策学習戦略を持つ新しい多粒状態空間モデル(SSM)であるDecision Mambaを提案する。
これらの課題に対処するため、我々は自己進化型政策学習戦略を持つ新しい多粒状態空間モデル(SSM)であるDecision Mambaを提案する。
雑音性軌道上における過度に適合する問題を緩和するために,進行正則化を用いて自己進化政策を提案する。
論文 参考訳(メタデータ) (2024-06-08T10:12:00Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Intuitive or Dependent? Investigating LLMs' Behavior Style to
Conflicting Prompts [9.399159332152013]
本研究では,Large Language Models (LLM) の動作を,内部記憶と競合するプロンプトに直面する場合の挙動について検討する。
これにより、LLMの意思決定機構を理解し、検索強化生成(RAG)のような現実世界のアプリケーションにも役立つ。
論文 参考訳(メタデータ) (2023-09-29T17:26:03Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。