論文の概要: Insight-LLM: LLM-enhanced Multi-view Fusion in Insider Threat Detection
- arxiv url: http://arxiv.org/abs/2509.01509v1
- Date: Mon, 01 Sep 2025 14:31:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.733657
- Title: Insight-LLM: LLM-enhanced Multi-view Fusion in Insider Threat Detection
- Title(参考訳): Insight-LLM:内部脅威検出におけるLLM強化多視点融合
- Authors: Chengyu Song, Jianming Zheng,
- Abstract要約: インサイダー脅威検出に特化した,最初のモジュール型マルチビュー融合フレームワークであるInsight-LLMを提案する。
Insight-LLMは凍結前処理を採用し、低レイテンシとパラメータオーバーヘッドで最先端検出を実現する。
- 参考スコア(独自算出の注目度): 9.040775027499265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Insider threat detection (ITD) requires analyzing sparse, heterogeneous user behavior. Existing ITD methods predominantly rely on single-view modeling, resulting in limited coverage and missed anomalies. While multi-view learning has shown promise in other domains, its direct application to ITD introduces significant challenges: scalability bottlenecks from independently trained sub-models, semantic misalignment across disparate feature spaces, and view imbalance that causes high-signal modalities to overshadow weaker ones. In this work, we present Insight-LLM, the first modular multi-view fusion framework specifically tailored for insider threat detection. Insight-LLM employs frozen, pre-nes, achieving state-of-the-art detection with low latency and parameter overhead.
- Abstract(参考訳): 内部脅威検出(ITD)は、スパースで異質なユーザーの振る舞いを分析する必要がある。
既存のITDメソッドは主に単一ビューモデリングに依存しており、カバー範囲が限られ、異常が失われた。
個別に訓練されたサブモデルからのスケーラビリティのボトルネック、異なる特徴空間をまたいだセマンティックなミスアライメント、高信号のモダリティを覆い隠すビューの不均衡などだ。
本稿では,インサイダー脅威検出に特化して設計された,最初のモジュール型マルチビュー融合フレームワークであるInsight-LLMを紹介する。
Insight-LLMは凍結前処理を採用し、低レイテンシとパラメータオーバーヘッドで最先端検出を実現する。
関連論文リスト
- Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [54.70676039314542]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は、最先端のPTQ手法を実装し、複数のタスクタイプとモデル変種を包括的に評価する。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - MGDFIS: Multi-scale Global-detail Feature Integration Strategy for Small Object Detection [12.838872442435527]
UAV画像の小さな物体検出は、探索・救助、交通監視、環境監視といった用途に不可欠である。
既存のマルチスケール融合法は、計算負荷を増し、詳細をぼかすのに役立つ。
本稿では,グローバルコンテキストと局所的な詳細を密結合して検出性能を向上させる統合融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T02:54:25Z) - Multimodal LLM-Guided Semantic Correction in Text-to-Image Diffusion [52.315729095824906]
MLLM Semantic-Corrected Ping-Pong-Ahead Diffusion (PPAD) は,マルチモーダル大言語モデル(MLLM)を推論中の意味的オブザーバとして導入する新しいフレームワークである。
中間世代をリアルタイムに分析し、潜在意味的不整合を識別し、フィードバックを制御可能な信号に変換し、残りの認知ステップを積極的に導く。
大規模な実験ではPPADの大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-05-26T14:42:35Z) - AuxDet: Auxiliary Metadata Matters for Omni-Domain Infrared Small Target Detection [58.67129770371016]
シーン認識最適化のためのテキストメタデータを組み込むことにより、IRSTDパラダイムを再定義する新しいIRSTDフレームワークを提案する。
AuxDetは最先端の手法を一貫して上回り、堅牢性と正確性を改善する上で補助情報の重要な役割を検証している。
論文 参考訳(メタデータ) (2025-05-21T07:02:05Z) - AMAD: AutoMasked Attention for Unsupervised Multivariate Time Series Anomaly Detection [0.7371521417300614]
AMADはUMTStextbfADシナリオに対するtextbfAutotextbfMasked Attentionを統合している。
AMADはUMTSADの課題に対して堅牢で適応可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-09T07:32:59Z) - R-MTLLMF: Resilient Multi-Task Large Language Model Fusion at the Wireless Edge [78.26352952957909]
マルチタスク大言語モデル(MTLLM)は、ユーザが複数のタスクを効率的に処理するための特殊なモデルを要求する無線エッジにおける多くのアプリケーションにとって重要である。
タスクベクトルによるモデル融合の概念は、MDLLMを生成するための微調整パラメータを組み合わせるための効率的なアプローチとして登場した。
本稿では,最悪の逆攻撃を前提として,エッジユーザがタスクベクトルを介して協調的にMTLMを作成できる問題について検討する。
論文 参考訳(メタデータ) (2024-11-27T10:57:06Z) - VMAD: Visual-enhanced Multimodal Large Language Model for Zero-Shot Anomaly Detection [19.79027968793026]
Zero-shot Anomaly Detection (ZSAD)は、未確認のオブジェクト内の異常を認識し、ローカライズする。
既存のZSADメソッドは、クローズドワールド設定によって制限され、事前に定義されたプロンプトで見つからない欠陥に苦労する。
我々は、視覚的IAD知識ときめ細かい知覚でMLLMを強化する新しいフレームワークVMAD(Visual-enhanced MLLM Anomaly Detection)を提案する。
論文 参考訳(メタデータ) (2024-09-30T09:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。