論文の概要: ALPHA: LLM-Enabled Active Learning for Human-Free Network Anomaly Detection
- arxiv url: http://arxiv.org/abs/2509.05936v1
- Date: Sun, 07 Sep 2025 05:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.787698
- Title: ALPHA: LLM-Enabled Active Learning for Human-Free Network Anomaly Detection
- Title(参考訳): ALPHA: 人為的ネットワーク異常検出のためのLLM型アクティブラーニング
- Authors: Xuanhao Luo, Shivesh Madan Nath Jha, Akruti Sinha, Zhizhen Li, Yuchen Liu,
- Abstract要約: 人為的なログ分析のための最初のアクティブラーニングパイプラインであるALPHAを提案する。
ALPHAはセマンティック埋め込み、クラスタリングに基づく代表サンプリング、および大言語モデル(LLM)支援の少ショットアノテーションを統合している。
実世界のログデータセットの実験では、ALPHAが完全な教師付き手法に匹敵する検出精度を達成することを示した。
- 参考スコア(独自算出の注目度): 5.312431459275026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network log data analysis plays a critical role in detecting security threats and operational anomalies. Traditional log analysis methods for anomaly detection and root cause analysis rely heavily on expert knowledge or fully supervised learning models, both of which require extensive labeled data and significant human effort. To address these challenges, we propose ALPHA, the first Active Learning Pipeline for Human-free log Analysis. ALPHA integrates semantic embedding, clustering-based representative sampling, and large language model (LLM)-assisted few-shot annotation to automate the anomaly detection process. The LLM annotated labels are propagated across clusters, enabling large-scale training of an anomaly detector with minimal supervision. To enhance the annotation accuracy, we propose a two-step few-shot refinement strategy that adaptively selects informative prompts based on the LLM's observed error patterns. Extensive experiments on real-world log datasets demonstrate that ALPHA achieves detection accuracy comparable to fully supervised methods while mitigating human efforts in the loop. ALPHA also supports interpretable analysis through LLM-driven root cause explanations in the post-detection stage. These capabilities make ALPHA a scalable and cost-efficient solution for truly automated log-based anomaly detection.
- Abstract(参考訳): ネットワークログデータ分析は、セキュリティの脅威や運用上の異常を検出する上で重要な役割を果たす。
従来の異常検出と根本原因分析のためのログ解析手法は、専門家の知識や完全に教師付き学習モデルに大きく依存しており、どちらも広範囲のラベル付きデータと重要な人間の努力を必要とする。
これらの課題に対処するため、人間フリーログ分析のための最初のアクティブラーニングパイプラインであるALPHAを提案する。
ALPHAは、セマンティック埋め込み、クラスタリングに基づく代表サンプリング、および大規模言語モデル(LLM)支援の少ショットアノテーションを統合して、異常検出プロセスを自動化する。
LLMアノテートされたラベルはクラスタ間で伝播し、最小限の監督で異常検知器を大規模に訓練することができる。
アノテーションの精度を高めるために,LLMの観測誤りパターンに基づいて情報的プロンプトを適応的に選択する2段階の複数ショット改良手法を提案する。
実世界のログデータセットに関する大規模な実験は、ALPHAが完全な教師付き手法に匹敵する検出精度を達成し、ループ内の人間の努力を軽減していることを示している。
ALPHAはまた、LLMによる根本原因の解明を通じて、検出後の段階での解釈解析もサポートする。
これらの機能は、ALPHAを真に自動化されたログベースの異常検出のためのスケーラブルでコスト効率のよいソリューションにする。
関連論文リスト
- Context-Enhanced Vulnerability Detection Based on Large Language Model [17.922081397554155]
本稿では,プログラム解析と大規模言語モデルを組み合わせたコンテキスト強化型脆弱性検出手法を提案する。
具体的には、プログラム分析を用いて、様々なレベルの抽象レベルで文脈情報を抽出し、無関係なノイズを除去する。
私たちのゴールは、脆弱性を正確に捉え、不要な複雑さを最小限に抑えるのに十分な詳細を提供することのバランスを取ることです。
論文 参考訳(メタデータ) (2025-04-23T16:54:16Z) - Learning on LLM Output Signatures for gray-box Behavior Analysis [52.81120759532526]
大きな言語モデル(LLM)は広く採用されていますが、その振る舞いに対する私たちの理解は限定的です。
グレーボックス設定におけるプロセス汚染とデータ検出のためのトランスフォーマーベースのアプローチを開発する。
提案手法は,グレーボックス設定における幻覚とデータ検出における優れた性能を実現し,既存のベースラインを著しく上回る。
論文 参考訳(メタデータ) (2025-03-18T09:04:37Z) - SHIELD: APT Detection and Intelligent Explanation Using LLM [22.944352324963546]
高度な永続的脅威(APT)は、長期にわたって検出されない高度なサイバー攻撃である。
既存のプロファイランスに基づく攻撃検出手法は、しばしば解釈可能性に欠け、高い偽陽性率に悩まされる。
統計的異常検出とグラフに基づく解析と,大規模言語モデルの文脈解析機能を組み合わせた新しい手法である ShiELD を導入する。
論文 参考訳(メタデータ) (2025-02-04T14:20:51Z) - Large Language Models for Anomaly Detection in Computational Workflows: from Supervised Fine-Tuning to In-Context Learning [9.601067780210006]
本稿では,大規模言語モデル(LLM)を用いて,複雑なデータパターンの学習能力を活用することにより,ワークフローの異常検出を行う。
教師付き微調整 (SFT) では, 文分類のためのラベル付きデータに基づいて事前学習したLCMを微調整し, 異常を識別する。
論文 参考訳(メタデータ) (2024-07-24T16:33:04Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - Security Vulnerability Detection with Multitask Self-Instructed Fine-Tuning of Large Language Models [8.167614500821223]
脆弱性検出のためのMSIVD, マルチタスクによる自己指示型微調整を, チェーン・オブ・シント・プロンプトとLDMによる自己指示にインスパイアした。
実験の結果,MSIVDは高い性能を示し,LineVul(LLMベースの脆弱性検出ベースライン)はBigVulデータセットでは0.92点,PreciseBugsデータセットでは0.48点であった。
論文 参考訳(メタデータ) (2024-06-09T19:18:05Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - PULL: Reactive Log Anomaly Detection Based On Iterative PU Learning [58.85063149619348]
本稿では,推定故障時間ウィンドウに基づくリアクティブ異常検出のための反復ログ解析手法PULLを提案する。
我々の評価では、PULLは3つの異なるデータセットで10のベンチマークベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-01-25T16:34:43Z) - Self-Attentive Classification-Based Anomaly Detection in Unstructured
Logs [59.04636530383049]
ログ表現を学習するための分類法であるLogsyを提案する。
従来の方法と比較して,F1スコアの平均0.25の改善を示す。
論文 参考訳(メタデータ) (2020-08-21T07:26:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。