論文の概要: AnomalyExplainer Explainable AI for LLM-based anomaly detection using BERTViz and Captum
- arxiv url: http://arxiv.org/abs/2509.00069v1
- Date: Tue, 26 Aug 2025 12:45:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.048127
- Title: AnomalyExplainer Explainable AI for LLM-based anomaly detection using BERTViz and Captum
- Title(参考訳): BERTVizとCaptumを用いたLCMによる異常検出のためのAnomalyExplainer Explainable AI
- Authors: Prasasthy Balasubramanian, Dumindu Kankanamge, Ekaterina Gilman, Mourad Oussalah,
- Abstract要約: 本研究では,異常を検知し,視覚ツールBERTVizとCaptumによる高品質な説明を提供するフレームワークを提案する。
比較分析によると、RoBERTaは高い精度(99.6、強い異常検出)を提供し、Falcon-7BやDeBERTaを上回っ、LogHubのHDFSデータセット上の大規模Mistral-7Bよりも柔軟性が向上している。
- 参考スコア(独自算出の注目度): 2.852061049666412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational AI and Large Language Models (LLMs) have become powerful tools across domains, including cybersecurity, where they help detect threats early and improve response times. However, challenges such as false positives and complex model management still limit trust. Although Explainable AI (XAI) aims to make AI decisions more transparent, many security analysts remain uncertain about its usefulness. This study presents a framework that detects anomalies and provides high-quality explanations through visual tools BERTViz and Captum, combined with natural language reports based on attention outputs. This reduces manual effort and speeds up remediation. Our comparative analysis showed that RoBERTa offers high accuracy (99.6 %) and strong anomaly detection, outperforming Falcon-7B and DeBERTa, as well as exhibiting better flexibility than large-scale Mistral-7B on the HDFS dataset from LogHub. User feedback confirms the chatbot's ease of use and improved understanding of anomalies, demonstrating the ability of the developed framework to strengthen cybersecurity workflows.
- Abstract(参考訳): 会話型AIとLarge Language Models(LLM)は、サイバーセキュリティを含むドメイン全体で強力なツールとなり、脅威を早期に検出し、応答時間を改善する。
しかし、偽陽性や複雑なモデル管理といった課題は依然として信頼を制限します。
説明可能なAI(XAI)は、AIの決定をより透過的にすることを目的としているが、多くのセキュリティアナリストは、その有用性について不透明である。
本研究では,異常を検知し,視覚ツールBERTVizとCaptumと,注意出力に基づく自然言語レポートを組み合わせた高品質な説明を行うフレームワークを提案する。
これにより手作業の労力が削減され、修復がスピードアップします。
我々の比較分析によると、RoBERTaは高い精度(99.6%)と強い異常検出を提供し、Falcon-7BとDeBERTaを上回り、LogHubのHDFSデータセット上の大規模Mistral-7Bよりも優れた柔軟性を示している。
ユーザからのフィードバックは、チャットボットの使いやすさを確認し、異常の理解を改善し、開発フレームワークがサイバーセキュリティワークフローを強化する能力を示している。
関連論文リスト
- Evaluating explainable AI for deep learning-based network intrusion detection system alert classification [0.7864304771129751]
ネットワーク侵入検知システム(NIDS)は、サイバー攻撃やその他の不要な活動のネットワークを監視する。
NIDSソリューションは、しばしば毎日圧倒的な数のアラートを発生させるため、アナリストが優先度の高い脅威を優先順位付けすることは困難である。
本研究は、信頼と解釈性を改善するために、NIDS警告分類における説明可能な人工知能(XAI)の重要性を強調した。
論文 参考訳(メタデータ) (2025-06-09T15:53:30Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - EXPLICATE: Enhancing Phishing Detection through Explainable AI and LLM-Powered Interpretability [44.2907457629342]
EXPLICATEは、三成分アーキテクチャによるフィッシング検出を強化するフレームワークである。
既存のディープラーニング技術と同等ですが、説明性が向上しています。
自動AIとフィッシング検出システムにおけるユーザ信頼の重大な隔たりに対処する。
論文 参考訳(メタデータ) (2025-03-22T23:37:35Z) - Reasoning-Augmented Conversation for Multi-Turn Jailbreak Attacks on Large Language Models [53.580928907886324]
Reasoning-Augmented Conversationは、新しいマルチターンジェイルブレイクフレームワークである。
有害なクエリを良心的な推論タスクに再構成する。
RACEは,複雑な会話シナリオにおいて,最先端攻撃の有効性を実現する。
論文 参考訳(メタデータ) (2025-02-16T09:27:44Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - NeuralSentinel: Safeguarding Neural Network Reliability and
Trustworthiness [0.0]
我々は,AIモデルの信頼性と信頼性を検証するツールであるNeuralSentinel(NS)を提案する。
NSは、モデル決定を理解することによって、専門家以外のスタッフがこの新しいシステムに対する信頼を高めるのに役立つ。
このツールはハッカソンイベントにデプロイされ、皮膚がん画像検出器の信頼性を評価するために使用された。
論文 参考訳(メタデータ) (2024-02-12T09:24:34Z) - HuntGPT: Integrating Machine Learning-Based Anomaly Detection and Explainable AI with Large Language Models (LLMs) [0.09208007322096533]
我々はランダムフォレスト分類器を応用した特殊な侵入検知ダッシュボードであるHuntGPTを提案する。
この論文は、Certified Information Security Manager (CISM) Practice Examsを通じて評価された、システムのアーキテクチャ、コンポーネント、技術的正確性について論じている。
その結果、LLMによってサポートされ、XAIと統合された会話エージェントは、侵入検出において堅牢で説明可能な、実行可能なAIソリューションを提供することを示した。
論文 参考訳(メタデータ) (2023-09-27T20:58:13Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。