論文の概要: False Sense of Security: Leveraging XAI to Analyze the Reasoning and
True Performance of Context-less DGA Classifiers
- arxiv url: http://arxiv.org/abs/2307.04358v1
- Date: Mon, 10 Jul 2023 06:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 14:01:21.530758
- Title: False Sense of Security: Leveraging XAI to Analyze the Reasoning and
True Performance of Context-less DGA Classifiers
- Title(参考訳): False Sense of Security: コンテキストレスDGA分類器の推論と真のパフォーマンス解析にXAIを活用する
- Authors: Arthur Drichel and Ulrike Meyer
- Abstract要約: ディープラーニング分類器が99.9%以上の精度を達成したことを考えると、ドメイン生成アルゴリズム(DGA)の検出は解決されているようである。
これらの分類器は、非常に偏りがあり、自明な検出バイパスを可能にするため、誤ったセキュリティ感覚を提供する。
本研究では,説明可能な人工知能(XAI)手法を用いて,ディープラーニング分類器の推論を解析する。
- 参考スコア(独自算出の注目度): 3.5788754401889014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of revealing botnet activity through Domain Generation Algorithm
(DGA) detection seems to be solved, considering that available deep learning
classifiers achieve accuracies of over 99.9%. However, these classifiers
provide a false sense of security as they are heavily biased and allow for
trivial detection bypass. In this work, we leverage explainable artificial
intelligence (XAI) methods to analyze the reasoning of deep learning
classifiers and to systematically reveal such biases. We show that eliminating
these biases from DGA classifiers considerably deteriorates their performance.
Nevertheless we are able to design a context-aware detection system that is
free of the identified biases and maintains the detection rate of state-of-the
art deep learning classifiers. In this context, we propose a visual analysis
system that helps to better understand a classifier's reasoning, thereby
increasing trust in and transparency of detection methods and facilitating
decision-making.
- Abstract(参考訳): 利用可能なディープラーニング分類器が99.9%以上の精度を達成することを考えると、ドメイン生成アルゴリズム(DGA)検出によるボットネット活動を明らかにする問題は解決されているようである。
しかし、これらの分類器は偏りが強く、簡単な検出バイパスを可能にするため、誤ったセキュリティ感覚を提供する。
本研究では,深層学習分類器の推論を分析し,そのバイアスを体系的に明らかにするために,説明可能な人工知能(xai)手法を活用する。
DGA分類器からこれらのバイアスを取り除くことは,その性能を著しく低下させることを示す。
それでも、特定バイアスのない文脈認識検出システムを設計でき、最先端のディープラーニング分類器の検出率を維持することができる。
本稿では,分類者の推論をよりよく理解し,検出方法の信頼性と透明性を高め,意思決定を容易にする視覚分析システムを提案する。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Towards Robust Domain Generation Algorithm Classification [1.4542411354617986]
我々は32個のホワイトボックス攻撃を実装し、そのうち19個は非常に効果的であり、未硬化の分類器に対して$approx$100%の偽陰性率(FNR)を誘導する。
本稿では, 対角線空間ベクトルと離散化された対角線領域を利用して, 強靭性を大幅に向上させる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-09T11:56:29Z) - XAI-Based Detection of Adversarial Attacks on Deepfake Detectors [0.0]
我々は,XAIを用いたディープフェイク検出器に対する敵攻撃を識別するための新しい手法を提案する。
本手法は, ディープフェイクの検出だけでなく, 敵攻撃の可能性に対する理解の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-05T13:25:30Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Performance evaluation of Machine learning algorithms for Intrusion Detection System [0.40964539027092917]
本稿では機械学習(ML)技術を用いた侵入検知システム(IDS)の解析に焦点を当てた。
機械学習モデルのトレーニングと検証に使用されるKDD CUP-'99'侵入検出データセットを分析した。
論文 参考訳(メタデータ) (2023-10-01T06:35:37Z) - Anomaly Detection in Cybersecurity: Unsupervised, Graph-Based and
Supervised Learning Methods in Adversarial Environments [63.942632088208505]
現在の運用環境に固有ののは、敵対的機械学習の実践である。
本研究では,教師なし学習とグラフに基づく異常検出の可能性を検討する。
我々は,教師付きモデルの訓練時に,現実的な対人訓練機構を組み込んで,対人環境における強力な分類性能を実現する。
論文 参考訳(メタデータ) (2021-05-14T10:05:10Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Analyzing the Real-World Applicability of DGA Classifiers [3.0969191504482243]
DGAによって生成されたドメインから良性ドメインを分離する新しい分類器を提案する。
分類性能を評価し, 説明可能性, 堅牢性, 学習速度, 分類速度について比較した。
新たに提案したバイナリ分類器は,他のネットワークによく適応し,タイムロバストであり,これまで知られていなかったDGAを識別することができる。
論文 参考訳(メタデータ) (2020-06-19T12:34:05Z) - Do Gradient-based Explanations Tell Anything About Adversarial
Robustness to Android Malware? [20.11888851905904]
よりロバストなアルゴリズムの同定と選択に勾配に基づく属性法が有効かどうかを検討する。
2つの異なるデータセットと5つの分類アルゴリズムによるAndroidマルウェア検出実験により、説明の均一性と敵の堅牢性との間に強いつながりがあることが示されている。
論文 参考訳(メタデータ) (2020-05-04T13:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。