論文の概要: DeepAID: Interpreting and Improving Deep Learning-based Anomaly
Detection in Security Applications
- arxiv url: http://arxiv.org/abs/2109.11495v1
- Date: Thu, 23 Sep 2021 16:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:47:31.404071
- Title: DeepAID: Interpreting and Improving Deep Learning-based Anomaly
Detection in Security Applications
- Title(参考訳): DeepAID: セキュリティアプリケーションにおけるディープラーニングベースの異常検出の解釈と改善
- Authors: Dongqi Han, Zhiliang Wang, Wenqi Chen, Ying Zhong, Su Wang, Han Zhang,
Jiahai Yang, Xingang Shi, and Xia Yin
- Abstract要約: 非教師付きディープラーニング(DL)技術は、様々なセキュリティ関連の異常検出アプリケーションで広く使われている。
解釈可能性の欠如は、実際にDLモデルを採用する上で重要な障壁を生み出します。
本稿では,(1)セキュリティドメインにおけるDLベースの異常検出システムを解釈するためのフレームワークであるDeepAIDを提案する。
- 参考スコア(独自算出の注目度): 24.098989392716977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Deep Learning (DL) techniques have been widely used in various
security-related anomaly detection applications, owing to the great promise of
being able to detect unforeseen threats and superior performance provided by
Deep Neural Networks (DNN). However, the lack of interpretability creates key
barriers to the adoption of DL models in practice. Unfortunately, existing
interpretation approaches are proposed for supervised learning models and/or
non-security domains, which are unadaptable for unsupervised DL models and fail
to satisfy special requirements in security domains.
In this paper, we propose DeepAID, a general framework aiming to (1)
interpret DL-based anomaly detection systems in security domains, and (2)
improve the practicality of these systems based on the interpretations. We
first propose a novel interpretation method for unsupervised DNNs by
formulating and solving well-designed optimization problems with special
constraints for security domains. Then, we provide several applications based
on our Interpreter as well as a model-based extension Distiller to improve
security systems by solving domain-specific problems. We apply DeepAID over
three types of security-related anomaly detection systems and extensively
evaluate our Interpreter with representative prior works. Experimental results
show that DeepAID can provide high-quality interpretations for unsupervised DL
models while meeting the special requirements of security domains. We also
provide several use cases to show that DeepAID can help security operators to
understand model decisions, diagnose system mistakes, give feedback to models,
and reduce false positives.
- Abstract(参考訳): 監視されていないディープラーニング(DL)技術は、予期せぬ脅威を検出し、Deep Neural Networks(DNN)によって提供される優れたパフォーマンスを実現するという大きな約束のために、様々なセキュリティ関連の異常検出アプリケーションで広く利用されている。
しかし、解釈可能性の欠如は、実際にDLモデルを採用する上で重要な障壁を生み出します。
残念ながら、教師なしdlモデルには適応できず、セキュリティドメインの特別な要件を満たすことができない教師なし学習モデルや非セキュリティドメインに対して、既存の解釈アプローチが提案されている。
本稿では,(1)セキュリティ領域におけるDLベースの異常検出システムを解釈するための一般的なフレームワークであるDeepAIDを提案する。
まず,セキュリティ領域に制約のある最適化問題の定式化と解法により,教師なしDNNの新たな解釈法を提案する。
次に,我々のインタプリタに基づくいくつかのアプリケーションとモデルベースの拡張蒸留器を提供し,ドメイン固有の問題を解決することによりセキュリティシステムを改善する。
本稿では,3種類のセキュリティ関連異常検出システムにDeepAIDを適用し,代表的先行研究による解釈を広範囲に評価する。
実験の結果,DeepAIDはセキュリティドメインの特別な要件を満たしつつ,教師なしDLモデルに対して高品質な解釈を提供することができた。
また、DeepAIDは、セキュリティオペレーターがモデル決定を理解し、システムミスを診断し、モデルにフィードバックを与え、偽陽性を低減できることを示すいくつかのユースケースも提供します。
関連論文リスト
- In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [97.82118821263825]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - Visually Analyze SHAP Plots to Diagnose Misclassifications in ML-based Intrusion Detection [0.3199881502576702]
侵入検知システム(IDS)は、警告を提供することで本質的に脅威を軽減することができる。
これらの脅威を検出するため、さまざまな機械学習(ML)モデルとディープラーニング(DL)モデルが提案されている。
本稿では、重なり合うSHAPプロットを用いた説明可能な人工知能(XAI)に基づく視覚分析手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T23:08:34Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Towards a Privacy-preserving Deep Learning-based Network Intrusion
Detection in Data Distribution Services [0.0]
Data Distribution Service(DDS)は、ICS/IoTインフラストラクチャとロボティクスにおけるコミュニケーションに向けた革新的なアプローチである。
従来の侵入検知システム(IDS)はパブリッシュ/サブスクライブ方式では異常を検知しない。
本稿では,Deep Learningのシミュレーションと応用に関する実験的検討を行った。
論文 参考訳(メタデータ) (2021-06-12T12:53:38Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A cognitive based Intrusion detection system [0.0]
侵入検知は、コンピュータネットワークのセキュリティを提供する重要なメカニズムの1つである。
本稿では,Deep Neural Network Ans Supportctor Machine Classifierに基づく新しい手法を提案する。
提案手法は, 侵入検知に類似した手法により, より精度良く攻撃を予測できる。
論文 参考訳(メタデータ) (2020-05-19T13:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。