論文の概要: Interpretable Anomaly Detection in Encrypted Traffic Using SHAP with Machine Learning Models
- arxiv url: http://arxiv.org/abs/2505.16261v1
- Date: Thu, 22 May 2025 05:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.06879
- Title: Interpretable Anomaly Detection in Encrypted Traffic Using SHAP with Machine Learning Models
- Title(参考訳): 機械学習モデルを用いたSHAPを用いた暗号化トラフィックの解釈可能な異常検出
- Authors: Kalindi Singh, Aayush Kashyap, Aswani Kumar Cherukuri,
- Abstract要約: 本研究の目的は,暗号化されたネットワークトラフィックにおける異常検出のための解釈可能な機械学習ベースのフレームワークを開発することである。
モデルはトレーニングされ、3つのベンチマークで暗号化されたトラフィックデータセットで評価される。
SHAPビジュアライゼーションは、異常予測に寄与する最も影響力のあるトラフィック特徴を明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of encrypted communication protocols such as HTTPS and TLS has enhanced data privacy but also rendered traditional anomaly detection techniques less effective, as they often rely on inspecting unencrypted payloads. This study aims to develop an interpretable machine learning-based framework for anomaly detection in encrypted network traffic. This study proposes a model-agnostic framework that integrates multiple machine learning classifiers, with SHapley Additive exPlanations SHAP to ensure post-hoc model interpretability. The models are trained and evaluated on three benchmark encrypted traffic datasets. Performance is assessed using standard classification metrics, and SHAP is used to explain model predictions by attributing importance to individual input features. SHAP visualizations successfully revealed the most influential traffic features contributing to anomaly predictions, enhancing the transparency and trustworthiness of the models. Unlike conventional approaches that treat machine learning as a black box, this work combines robust classification techniques with explainability through SHAP, offering a novel interpretable anomaly detection system tailored for encrypted traffic environments. While the framework is generalizable, real-time deployment and performance under adversarial conditions require further investigation. Future work may explore adaptive models and real-time interpretability in operational network environments. This interpretable anomaly detection framework can be integrated into modern security operations for encrypted environments, allowing analysts not only to detect anomalies with high precision but also to understand why a model made a particular decision a crucial capability in compliance-driven and mission-critical settings.
- Abstract(参考訳): HTTPSやTLSといった暗号化通信プロトコルが広く採用されていることにより、データのプライバシが向上する一方で、暗号化されていないペイロードの検査にしばしば依存するため、従来の異常検出テクニックの効率が低下した。
本研究の目的は,暗号化されたネットワークトラフィックにおける異常検出のための解釈可能な機械学習ベースのフレームワークを開発することである。
本研究では,複数の機械学習分類器を統合したモデルに依存しないフレームワークを提案する。
モデルはトレーニングされ、3つのベンチマークで暗号化されたトラフィックデータセットで評価される。
性能は標準分類基準を用いて評価され、SHAPは個々の入力特徴に重きを置くことによってモデル予測を説明するために使用される。
SHAP視覚化は、異常予測に寄与する最も影響力のあるトラフィックの特徴を明らかにし、モデルの透明性と信頼性を高めた。
機械学習をブラックボックスとして扱う従来のアプローチとは異なり、この研究は、堅牢な分類手法とSHAPによる説明可能性を組み合わせたもので、暗号化されたトラフィック環境に適した、新しい解釈可能な異常検出システムを提供する。
フレームワークは一般化可能であるが、敵条件下でのリアルタイムデプロイメントとパフォーマンスにはさらなる調査が必要である。
今後の研究は、運用ネットワーク環境における適応モデルとリアルタイム解釈可能性について検討する。
この解釈可能な異常検出フレームワークは、暗号化された環境の現代的なセキュリティ操作に統合することができ、アナリストは高精度で異常を検出するだけでなく、モデルがコンプライアンス駆動およびミッションクリティカルな設定において重要な機能である理由を理解することができる。
関連論文リスト
- Self-Supervised Transformer-based Contrastive Learning for Intrusion Detection Systems [1.1265248232450553]
本稿では,生パケット列上の一般化可能な侵入検出のための自己教師付きコントラスト学習手法を提案する。
本フレームワークは,既存のNetFlow自己管理手法と比較して,優れた性能を示す。
我々のモデルは,ラベル付き限られたデータを用いた教師付き侵入検知のための強力なベースラインを提供する。
論文 参考訳(メタデータ) (2025-05-12T13:42:00Z) - Research on Cloud Platform Network Traffic Monitoring and Anomaly Detection System based on Large Language Models [5.524069089627854]
本稿では,大規模言語モデル(LLM)に基づくネットワークトラフィック監視と異常検出システムを提案する。
事前訓練された大言語モデルは、予測可能なネットワークトラフィックを分析し予測し、異常検出層は時間性とコンテキストを考慮する。
その結果,設計したモデルは,検出精度と計算効率において従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-22T07:42:07Z) - Counterfactual Explanation for Auto-Encoder Based Time-Series Anomaly Detection [0.3199881502576702]
オートエンコーダは意思決定プロセスに固有の不透明さを示し、大規模な実践を妨げている。
本研究では,機能セレクタを用いて特徴を抽出し,モデル出力にコンテキストを与える。
実験結果から,提案手法がモデル決定過程に有意義かつ有意義な洞察を与える可能性が示唆された。
論文 参考訳(メタデータ) (2025-01-03T19:30:11Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - DECIDER: Leveraging Foundation Model Priors for Improved Model Failure Detection and Explanation [18.77296551727931]
本稿では,大規模言語モデル (LLM) と視覚言語モデル (VLM) の先行情報を利用した画像モデルの故障検出手法であるDECIDERを提案する。
DECIDERは一貫して最先端の故障検出性能を達成し、マシューズ相関係数全体のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-01T07:08:11Z) - IoTGeM: Generalizable Models for Behaviour-Based IoT Attack Detection [3.3772986620114387]
一般化性を重視したIoTネットワーク攻撃をモデル化するアプローチを提案する。
まず,機能抽出のための転がり窓のアプローチを改良し,オーバーフィッティングを低減した多段階機能選択プロセスを提案する。
次に、独立したトレインとテストデータセットを使用してモデルを構築し、テストする。
第3に、機械学習モデル、評価指標、データセットの多様なポートフォリオを使用して、方法論を厳格に評価する。
論文 参考訳(メタデータ) (2023-10-17T21:46:43Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Leveraging a Probabilistic PCA Model to Understand the Multivariate
Statistical Network Monitoring Framework for Network Security Anomaly
Detection [64.1680666036655]
確率的生成モデルの観点からPCAに基づく異常検出手法を再検討する。
2つの異なるデータセットを用いて数学的モデルを評価した。
論文 参考訳(メタデータ) (2023-02-02T13:41:18Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。