論文の概要: Adversarially Robust and Interpretable Magecart Malware Detection
- arxiv url: http://arxiv.org/abs/2511.04440v1
- Date: Thu, 06 Nov 2025 15:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.471002
- Title: Adversarially Robust and Interpretable Magecart Malware Detection
- Title(参考訳): 逆ロバスト・解釈可能なマクロファーム検出
- Authors: Pedro Pereira, José Gouveia, João Vitorino, Eva Maia, Isabel Praça,
- Abstract要約: Magecartのスキミング攻撃は、オンライン決済システムにおけるクライアント側のセキュリティとユーザ信頼に対する重大な脅威として浮上している。
本稿では,実世界のデータセットを用いた機械学習(ML)モデルの比較研究を通じて,Magecart攻撃の堅牢かつ説明可能な検出を実現するという課題に対処する。
- 参考スコア(独自算出の注目度): 1.3266402517619371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Magecart skimming attacks have emerged as a significant threat to client-side security and user trust in online payment systems. This paper addresses the challenge of achieving robust and explainable detection of Magecart attacks through a comparative study of various Machine Learning (ML) models with a real-world dataset. Tree-based, linear, and kernel-based models were applied, further enhanced through hyperparameter tuning and feature selection, to distinguish between benign and malicious scripts. Such models are supported by a Behavior Deterministic Finite Automaton (DFA) which captures structural behavior patterns in scripts, helping to analyze and classify client-side script execution logs. To ensure robustness against adversarial evasion attacks, the ML models were adversarially trained and evaluated using attacks from the Adversarial Robustness Toolbox and the Adaptative Perturbation Pattern Method. In addition, concise explanations of ML model decisions are provided, supporting transparency and user trust. Experimental validation demonstrated high detection performance and interpretable reasoning, demonstrating that traditional ML models can be effective in real-world web security contexts.
- Abstract(参考訳): Magecartのスキミング攻撃は、オンライン決済システムにおけるクライアント側のセキュリティとユーザ信頼に対する重大な脅威として浮上している。
本稿では,実世界のデータセットを用いた機械学習(ML)モデルの比較研究を通じて,Magecart攻撃の堅牢かつ説明可能な検出を実現するという課題に対処する。
ツリーベース、リニア、カーネルベースのモデルが適用され、高パラメータチューニングと機能選択によってさらに強化され、良質なスクリプトと悪意のあるスクリプトの区別が可能になった。
このようなモデルは、スクリプトの構造的振舞いパターンをキャプチャし、クライアント側のスクリプト実行ログを分析して分類する、振舞い決定性有限オートマトン(DFA)によってサポートされている。
対人回避攻撃に対する堅牢性を確保するため、MLモデルは、対人ロバストネスツールボックスと適応摂動パターン法による攻撃を用いて、敵に訓練され評価された。
さらに、透明性とユーザ信頼をサポートするため、MLモデル決定の簡潔な説明が提供される。
実験による検証では、高い検出性能と解釈可能な推論が示され、従来のMLモデルが現実世界のWebセキュリティの文脈で有効であることを実証した。
関連論文リスト
- AutoML in Cybersecurity: An Empirical Study [0.8703011045028926]
本稿では,11の公開サイバーセキュリティデータセットを対象とした8つのオープンソースAutoMLフレームワークを体系的に評価する。
結果は、ツールやデータセット間での大幅なパフォーマンスの変動を示しており、一貫して優れたソリューションは存在しない。
主な課題は、敵の脆弱性、モデルドリフト、不適切な機能エンジニアリングである。
論文 参考訳(メタデータ) (2025-09-28T03:52:46Z) - Graph Representation-based Model Poisoning on Federated Large Language Models [3.5233863453805143]
フェデレートされた大規模言語モデル(FedLLMs)は、データのプライバシを保持しながら、無線ネットワーク内で強力な生成機能を実現する。
本稿では,FedLLMのモデル中毒技術と既存の防御機構の最近の進歩について概説する。
さらに、グラフ表現に基づくモデル中毒(GRMP)は、良質なクライアント勾配間の高次相関を利用して、悪意ある更新を正当なものと区別できないものにする新興攻撃パラダイムである。
論文 参考訳(メタデータ) (2025-07-02T13:20:52Z) - RADEP: A Resilient Adaptive Defense Framework Against Model Extraction Attacks [6.6680585862156105]
モデル抽出攻撃防御(RADEP)のためのレジリエント・アダプティブ・ディフェンス・フレームワークについて紹介する。
RADEPは、抽出の試みに対するモデルレジリエンスを高めるために、プログレッシブ・逆行訓練を採用している。
オーナーシップ検証は、組み込みのウォーターマーキングとバックドアトリガーを通じて実施される。
論文 参考訳(メタデータ) (2025-05-25T23:28:05Z) - Interpretable Anomaly Detection in Encrypted Traffic Using SHAP with Machine Learning Models [0.0]
本研究の目的は,暗号化されたネットワークトラフィックにおける異常検出のための解釈可能な機械学習ベースのフレームワークを開発することである。
モデルはトレーニングされ、3つのベンチマークで暗号化されたトラフィックデータセットで評価される。
SHAPビジュアライゼーションは、異常予測に寄与する最も影響力のあるトラフィック特徴を明らかにした。
論文 参考訳(メタデータ) (2025-05-22T05:50:39Z) - APT-LLM: Embedding-Based Anomaly Detection of Cyber Advanced Persistent Threats Using Large Language Models [4.956245032674048]
APTは、ステルスと通常のシステム動作を模倣する能力のために、大きなサイバーセキュリティ上の課題を提起する。
本稿では,新しい埋め込み型異常検出フレームワークであるAPT-LLMを紹介する。
大規模な言語モデル(LLM)とオートエンコーダアーキテクチャを統合してAPTを検出する。
論文 参考訳(メタデータ) (2025-02-13T15:01:18Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。