論文の概要: Evaluating the Robustness of a Production Malware Detection System to Transferable Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2510.01676v1
- Date: Thu, 02 Oct 2025 05:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.002638
- Title: Evaluating the Robustness of a Production Malware Detection System to Transferable Adversarial Attacks
- Title(参考訳): トランスファー可能な敵攻撃に対する生産マルウェア検出システムのロバスト性評価
- Authors: Milad Nasr, Yanick Fratantonio, Luca Invernizzi, Ange Albertini, Loua Farah, Alex Petit-Bianco, Andreas Terzis, Kurt Thomas, Elie Bursztein, Nicholas Carlini,
- Abstract要約: 本稿では,MLコンポーネントを対象とする敵攻撃が,プロダクショングレードのマルウェア検出システム全体を分解あるいはバイパスする方法について検討する。
マルウェアサンプルの13バイトだけを変えることで、90%のケースでMagikaを回避できます。
防御された生産モデルでは、攻撃の成功率を20%に抑えるために、高度にリソースを確保できる敵は50バイトしか必要としない。
- 参考スコア(独自算出の注目度): 43.26879314353337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep learning models become widely deployed as components within larger production systems, their individual shortcomings can create system-level vulnerabilities with real-world impact. This paper studies how adversarial attacks targeting an ML component can degrade or bypass an entire production-grade malware detection system, performing a case study analysis of Gmail's pipeline where file-type identification relies on a ML model. The malware detection pipeline in use by Gmail contains a machine learning model that routes each potential malware sample to a specialized malware classifier to improve accuracy and performance. This model, called Magika, has been open sourced. By designing adversarial examples that fool Magika, we can cause the production malware service to incorrectly route malware to an unsuitable malware detector thereby increasing our chance of evading detection. Specifically, by changing just 13 bytes of a malware sample, we can successfully evade Magika in 90% of cases and thereby allow us to send malware files over Gmail. We then turn our attention to defenses, and develop an approach to mitigate the severity of these types of attacks. For our defended production model, a highly resourced adversary requires 50 bytes to achieve just a 20% attack success rate. We implement this defense, and, thanks to a collaboration with Google engineers, it has already been deployed in production for the Gmail classifier.
- Abstract(参考訳): ディープラーニングモデルが大規模プロダクションシステム内のコンポーネントとして広くデプロイされるようになると、個々の欠点によって、実際の影響を伴うシステムレベルの脆弱性が生まれる。
本稿では,ファイルタイプ識別がMLモデルに依存するGmailのパイプラインのケーススタディ分析を行い,MLコンポーネントをターゲットとする敵攻撃が,プロダクショングレードのマルウェア検出システム全体を分解あるいはバイパスする方法について検討する。
Gmailが使用しているマルウェア検出パイプラインには、各潜在的なマルウェアサンプルを特殊なマルウェア分類器にルーティングして、精度とパフォーマンスを向上させる機械学習モデルが含まれている。
Magikaと呼ばれるこのモデルはオープンソース化されている。
マギカを騙す敵の例を設計することで、プロダクションのマルウェアサービスが不適切なマルウェア検知器に不正にマルウェアをルーティングし、検出を回避できる可能性を高めることができる。
具体的には、マルウェアサンプルの13バイトだけを変えることで、90%のケースでMagikaを回避し、Gmail上でマルウェアファイルを送信することができます。
次に、我々は防衛に注意を向け、この種の攻撃の深刻さを軽減するためのアプローチを開発します。
防御された生産モデルでは、攻撃の成功率を20%に抑えるために、高度にリソースを確保できる敵は50バイトしか必要としない。
私たちはこの防御を実装しており、Googleのエンジニアとのコラボレーションのおかげで、すでにGmail分類器の本番環境に配備されています。
関連論文リスト
- Trust Under Siege: Label Spoofing Attacks against Machine Learning for Android Malware Detection [11.53708766953391]
これは、最小限で検出不能な悪意のあるパターンを埋め込むことによって、クラウドソースデータセットを汚染する新たな脅威である。
我々は、現実的なデータソースを汚染する手法であるAndroVenomを開発することで、このシナリオを実証する。
実験により、最先端の機能抽出器はそのようなインジェクションをフィルタリングできないだけでなく、さまざまなMLモデルがDenial of Serviceを経験していることが示されている。
論文 参考訳(メタデータ) (2025-03-14T20:05:56Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Single-Shot Black-Box Adversarial Attacks Against Malware Detectors: A
Causal Language Model Approach [5.2424255020469595]
Adversarial Malware example Generationは、回避可能なマルウェアの変種を生成することを目的としている。
ブラックボックス法はホワイトボックス法よりも注目されている。
本研究では,新しいDLに基づく因果言語モデルにより,単発回避が可能となることを示す。
論文 参考訳(メタデータ) (2021-12-03T05:29:50Z) - Evading Malware Classifiers via Monte Carlo Mutant Feature Discovery [23.294653273180472]
悪意のあるアクターが代理モデルを訓練して、インスタンスが誤分類される原因となるバイナリ変異を発見する方法を示す。
そして、変異したマルウェアが、抗ウイルスAPIの代わりとなる被害者モデルに送られ、検出を回避できるかどうかをテストする。
論文 参考訳(メタデータ) (2021-06-15T03:31:02Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Explanation-Guided Backdoor Poisoning Attacks Against Malware
Classifiers [12.78844634194129]
機械学習ベースのマルウェア分類のためのトレーニングパイプラインは、しばしばクラウドソースの脅威フィードに依存する。
本稿では、攻撃者がサンプルラベリングプロセスを制御できない「クリーンラベル」攻撃に挑戦することに焦点を当てる。
本稿では,効率的なバックドアトリガを作成するために,説明可能な機械学習の手法を用いて,関連する特徴や値の選択を誘導する手法を提案する。
論文 参考訳(メタデータ) (2020-03-02T17:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。