論文の概要: Tarallo: Evading Behavioral Malware Detectors in the Problem Space
- arxiv url: http://arxiv.org/abs/2506.02660v1
- Date: Tue, 03 Jun 2025 09:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.789173
- Title: Tarallo: Evading Behavioral Malware Detectors in the Problem Space
- Title(参考訳): Tarallo: 問題空間における行動マルウェア検出を悪用する
- Authors: Gabriele Digregorio, Salvatore Maccarrone, Mario D'Onghia, Luigi Gallo, Michele Carminati, Mario Polino, Stefano Zanero,
- Abstract要約: 攻撃者が、シーケンシャルデータに対して、より効率的で効率的な特徴空間アルゴリズムを活用することで、成功の可能性を高める方法を示す。
我々は,エンド・ツー・エンドの敵対的フレームワークであるTaralloで,新しいアルゴリズムと攻撃戦略を実装した。
- 参考スコア(独自算出の注目度): 4.654790185936138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning algorithms can effectively classify malware through dynamic behavior but are susceptible to adversarial attacks. Existing attacks, however, often fail to find an effective solution in both the feature and problem spaces. This issue arises from not addressing the intrinsic nondeterministic nature of malware, namely executing the same sample multiple times may yield significantly different behaviors. Hence, the perturbations computed for a specific behavior may be ineffective for others observed in subsequent executions. In this paper, we show how an attacker can augment their chance of success by leveraging a new and more efficient feature space algorithm for sequential data, which we have named PS-FGSM, and by adopting two problem space strategies specially tailored to address nondeterminism in the problem space. We implement our novel algorithm and attack strategies in Tarallo, an end-to-end adversarial framework that significantly outperforms previous works in both white and black-box scenarios. Our preliminary analysis in a sandboxed environment and against two RNN-based malware detectors, shows that Tarallo achieves a success rate up to 99% on both feature and problem space attacks while significantly minimizing the number of modifications required for misclassification.
- Abstract(参考訳): 機械学習アルゴリズムは、動的行動によってマルウェアを効果的に分類できるが、敵の攻撃を受けやすい。
しかし、既存の攻撃は、しばしば機能と問題空間の両方で効果的な解決策を見つけられない。
この問題は、マルウェアの本質的な非決定論的性質に対処しないことから生じる。
したがって、特定の行動のために計算された摂動は、その後の実行で観察される他の行動に対して効果がない可能性がある。
本稿では,PS-FGSMと命名したシーケンシャルデータに対して,より効率的な特徴空間アルゴリズムを導入し,問題空間における非決定性に対処するための2つの問題空間戦略を採用することにより,攻撃者が成功する可能性を高める方法を示す。
このアルゴリズムは,白黒のシナリオにおいて,従来よりもはるかに優れていた,エンド・ツー・エンドの対角的フレームワークであるTaralloで実装した。
サンドボックス環境と2つのRNNベースのマルウェア検出装置による予備分析の結果,Taralloは特徴空間攻撃と問題空間攻撃の両方で最大99%の成功率を達成でき,誤分類に必要な修正数を著しく最小化できることがわかった。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Probabilistic Categorical Adversarial Attack & Adversarial Training [45.458028977108256]
敵対的な例の存在は、人々が安全クリティカルなタスクにディープニューラルネットワーク(DNN)を適用することに大きな懸念をもたらします。
分類データを用いて敵の例を生成する方法は重要な問題であるが、広範囲にわたる探索が欠如している。
本稿では,離散最適化問題を連続的な問題に変換する確率的カテゴリー逆攻撃(PCAA)を提案する。
論文 参考訳(メタデータ) (2022-10-17T19:04:16Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Level Up with ML Vulnerability Identification: Leveraging Domain Constraints in Feature Space for Robust Android Malware Detection [7.43688977703696]
機能領域におけるAndroidドメイン制約の解釈を新たに導入し,その後にそれらを学ぶ新しいテクニックを紹介した。
種々の回避攻撃に対する経験的評価は、学習領域の制約を用いて、平均89.6%のAEを効果的に検出できることを示唆している。
論文 参考訳(メタデータ) (2022-05-30T14:21:16Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Random Projections for Adversarial Attack Detection [8.684378639046644]
敵の攻撃検出は 2つの観点から 根本的な問題です
本稿では,無作為射影の特殊特性を利用して,清潔で敵対的な例の挙動を特徴付ける手法を提案する。
性能評価は私達の技術が($>0.92$ AUC)技術(SOTA)攻撃戦略の競争状態を上回っていることを示します。
論文 参考訳(メタデータ) (2020-12-11T15:02:28Z) - Discovering Imperfectly Observable Adversarial Actions using Anomaly
Detection [0.24244694855867271]
異常検出は異常で不審な振る舞いを発見する方法である。
このようなゲームを解くためのアルゴリズムを2つ提案する。
実験により、両方のアルゴリズムが低特徴空間次元の場合に適用可能であることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:31:53Z) - Intriguing Properties of Adversarial ML Attacks in the Problem Space [Extended Version] [18.3238686304247]
問題空間における敵ML回避攻撃の一般化を提案する。
セマンティクスやアーティファクトの観点から過去の制限を克服する,Androidマルウェアに対する新たな問題空間攻撃を提案する。
我々の結果は、"サービスとしてのアドバイサル・マルウェア"が現実的な脅威であることを示している。
論文 参考訳(メタデータ) (2019-11-05T23:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。