論文の概要: Jigsaw Puzzle: Selective Backdoor Attack to Subvert Malware Classifiers
- arxiv url: http://arxiv.org/abs/2202.05470v1
- Date: Fri, 11 Feb 2022 06:15:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 16:05:38.617333
- Title: Jigsaw Puzzle: Selective Backdoor Attack to Subvert Malware Classifiers
- Title(参考訳): Jigsaw Puzzle: マルウェアの分類を覆すバックドア攻撃
- Authors: Limin Yang, Zhi Chen, Jacopo Cortellazzi, Feargus Pendlebury, Kevin
Tu, Fabio Pierazzi, Lorenzo Cavallaro, Gang Wang
- Abstract要約: マルウェア分類器のバックドア攻撃は,近年の防衛策により検出可能であることを示す。
我々は、マルウェア作者が他の作者のマルウェアを保護するインセンティブをほとんど、あるいは全く持っていないという重要な観察に基づいて、新しい攻撃であるJigsaw Puzzleを提案する。
JPは、マルウェア作者のサンプルの潜伏パターンを補完するトリガーを学び、トリガーと潜伏パターンがサンプルにまとめられたときにのみバックドアを起動する。
- 参考スコア(独自算出の注目度): 25.129280695319473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malware classifiers are subject to training-time exploitation due to the need
to regularly retrain using samples collected from the wild. Recent work has
demonstrated the feasibility of backdoor attacks against malware classifiers,
and yet the stealthiness of such attacks is not well understood. In this paper,
we investigate this phenomenon under the clean-label setting (i.e., attackers
do not have complete control over the training or labeling process).
Empirically, we show that existing backdoor attacks in malware classifiers are
still detectable by recent defenses such as MNTD. To improve stealthiness, we
propose a new attack, Jigsaw Puzzle (JP), based on the key observation that
malware authors have little to no incentive to protect any other authors'
malware but their own. As such, Jigsaw Puzzle learns a trigger to complement
the latent patterns of the malware author's samples, and activates the backdoor
only when the trigger and the latent pattern are pieced together in a sample.
We further focus on realizable triggers in the problem space (e.g., software
code) using bytecode gadgets broadly harvested from benign software. Our
evaluation confirms that Jigsaw Puzzle is effective as a backdoor, remains
stealthy against state-of-the-art defenses, and is a threat in realistic
settings that depart from reasoning about feature-space only attacks. We
conclude by exploring promising approaches to improve backdoor defenses.
- Abstract(参考訳): マルウェア分類器は、野生から採取されたサンプルを使って定期的に再訓練する必要があるため、トレーニングタイムのエクスプロイトを受ける。
最近の研究は、マルウェア分類器に対するバックドア攻撃の可能性を示しているが、そのような攻撃のステルス性はよく理解されていない。
本稿では,この現象をクリーンラベル設定(すなわち,アタッカーがトレーニングやラベリングのプロセスを完全に制御していない)下で検討する。
実験により,mntdなどの最近の防御により,マルウェア分類器における既存のバックドア攻撃が検出可能であることを示した。
ステルス性を改善するために,マルウェア作者が他の作者のマルウェアを保護するインセンティブをほとんど、あるいは全く持たないというキー観察に基づいて,新たな攻撃であるJigsaw Puzzle (JP)を提案する。
このように、jigsawパズルは、マルウェアの著者のサンプルの潜在パターンを補完するトリガーを学習し、トリガーと潜在パターンがサンプルに分割された場合にのみバックドアを起動する。
我々はさらに、問題領域(例えばソフトウェアコード)における実現可能なトリガに焦点を合わせ、良質なソフトウェアから広く収穫されたバイトコードガジェットを使用します。
我々の評価では、Jigsaw Puzzleはバックドアとして有効であり、最先端の防御に対してステルス性を維持しており、機能空間のみの攻撃に関する推論から外れた現実的な設定における脅威であることを確認した。
最後に、バックドア防御を改善するための有望なアプローチを探求する。
関連論文リスト
- BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - Contributor-Aware Defenses Against Adversarial Backdoor Attacks [2.830541450812474]
敵のバックドア攻撃は 特定の事例を 狙った誤分類を行う能力を示した
本稿では,多元的,潜在的に敵対的なデータソースの存在下で学習するための,コントリビュータを意識したユニバーサル・ディフェンス・フレームワークを提案する。
本研究は,複数の同時敵からの敵のバックドア攻撃に対するフレームワークの堅牢性を示す実証的研究である。
論文 参考訳(メタデータ) (2022-05-28T20:25:34Z) - Backdoor Attack against NLP models with Robustness-Aware Perturbation
defense [0.0]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
本研究は, 有害試料とクリーン試料との堅牢性ギャップを, 敵の訓練工程を用いて制御することにより, この防御を破るものである。
論文 参考訳(メタデータ) (2022-04-08T10:08:07Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Backdoor Smoothing: Demystifying Backdoor Attacks on Deep Neural
Networks [25.23881974235643]
バックドア攻撃は、引き起こされたサンプルの周りでよりスムーズな決定関数を誘導することを示します。
実験の結果,入力サンプルにトリガーを付加するとスムーズさが増加し,この現象はより成功した攻撃に対してより顕著であることがわかった。
論文 参考訳(メタデータ) (2020-06-11T18:28:54Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。