論文の概要: Flareon: Stealthy any2any Backdoor Injection via Poisoned Augmentation
- arxiv url: http://arxiv.org/abs/2212.09979v1
- Date: Tue, 20 Dec 2022 03:43:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:58:41.226622
- Title: Flareon: Stealthy any2any Backdoor Injection via Poisoned Augmentation
- Title(参考訳): Flareon:助成金によるバックドアインジェクション
- Authors: Tianrui Qin, Xianghuan He, Xitong Gao, Yiren Zhao, Kejiang Ye,
Cheng-Zhong Xu
- Abstract要約: Flareonはステルスで一見無害なコード修正で、モーションベースのトリガーでデータ拡張パイプラインをターゲットにしている。
Flareonの下で訓練されたモデルは、強力な目標条件(あるいは"any2any")のバックドアを学ぶ。
- 参考スコア(独自算出の注目度): 22.86322333884724
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Open software supply chain attacks, once successful, can exact heavy costs in
mission-critical applications. As open-source ecosystems for deep learning
flourish and become increasingly universal, they present attackers previously
unexplored avenues to code-inject malicious backdoors in deep neural network
models. This paper proposes Flareon, a small, stealthy, seemingly harmless code
modification that specifically targets the data augmentation pipeline with
motion-based triggers. Flareon neither alters ground-truth labels, nor modifies
the training loss objective, nor does it assume prior knowledge of the victim
model architecture, training data, and training hyperparameters. Yet, it has a
surprisingly large ramification on training -- models trained under Flareon
learn powerful target-conditional (or "any2any") backdoors. The resulting
models can exhibit high attack success rates for any target choices and better
clean accuracies than backdoor attacks that not only seize greater control, but
also assume more restrictive attack capabilities. We also demonstrate the
effectiveness of Flareon against recent defenses. Flareon is fully open-source
and available online to the deep learning community:
https://github.com/lafeat/flareon.
- Abstract(参考訳): オープンソフトウェアサプライチェーン攻撃は、一旦成功すれば、ミッションクリティカルなアプリケーションにおいて、非常にコストがかかる可能性がある。
ディープラーニングのオープンソースエコシステムが繁栄し、ますます普遍化していく中、ディープニューラルネットワークモデルに悪意のあるバックドアをコードインジェクトする、これまで未調査の道筋を攻撃者に提示している。
本稿では,動きベースのトリガによるデータ拡張パイプラインを対象とする,小さくてステルス的で一見無害なコード修正であるflareonを提案する。
Flareonは、地平線ラベルを変更したり、トレーニング損失の目標を変更したり、被害者のモデルアーキテクチャ、トレーニングデータ、トレーニングハイパーパラメータの事前知識を前提としない。
しかし、Frareonの下で訓練されたモデルは強力な目標条件(あるいは"any2any")のバックドアを学習する。
結果として得られたモデルは、より多くの制御を握るだけでなく、より制限的な攻撃能力を持つバックドア攻撃よりも、任意のターゲット選択に対して高い攻撃成功率を示し、よりクリーンなアキュラシーを示すことができる。
また,近年の防御に対するフラレオンの有効性を実証した。
Flareonは完全にオープンソースで、ディープラーニングコミュニティにオンラインで入手できる。
関連論文リスト
- Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Universal Backdoor Attacks [35.62950737977423]
Webスクレイプデータセットは、データ中毒に対して脆弱である。
バックドアアタックは、モデルによって学習されたどのクラスよりも、特定のクラスをターゲットにすることが多い。
任意のソースクラスから任意のターゲットクラスへの誤分類を制御する普遍的なデータ中毒攻撃が存在することを示す。
論文 参考訳(メタデータ) (2023-11-30T19:37:47Z) - Adversarial Feature Map Pruning for Backdoor [4.550555443103878]
本稿では,バックドア攻撃を軽減するために,FMP (Adversarial Feature Map Pruning for Backdoor)を提案する。
FMPは、入力からバックドア情報を抽出するように訓練されたバックドア特徴マップのプルークを試みる。
我々の実験は、既存の防衛戦略と比較して、FMPは最も複雑で目に見えない攻撃トリガーに対しても、攻撃成功率(ASR)を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2023-07-21T13:17:22Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z) - Blind Backdoors in Deep Learning Models [22.844973592524966]
本稿では,機械学習モデルにバックドアを注入する新しい手法について検討する。
従来の文献よりも厳格に強力なバックドアの新たなクラスを実証するために使用しています。
攻撃者はトレーニングデータを変更したり、コードの実行を観察したり、結果のモデルにアクセスしたりすることができません。
論文 参考訳(メタデータ) (2020-05-08T02:15:53Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。