論文の概要: Flareon: Stealthy any2any Backdoor Injection via Poisoned Augmentation
- arxiv url: http://arxiv.org/abs/2212.09979v1
- Date: Tue, 20 Dec 2022 03:43:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:58:41.226622
- Title: Flareon: Stealthy any2any Backdoor Injection via Poisoned Augmentation
- Title(参考訳): Flareon:助成金によるバックドアインジェクション
- Authors: Tianrui Qin, Xianghuan He, Xitong Gao, Yiren Zhao, Kejiang Ye,
Cheng-Zhong Xu
- Abstract要約: Flareonはステルスで一見無害なコード修正で、モーションベースのトリガーでデータ拡張パイプラインをターゲットにしている。
Flareonの下で訓練されたモデルは、強力な目標条件(あるいは"any2any")のバックドアを学ぶ。
- 参考スコア(独自算出の注目度): 22.86322333884724
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Open software supply chain attacks, once successful, can exact heavy costs in
mission-critical applications. As open-source ecosystems for deep learning
flourish and become increasingly universal, they present attackers previously
unexplored avenues to code-inject malicious backdoors in deep neural network
models. This paper proposes Flareon, a small, stealthy, seemingly harmless code
modification that specifically targets the data augmentation pipeline with
motion-based triggers. Flareon neither alters ground-truth labels, nor modifies
the training loss objective, nor does it assume prior knowledge of the victim
model architecture, training data, and training hyperparameters. Yet, it has a
surprisingly large ramification on training -- models trained under Flareon
learn powerful target-conditional (or "any2any") backdoors. The resulting
models can exhibit high attack success rates for any target choices and better
clean accuracies than backdoor attacks that not only seize greater control, but
also assume more restrictive attack capabilities. We also demonstrate the
effectiveness of Flareon against recent defenses. Flareon is fully open-source
and available online to the deep learning community:
https://github.com/lafeat/flareon.
- Abstract(参考訳): オープンソフトウェアサプライチェーン攻撃は、一旦成功すれば、ミッションクリティカルなアプリケーションにおいて、非常にコストがかかる可能性がある。
ディープラーニングのオープンソースエコシステムが繁栄し、ますます普遍化していく中、ディープニューラルネットワークモデルに悪意のあるバックドアをコードインジェクトする、これまで未調査の道筋を攻撃者に提示している。
本稿では,動きベースのトリガによるデータ拡張パイプラインを対象とする,小さくてステルス的で一見無害なコード修正であるflareonを提案する。
Flareonは、地平線ラベルを変更したり、トレーニング損失の目標を変更したり、被害者のモデルアーキテクチャ、トレーニングデータ、トレーニングハイパーパラメータの事前知識を前提としない。
しかし、Frareonの下で訓練されたモデルは強力な目標条件(あるいは"any2any")のバックドアを学習する。
結果として得られたモデルは、より多くの制御を握るだけでなく、より制限的な攻撃能力を持つバックドア攻撃よりも、任意のターゲット選択に対して高い攻撃成功率を示し、よりクリーンなアキュラシーを示すことができる。
また,近年の防御に対するフラレオンの有効性を実証した。
Flareonは完全にオープンソースで、ディープラーニングコミュニティにオンラインで入手できる。
関連論文リスト
- Exploiting the Vulnerability of Large Language Models via Defense-Aware Architectural Backdoor [0.24335447922683692]
基盤となるモデルアーキテクチャ内に隠蔽する新しいタイプのバックドアアタックを導入します。
モデルアーキテクチャレイヤのアドオンモジュールは、入力トリガトークンの存在を検出し、レイヤの重みを変更することができる。
我々は,5つの大言語データセットの2つのモデルアーキテクチャ設定を用いて,攻撃方法を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T14:54:16Z) - Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - Venomancer: Towards Imperceptible and Target-on-Demand Backdoor Attacks in Federated Learning [16.04315589280155]
本稿では,効果的なバックドア攻撃であるVenomancerを提案する。
この方法は、Norm Clipping、Wak DP、Krum、Multi-Krum、RLR、FedRAD、Deepsight、RFLBATといった最先端の防御に対して堅牢である。
論文 参考訳(メタデータ) (2024-07-03T14:22:51Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Universal Backdoor Attacks [35.62950737977423]
Webスクレイプデータセットは、データ中毒に対して脆弱である。
バックドアアタックは、モデルによって学習されたどのクラスよりも、特定のクラスをターゲットにすることが多い。
任意のソースクラスから任意のターゲットクラスへの誤分類を制御する普遍的なデータ中毒攻撃が存在することを示す。
論文 参考訳(メタデータ) (2023-11-30T19:37:47Z) - Adversarial Feature Map Pruning for Backdoor [4.550555443103878]
本稿では,バックドア攻撃を軽減するために,FMP (Adversarial Feature Map Pruning for Backdoor)を提案する。
FMPは、入力からバックドア情報を抽出するように訓練されたバックドア特徴マップのプルークを試みる。
我々の実験は、既存の防衛戦略と比較して、FMPは最も複雑で目に見えない攻撃トリガーに対しても、攻撃成功率(ASR)を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2023-07-21T13:17:22Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Blind Backdoors in Deep Learning Models [22.844973592524966]
本稿では,機械学習モデルにバックドアを注入する新しい手法について検討する。
従来の文献よりも厳格に強力なバックドアの新たなクラスを実証するために使用しています。
攻撃者はトレーニングデータを変更したり、コードの実行を観察したり、結果のモデルにアクセスしたりすることができません。
論文 参考訳(メタデータ) (2020-05-08T02:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。