論文の概要: A Proxy-Free Strategy for Practically Improving the Poisoning Efficiency
in Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2306.08313v1
- Date: Wed, 14 Jun 2023 07:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:55:42.920254
- Title: A Proxy-Free Strategy for Practically Improving the Poisoning Efficiency
in Backdoor Attacks
- Title(参考訳): バックドア攻撃における投薬効率向上のためのプロキシフリー戦略
- Authors: Ziqiang Li, Hong Sun, Pengfei Xia, Beihao Xia, Xue Rui, Wei Zhang, Bin
Li
- Abstract要約: 本稿では, 個別の類似性とセットの多様性に基づいて, 効率的な毒物サンプルを選択する新しいプロキシフリー戦略 (PFS) を提案する。
実験の結果, PFSは従来のプロキシベース選択手法よりも高速で, バックドア攻撃強度が高いことがわかった。
- 参考スコア(独自算出の注目度): 14.051018917669843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Poisoning efficiency is a crucial factor in poisoning-based backdoor attacks.
Attackers prefer to use as few poisoned samples as possible to achieve the same
level of attack strength, in order to remain undetected. Efficient triggers
have significantly improved poisoning efficiency, but there is still room for
improvement. Recently, selecting efficient samples has shown promise, but it
requires a proxy backdoor injection task to find an efficient poisoned sample
set, which can lead to performance degradation if the proxy attack settings are
different from the actual settings used by the victims. In this paper, we
propose a novel Proxy-Free Strategy (PFS) that selects efficient poisoned
samples based on individual similarity and set diversity, effectively
addressing this issue. We evaluate the proposed strategy on several datasets,
triggers, poisoning ratios, architectures, and training hyperparameters. Our
experimental results demonstrate that PFS achieves higher backdoor attack
strength while x500 faster than previous proxy-based selection approaches.
- Abstract(参考訳): 毒殺効率は、毒殺ベースのバックドア攻撃において重要な要素である。
攻撃者は、検出されていない状態を保つために、できるだけ少ない毒性サンプルを同じレベルの攻撃強度を達成するために使用する。
効率的なトリガーは中毒の効率を大幅に改善するが、改善の余地はまだある。
近年,効率のよいサンプルを選択することは有望であるが,有効な有害なサンプルセットを見つけるためにはプロキシバックドアインジェクションタスクが必要であるため,プロキシアタック設定が被害者の実際の設定と異なる場合,パフォーマンスが低下する可能性がある。
本稿では,個別の類似性に基づいて効率的な有毒試料を選定し,この課題を効果的に解決する,新規なプロキシフリー戦略(pfs)を提案する。
提案手法は,いくつかのデータセット,トリガ,中毒率,アーキテクチャ,ハイパーパラメータのトレーニングで評価する。
実験の結果, PFSは従来のプロキシベース選択手法よりも高速で, バックドア攻撃強度が高いことがわかった。
関連論文リスト
- Defending Against Weight-Poisoning Backdoor Attacks for
Parameter-Efficient Fine-Tuning [60.38625902569202]
パラメータ効率のよい微調整(PEFT)は,重み付けによるバックドア攻撃の影響を受けやすいことを示す。
PEFTを利用したPSIM(Poisoned Sample Identification Module)を開発した。
テキスト分類タスク,5つの微調整戦略,および3つの重み付けバックドア攻撃手法について実験を行った。
論文 参考訳(メタデータ) (2024-02-19T14:22:54Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Efficient Trigger Word Insertion [9.257916713112945]
我々の主な目的は、テキストバックドア攻撃において、良好なアタック成功率(ASR)を達成しつつ、有毒なサンプルの数を減らすことである。
トリガー語最適化と有毒なサンプル選択の観点から,効率的なトリガー語挿入戦略を提案する。
提案手法は, 汚れラベル設定で有毒な試料が10個あれば90%以上を達成でき, クリーンラベル設定ではトレーニングデータの1.5%しか必要としない。
論文 参考訳(メタデータ) (2023-11-23T12:15:56Z) - Explore the Effect of Data Selection on Poison Efficiency in Backdoor
Attacks [10.817607451423765]
本研究では,サンプル選択の観点から,バックドアアタックの毒殺効率の向上に焦点をあてる。
各種毒物試料の寄与を示すために, 試料の忘れイベントを採用し, 損失面の曲率を用いて, この現象の有効性を解析した。
論文 参考訳(メタデータ) (2023-10-15T05:55:23Z) - Boosting Backdoor Attack with A Learnable Poisoning Sample Selection
Strategy [32.5734144242128]
データポゾンベースのバックドア攻撃は、ターゲットモデルのトレーニングプロセスを制御することなく、トレーニングデータセットを操作することによって、モデルにバックドアを挿入することを目的としている。
そこで本研究では,min-max最適化を用いて,マスクとモデルパラメータを併用して学習可能な毒素サンプル選択手法を提案する。
ベンチマークデータセットの実験では、バックドア攻撃性能を高めるためのアプローチの有効性と効率が示されている。
論文 参考訳(メタデータ) (2023-07-14T13:12:21Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Data-Efficient Backdoor Attacks [14.230326737098554]
ディープニューラルネットワークはバックドア攻撃に弱い。
本稿では,その選択による毒性データ効率の向上について定式化する。
同じ攻撃成功率は、有毒サンプル量のわずか47%から75%で達成できる。
論文 参考訳(メタデータ) (2022-04-22T09:52:22Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。