論文の概要: FRIB: Low-poisoning Rate Invisible Backdoor Attack based on Feature
Repair
- arxiv url: http://arxiv.org/abs/2207.12863v1
- Date: Tue, 26 Jul 2022 12:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:54:06.746261
- Title: FRIB: Low-poisoning Rate Invisible Backdoor Attack based on Feature
Repair
- Title(参考訳): FRIB:機能修復に基づく低犯率非可視バックドアアタック
- Authors: Hui Xia, Xiugui Yang, Xiangyun Qian, Rui Zhang
- Abstract要約: 本稿では, 初めて機能修復のアイデアを提案し, 有毒データ生成時に失われた有毒な特徴を修復するための盲点透かし手法を提案する。
本研究では,一貫したラベリングの確保を前提として,FRIBという機能修復に基づく低ポゾン率のバックドアアタックを提案する。
- 参考スコア(独自算出の注目度): 8.026653670227445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the generation of invisible backdoor attack poisoned data, the feature
space transformation operation tends to cause the loss of some poisoned
features and weakens the mapping relationship between source images with
triggers and target labels, resulting in the need for a higher poisoning rate
to achieve the corresponding backdoor attack success rate. To solve the above
problems, we propose the idea of feature repair for the first time and
introduce the blind watermark technique to repair the poisoned features lost
during the generation of poisoned data. Under the premise of ensuring
consistent labeling, we propose a low-poisoning rate invisible backdoor attack
based on feature repair, named FRIB. Benefiting from the above design concept,
the new method enhances the mapping relationship between the source images with
triggers and the target labels, and increases the degree of misleading DNNs,
thus achieving a high backdoor attack success rate with a very low poisoning
rate. Ultimately, the detailed experimental results show that the goal of
achieving a high success rate of backdoor attacks with a very low poisoning
rate is achieved on all MNIST, CIFAR10, GTSRB, and ImageNet datasets.
- Abstract(参考訳): 見えないバックドア攻撃被毒データの生成中、特徴空間変換操作は、いくつかの有毒な特徴の喪失を引き起こし、トリガーとターゲットラベルとのソースイメージ間のマッピング関係を弱める傾向があるため、対応するバックドア攻撃成功率を達成するために高い中毒率が必要となる。
以上の問題を解決するために, 初めて機能修復のアイデアを提案し, 有毒データ生成時に失われた有毒な特徴を修復するための盲点透かし手法を提案する。
本研究では,一貫したラベリングの確保を前提として,FRIBという機能修復に基づく低ポゾン率のバックドア攻撃を提案する。
以上の設計概念から,本手法は,ソース画像とトリガとターゲットラベルとのマッピング関係を向上し,誤解を招くDNNの度合いを高め,毒性率の極めて低いバックドア攻撃の成功率を達成する。
最終的に、詳細な実験結果から、MNIST、CIFAR10、GTSRB、ImageNetの全データセットにおいて、非常に低い毒性率でバックドア攻撃の成功率を達成するという目標が達成されている。
関連論文リスト
- Defending Against Weight-Poisoning Backdoor Attacks for
Parameter-Efficient Fine-Tuning [60.38625902569202]
パラメータ効率のよい微調整(PEFT)は,重み付けによるバックドア攻撃の影響を受けやすいことを示す。
PEFTを利用したPSIM(Poisoned Sample Identification Module)を開発した。
テキスト分類タスク,5つの微調整戦略,および3つの重み付けバックドア攻撃手法について実験を行った。
論文 参考訳(メタデータ) (2024-02-19T14:22:54Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - CorruptEncoder: Data Poisoning based Backdoor Attacks to Contrastive
Learning [71.25518220297639]
コントラスト学習は、ラベル付き事前学習データセットを使用して汎用エンコーダを訓練する。
DPBAはトレーニング前のデータセットに有毒な入力を注入してエンコーダをバックドアにする。
CorruptEncoderは、有毒な入力を生成するための新しい攻撃戦略を導入し、攻撃効率を最大化するために理論誘導方式を使用している。
我々の防衛はDPBAの有効性を低下させるが,エンコーダの実用性を犠牲にし,新たな防衛の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-15T15:48:28Z) - TransCAB: Transferable Clean-Annotation Backdoor to Object Detection
with Natural Trigger in Real-World [16.14185033829483]
クリーンなアノテート画像を製作し、バックドアを密かにトレーニング対象検出器に埋め込むMACABを提案する。
我々は,誤分類とクローキングの両方のバックドア効果が野生において頑健に達成されていることを観察した。
MACABは現実世界の様々な場面で90%以上の攻撃成功率を示す。
論文 参考訳(メタデータ) (2022-09-06T09:56:33Z) - Enhancing Clean Label Backdoor Attack with Two-phase Specific Triggers [6.772389744240447]
クリーンラベルバックドア攻撃を改善するための2相・画像特異的トリガ生成法を提案する。
提案手法は, 高い毒性率, 多くの評価基準下での盗聴性を有し, バックドア防御法に耐性を有する, 優れた攻撃成功率(98.98%)を達成できる。
論文 参考訳(メタデータ) (2022-06-10T05:34:06Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Strong Data Augmentation Sanitizes Poisoning and Backdoor Attacks
Without an Accuracy Tradeoff [57.35978884015093]
CutMixのような強力なデータ拡張は、パフォーマンスを損なうことなく、中毒やバックドア攻撃の脅威を著しく減少させる可能性がある。
バックドアのコンテキストでは、CutMixは攻撃を大幅に軽減し、同時にバリデーションの精度を9%向上させる。
論文 参考訳(メタデータ) (2020-11-18T20:18:50Z) - Systematic Evaluation of Backdoor Data Poisoning Attacks on Image
Classifiers [6.352532169433872]
コンピュータビジョン研究において、機械学習(ML)システムの潜在的な安全性リスクとして、バックドアデータ中毒攻撃が実証されている。
我々の研究は、ML画像分類器のための事前のバックドアデータポゾン研究に基づいている。
有毒なモデルでは、パフォーマンス検査だけでは検出が難しいことが分かりました。
論文 参考訳(メタデータ) (2020-04-24T02:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。