論文の概要: FRIB: Low-poisoning Rate Invisible Backdoor Attack based on Feature
Repair
- arxiv url: http://arxiv.org/abs/2207.12863v1
- Date: Tue, 26 Jul 2022 12:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:54:06.746261
- Title: FRIB: Low-poisoning Rate Invisible Backdoor Attack based on Feature
Repair
- Title(参考訳): FRIB:機能修復に基づく低犯率非可視バックドアアタック
- Authors: Hui Xia, Xiugui Yang, Xiangyun Qian, Rui Zhang
- Abstract要約: 本稿では, 初めて機能修復のアイデアを提案し, 有毒データ生成時に失われた有毒な特徴を修復するための盲点透かし手法を提案する。
本研究では,一貫したラベリングの確保を前提として,FRIBという機能修復に基づく低ポゾン率のバックドアアタックを提案する。
- 参考スコア(独自算出の注目度): 8.026653670227445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the generation of invisible backdoor attack poisoned data, the feature
space transformation operation tends to cause the loss of some poisoned
features and weakens the mapping relationship between source images with
triggers and target labels, resulting in the need for a higher poisoning rate
to achieve the corresponding backdoor attack success rate. To solve the above
problems, we propose the idea of feature repair for the first time and
introduce the blind watermark technique to repair the poisoned features lost
during the generation of poisoned data. Under the premise of ensuring
consistent labeling, we propose a low-poisoning rate invisible backdoor attack
based on feature repair, named FRIB. Benefiting from the above design concept,
the new method enhances the mapping relationship between the source images with
triggers and the target labels, and increases the degree of misleading DNNs,
thus achieving a high backdoor attack success rate with a very low poisoning
rate. Ultimately, the detailed experimental results show that the goal of
achieving a high success rate of backdoor attacks with a very low poisoning
rate is achieved on all MNIST, CIFAR10, GTSRB, and ImageNet datasets.
- Abstract(参考訳): 見えないバックドア攻撃被毒データの生成中、特徴空間変換操作は、いくつかの有毒な特徴の喪失を引き起こし、トリガーとターゲットラベルとのソースイメージ間のマッピング関係を弱める傾向があるため、対応するバックドア攻撃成功率を達成するために高い中毒率が必要となる。
以上の問題を解決するために, 初めて機能修復のアイデアを提案し, 有毒データ生成時に失われた有毒な特徴を修復するための盲点透かし手法を提案する。
本研究では,一貫したラベリングの確保を前提として,FRIBという機能修復に基づく低ポゾン率のバックドア攻撃を提案する。
以上の設計概念から,本手法は,ソース画像とトリガとターゲットラベルとのマッピング関係を向上し,誤解を招くDNNの度合いを高め,毒性率の極めて低いバックドア攻撃の成功率を達成する。
最終的に、詳細な実験結果から、MNIST、CIFAR10、GTSRB、ImageNetの全データセットにおいて、非常に低い毒性率でバックドア攻撃の成功率を達成するという目標が達成されている。
関連論文リスト
- DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - AgentPoison: Red-teaming LLM Agents via Poisoning Memory or Knowledge Bases [73.04652687616286]
本稿では,RAG とRAG をベースとした LLM エージェントを標的とした最初のバックドア攻撃である AgentPoison を提案する。
従来のバックドア攻撃とは異なり、AgentPoisonは追加のモデルトレーニングや微調整を必要としない。
エージェントごとに、AgentPoisonは平均攻撃成功率を80%以上達成し、良質なパフォーマンスに最小限の影響を与える。
論文 参考訳(メタデータ) (2024-07-17T17:59:47Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - CorruptEncoder: Data Poisoning based Backdoor Attacks to Contrastive
Learning [71.25518220297639]
コントラスト学習は、ラベル付き事前学習データセットを使用して汎用エンコーダを訓練する。
DPBAはトレーニング前のデータセットに有毒な入力を注入してエンコーダをバックドアにする。
CorruptEncoderは、有毒な入力を生成するための新しい攻撃戦略を導入し、攻撃効率を最大化するために理論誘導方式を使用している。
我々の防衛はDPBAの有効性を低下させるが,エンコーダの実用性を犠牲にし,新たな防衛の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-15T15:48:28Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Strong Data Augmentation Sanitizes Poisoning and Backdoor Attacks
Without an Accuracy Tradeoff [57.35978884015093]
CutMixのような強力なデータ拡張は、パフォーマンスを損なうことなく、中毒やバックドア攻撃の脅威を著しく減少させる可能性がある。
バックドアのコンテキストでは、CutMixは攻撃を大幅に軽減し、同時にバリデーションの精度を9%向上させる。
論文 参考訳(メタデータ) (2020-11-18T20:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。