論文の概要: One Pixel is All I Need
- arxiv url: http://arxiv.org/abs/2412.10681v2
- Date: Thu, 19 Dec 2024 10:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:31:45.243953
- Title: One Pixel is All I Need
- Title(参考訳): 1つのPixelは必要なものすべて
- Authors: Deng Siqin, Zhou Xiaoyi,
- Abstract要約: 視覚変換器(ViT)は様々な視覚的タスクにおいて記録破りのパフォーマンスを達成した。
バックドア攻撃は、特定のトリガーとターゲットラベルを関連付けることを含み、トリガーが存在するときにモデルが攻撃者特定ラベルを予測する。
その結果, 準トリガー(トレーニングトリガーと異なるが, 元々のトレーニングトリガーと似ている)に対して, CNNと比較して, ViTsは高い攻撃成功率を示すことがわかった。
クリーンサンプルのバックドア機能は、元のトリガーを抑えることができ、準トリガーをより効果的にする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Vision Transformers (ViTs) have achieved record-breaking performance in various visual tasks. However, concerns about their robustness against backdoor attacks have grown. Backdoor attacks involve associating a specific trigger with a target label, causing the model to predict the attacker-specified label when the trigger is present, while correctly identifying clean images.We found that ViTs exhibit higher attack success rates for quasi-triggers(patterns different from but similar to the original training triggers)compared to CNNs. Moreover, some backdoor features in clean samples can suppress the original trigger, making quasi-triggers more effective.To better understand and exploit these vulnerabilities, we developed a tool called the Perturbation Sensitivity Distribution Map (PSDM). PSDM computes and sums gradients over many inputs to show how sensitive the model is to small changes in the input. In ViTs, PSDM reveals a patch-like pattern where central pixels are more sensitive than edges. We use PSDM to guide the creation of quasi-triggers.Based on these findings, we designed "WorstVIT," a simple yet effective data poisoning backdoor for ViT models. This attack requires an extremely low poisoning rate, trains for just one epoch, and modifies a single pixel to successfully attack all validation images.
- Abstract(参考訳): 視覚変換器(ViT)は様々な視覚的タスクにおいて記録破りのパフォーマンスを達成した。
しかし、バックドア攻撃に対する堅牢性への懸念が高まっている。
バックドア攻撃は、特定のトリガーとターゲットラベルを関連付けることで、モデルがトリガーが存在するときに攻撃者が特定したラベルを予測し、クリーンなイメージを正しく識別する。
さらに、クリーンサンプルのバックドア機能は、元のトリガーを抑えることができ、準トリガーをより効果的にし、これらの脆弱性をよりよく理解し、活用するために、摂動感度分布マップ(PSDM)と呼ばれるツールを開発した。
PSDMは、入力の小さな変化に対してモデルがどれほど敏感であるかを示すために、多くの入力に対して勾配を計算し、合計する。
ViTでは、中央のピクセルがエッジよりも感度が高いパッチのようなパターンがPSDMによって明らかにされている。
疑似トリガーの作成を誘導するためにPSDMを用い,これらの知見に基づき,VTモデルのバックドアである"WorstVIT"を設計した。
この攻撃には極端に低い毒殺率が必要であり、一つのエポックを訓練し、すべてのバリデーションイメージをうまく攻撃するために1ピクセルを修正する必要がある。
関連論文リスト
- Backdoor Attack Against Vision Transformers via Attention Gradient-Based Image Erosion [4.036142985883415]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクで従来の畳み込みニューラルネットワーク(CNN)を上回っている。
ViTはバックドア攻撃に対して脆弱で、敵がバックドアを被害者のモデルに埋め込む。
Intention Gradient-based Erosion Backdoor (AGEB) を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:06:12Z) - An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Dispersed Pixel Perturbation-based Imperceptible Backdoor Trigger for
Image Classifier Models [37.44619663266655]
生成が容易で、認識不能で、非常に効果的である新しいバックドアトリガーを提案する。
新しいトリガーは攻撃の成功率を100%近く達成し、分類精度を0.7%-2.4%以下に低下させ、最先端の防御技術を無効にする。
論文 参考訳(メタデータ) (2022-08-19T13:33:12Z) - Hardly Perceptible Trojan Attack against Neural Networks with Bit Flips [51.17948837118876]
ほとんど知覚できないトロイア攻撃(HPT)を呈する。
HPTは、加算ノイズと画素あたりのフロー場を利用して、知覚しにくいトロイの木像を作成する。
より優れた攻撃性能を達成するために,ビットフリップ,付加雑音,流れ場を協調的に最適化することを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:56:17Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - BppAttack: Stealthy and Efficient Trojan Attacks against Deep Neural
Networks via Image Quantization and Contrastive Adversarial Learning [13.959966918979395]
ディープニューラルネットワークはトロイの木馬攻撃に弱い。
既存の攻撃では目に見えるパターンをトリガーとして使用しており、人間の検査に弱い。
我々はステルス的で効率的なトロイア攻撃BppAttackを提案する。
論文 参考訳(メタデータ) (2022-05-26T14:15:19Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。