論文の概要: Backdooring and Poisoning Neural Networks with Image-Scaling Attacks
- arxiv url: http://arxiv.org/abs/2003.08633v1
- Date: Thu, 19 Mar 2020 08:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:52:54.142144
- Title: Backdooring and Poisoning Neural Networks with Image-Scaling Attacks
- Title(参考訳): 画像スケーリングアタックによるバックドアと毒付けニューラルネットワーク
- Authors: Erwin Quiring and Konrad Rieck
- Abstract要約: バックドアと毒殺攻撃を隠蔽するための新しい戦略を提案する。
われわれのアプローチは、最近の画像スケーリングに対する攻撃に基づいている。
画像スケーリング攻撃と組み合わせれば,バックドアや中毒も同じように有効であることを示す。
- 参考スコア(独自算出の注目度): 15.807243762876901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoors and poisoning attacks are a major threat to the security of
machine-learning and vision systems. Often, however, these attacks leave
visible artifacts in the images that can be visually detected and weaken the
efficacy of the attacks. In this paper, we propose a novel strategy for hiding
backdoor and poisoning attacks. Our approach builds on a recent class of
attacks against image scaling. These attacks enable manipulating images such
that they change their content when scaled to a specific resolution. By
combining poisoning and image-scaling attacks, we can conceal the trigger of
backdoors as well as hide the overlays of clean-label poisoning. Furthermore,
we consider the detection of image-scaling attacks and derive an adaptive
attack. In an empirical evaluation, we demonstrate the effectiveness of our
strategy. First, we show that backdoors and poisoning work equally well when
combined with image-scaling attacks. Second, we demonstrate that current
detection defenses against image-scaling attacks are insufficient to uncover
our manipulations. Overall, our work provides a novel means for hiding traces
of manipulations, being applicable to different poisoning approaches.
- Abstract(参考訳): バックドアと中毒攻撃は、機械学習とビジョンシステムのセキュリティにとって大きな脅威である。
しかし、しばしばこれらの攻撃は、視覚的に検出され、攻撃の有効性を弱める可能性のある画像に目に見えるアーティファクトを残す。
本稿では,バックドアと中毒攻撃を隠すための新しい戦略を提案する。
われわれのアプローチは、最近の画像スケーリングに対する攻撃に基づいている。
これらの攻撃により、特定の解像度にスケールした時に内容を変更するような画像を操作することができる。
中毒と画像スケーリングを組み合わせることで、バックドアのトリガーを隠蔽し、クリーンラベル中毒のオーバーレイを隠蔽することができる。
さらに,画像スケーリング攻撃の検出を考慮し,適応攻撃を導出する。
実証的な評価では、戦略の有効性を実証する。
まず、画像スケーリング攻撃と組み合わせると、バックドアと中毒が等しく機能することを示す。
第2に、画像スケーリング攻撃に対する現在の検出防御は、我々の操作を明らかにするには不十分であることを示す。
全体として、我々の研究は、さまざまな毒殺アプローチに適用可能な、操作の痕跡を隠す新しい手段を提供する。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Impart: An Imperceptible and Effective Label-Specific Backdoor Attack [15.859650783567103]
我々は,攻撃者が被害者モデルにアクセスできないシナリオにおいて,Impartという新たな非知覚的なバックドア攻撃フレームワークを提案する。
具体的には、オール・ツー・オール・セッティングの攻撃能力を高めるために、まずラベル固有の攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T07:22:56Z) - On the Detection of Image-Scaling Attacks in Machine Learning [11.103249083138213]
イメージスケーリングは、機械学習とコンピュータビジョンシステムにおいて不可欠な部分である。
縮小画像全体を修正した画像スケーリング攻撃は、適応的敵の下でも確実に検出できる。
本手法は,画像の一部のみを操作しても,強い検出性能が得られることを示す。
論文 参考訳(メタデータ) (2023-10-23T16:46:28Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。