論文の概要: Hidden Backdoor Attack against Semantic Segmentation Models
- arxiv url: http://arxiv.org/abs/2103.04038v1
- Date: Sat, 6 Mar 2021 05:50:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:53:32.896224
- Title: Hidden Backdoor Attack against Semantic Segmentation Models
- Title(参考訳): 意味セグメンテーションモデルに対する隠れバックドア攻撃
- Authors: Yiming Li, Yanjie Li, Yalei Lv, Baoyuan Wu, Yong Jiang, Shu-Tao Xia
- Abstract要約: Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
- 参考スコア(独自算出の注目度): 60.0327238844584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to the \emph{backdoor attack},
which intends to embed hidden backdoors in DNNs by poisoning training data. The
attacked model behaves normally on benign samples, whereas its prediction will
be changed to a particular target label if hidden backdoors are activated. So
far, backdoor research has mostly been conducted towards classification tasks.
In this paper, we reveal that this threat could also happen in semantic
segmentation, which may further endanger many mission-critical applications
($e.g.$, autonomous driving). Except for extending the existing attack paradigm
to maliciously manipulate the segmentation models from the image-level, we
propose a novel attack paradigm, the \emph{fine-grained attack}, where we treat
the target label ($i.e.$, annotation) from the object-level instead of the
image-level to achieve more sophisticated manipulation. In the annotation of
poisoned samples generated by the fine-grained attack, only pixels of specific
objects will be labeled with the attacker-specified target class while others
are still with their ground-truth ones. Experiments show that the proposed
methods can successfully attack semantic segmentation models by poisoning only
a small proportion of training data. Our method not only provides a new
perspective for designing novel attacks but also serves as a strong baseline
for improving the robustness of semantic segmentation methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、トレーニングデータに毒を加えることで、DNNに隠れたバックドアを埋め込もうとする \emph{backdoor attack} に対して脆弱である。
攻撃されたモデルは正常に良質なサンプル上で振る舞うが、隠れたバックドアがアクティベートされた場合、その予測は特定のターゲットラベルに変更される。
これまでのバックドア研究は、主に分類タスクに向けられている。
本稿では、この脅威はセマンティックセグメンテーションでも起こり得ることを明らかにし、多くのミッションクリティカルなアプリケーション(例えば、自動運転)をさらに危険にさらす可能性がある。
イメージレベルからセグメンテーションモデルを悪意的に操作する既存の攻撃パラダイムを拡張することを除いて、より洗練された操作を達成するためにターゲットラベル($i.e.$、アノテーション)をイメージレベルから扱う新しい攻撃パラダイムである \emph{fine-grained attack} を提案する。
細粒度攻撃によって生成された有毒なサンプルのアノテーションでは、特定のオブジェクトのピクセルだけが攻撃者が特定したターゲットクラスにラベル付けされる。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
提案手法は,新たな攻撃設計の新たな視点を提供するだけでなく,セマンティックセグメンテーション手法の堅牢性向上のための強力なベースラインとしても機能する。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Influencer Backdoor Attack on Semantic Segmentation [39.57965442338681]
インフルエンサーバックドアアタック(IBA)はセマンティックセグメンテーションモデルに対するバックドアアタックである。
IBAは、すべての推定において、非ビビティ画素の分類精度と、すべての犠牲者画素の誤った分類を維持することが期待されている。
我々は,被害者の画素から離れた位置にトリガを配置しても最適な性能を維持する,革新的なPixelランダムラベリング戦略を導入する。
論文 参考訳(メタデータ) (2023-03-21T17:45:38Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Backdoor Attacks on the DNN Interpretation System [16.587968446342995]
ディープニューラルネットワーク(DNN)の内部動作を理解するためには、解釈可能性が不可欠である
我々は,入射トリガのみの入力画像に対して,ネットワークが生成するサリエンシマップを変更するバックドアアタックを設計する。
非信頼なソースによって開発されたディープラーニングモデルをデプロイする場合、当社の攻撃は深刻なセキュリティ上の脅威となる。
論文 参考訳(メタデータ) (2020-11-21T01:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。