論文の概要: Deep Learning Backdoors
- arxiv url: http://arxiv.org/abs/2007.08273v2
- Date: Sat, 6 Feb 2021 09:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 00:11:18.304000
- Title: Deep Learning Backdoors
- Title(参考訳): ディープラーニングバックドア
- Authors: Shaofeng Li, Shiqing Ma, Minhui Xue, Benjamin Zi Hao Zhao
- Abstract要約: Deep Neural Networks(DNN)に対するバックドア攻撃は、DNNに隠された悪意のある振る舞いを注入することである。
トリガーは、画像に特別なオブジェクトを含む、多数のフォームを取ることができる。
これらのフィルタは、画像画素の集合を置換または摂動することにより、元の画像に適用することができる。
- 参考スコア(独自算出の注目度): 21.707121643953208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intuitively, a backdoor attack against Deep Neural Networks (DNNs) is to
inject hidden malicious behaviors into DNNs such that the backdoor model
behaves legitimately for benign inputs, yet invokes a predefined malicious
behavior when its input contains a malicious trigger. The trigger can take a
plethora of forms, including a special object present in the image (e.g., a
yellow pad), a shape filled with custom textures (e.g., logos with particular
colors) or even image-wide stylizations with special filters (e.g., images
altered by Nashville or Gotham filters). These filters can be applied to the
original image by replacing or perturbing a set of image pixels.
- Abstract(参考訳): 直感的には、ディープニューラルネットワーク(DNN)に対するバックドア攻撃は、バックドアモデルが良心的な入力に対して正当に振る舞うように、秘密の悪意のある振る舞いをDNNに注入するが、入力に悪意のあるトリガーが含まれている場合、事前に定義された悪意のある動作を呼び出す。
トリガーは、画像に存在する特別な物体(例えば黄色いパッド)、カスタムテクスチャ(例えば、特定の色のロゴ)で満たされた形状、特別なフィルター(例えば、ナッシュビルやゴッサムのフィルターで修正された画像)を含む、様々な形態を取ることができる。
これらのフィルタは、一連の画像画素を置換または摂動することで、元の画像に適用することができる。
関連論文リスト
- An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training [50.308254937851814]
個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
論文 参考訳(メタデータ) (2021-09-18T22:10:37Z) - Deep Feature Space Trojan Attack of Neural Networks by Controlled
Detoxification [21.631699720855995]
トロイの木馬攻撃(Trojan attack)は、ディープニューラルネットワークに対する敵攻撃の一種である。
5つの特徴を持つ新しい深部特徴空間トロイの木馬攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-21T09:46:12Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。