論文の概要: Dynamic Backdoors with Global Average Pooling
- arxiv url: http://arxiv.org/abs/2203.02079v1
- Date: Fri, 4 Mar 2022 00:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 23:46:29.290207
- Title: Dynamic Backdoors with Global Average Pooling
- Title(参考訳): グローバル平均プールを用いた動的バックドア
- Authors: Stefanos Koffas and Stjepan Picek and Mauro Conti
- Abstract要約: アウトソーストレーニングとマシンラーニング・アズ・ア・サービスにより、バックドア攻撃のような新たな攻撃ベクトルが生まれている。
本研究は,世界平均プール層による動的バックドア攻撃が,有毒なトレーニングデータの割合を増大させることなく起こりうることを示す最初の試みである。
- 参考スコア(独自算出の注目度): 25.71980605208004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outsourced training and machine learning as a service have resulted in novel
attack vectors like backdoor attacks. Such attacks embed a secret functionality
in a neural network activated when the trigger is added to its input. In most
works in the literature, the trigger is static, both in terms of location and
pattern. The effectiveness of various detection mechanisms depends on this
property. It was recently shown that countermeasures in image classification,
like Neural Cleanse and ABS, could be bypassed with dynamic triggers that are
effective regardless of their pattern and location. Still, such backdoors are
demanding as they require a large percentage of poisoned training data. In this
work, we are the first to show that dynamic backdoor attacks could happen due
to a global average pooling layer without increasing the percentage of the
poisoned training data. Nevertheless, our experiments in sound classification,
text sentiment analysis, and image classification show this to be very
difficult in practice.
- Abstract(参考訳): アウトソースのトレーニングと機械学習をサービスとして提供することで、バックドア攻撃のような新たな攻撃ベクトルが生まれている。
このような攻撃は、トリガーが入力に追加されると起動されるニューラルネットワークに秘密の機能を埋め込む。
文学におけるほとんどの著作では、トリガーは位置とパターンの両方において静的である。
様々な検出機構の有効性はこの性質に依存する。
ニューラルクリーンスやABSのような画像分類の対策は、パターンや位置に関わらず効果的に働く動的トリガーによってバイパスできることが最近示されている。
しかし、こうしたバックドアは、大量の有毒なトレーニングデータを必要とするため、要求されている。
本研究は,有毒なトレーニングデータの割合を増大させることなく,グローバル平均プール層による動的バックドア攻撃の発生を初めて示すものである。
それにもかかわらず、音声分類、テキスト感情分析、画像分類の実験は、実際非常に困難であることを示している。
関連論文リスト
- Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Learning Curves: Explaining Backdoor Poisoning Beyond Influence
Functions [26.143147923356626]
インクリメンタルラーニングとインフルエンス関数のレンズによるバックドアラーニングのプロセスについて検討した。
バックドア攻撃の成功は、(i)学習アルゴリズムの複雑さと(ii)トレーニングセットに注入されたバックドアサンプルの割合に本質的に依存していることが示される。
論文 参考訳(メタデータ) (2021-06-14T08:00:48Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Backdoor Smoothing: Demystifying Backdoor Attacks on Deep Neural
Networks [25.23881974235643]
バックドア攻撃は、引き起こされたサンプルの周りでよりスムーズな決定関数を誘導することを示します。
実験の結果,入力サンプルにトリガーを付加するとスムーズさが増加し,この現象はより成功した攻撃に対してより顕著であることがわかった。
論文 参考訳(メタデータ) (2020-06-11T18:28:54Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。