論文の概要: Backdoor Attacks on Network Certification via Data Poisoning
- arxiv url: http://arxiv.org/abs/2108.11299v1
- Date: Wed, 25 Aug 2021 15:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 13:04:02.955827
- Title: Backdoor Attacks on Network Certification via Data Poisoning
- Title(参考訳): データ中毒によるネットワーク認証のバックドア攻撃
- Authors: Tobias Lorenz, Marta Kwiatkowska, Mario Fritz
- Abstract要約: 実践的なアプリケーションパイプラインにおける認証者に対するトレーニングタイムアタックの最初の系統的分析を行う。
ネットワーク認証に対する2つのバックドアアタックを設計し、バックドアがアクティベートされると、認証されたロバスト性を劇的に低減する。
- 参考スコア(独自算出の注目度): 75.64838415468407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Certifiers for neural networks have made great progress towards provable
robustness guarantees against evasion attacks using adversarial examples.
However, introducing certifiers into deep learning systems also opens up new
attack vectors, which need to be considered before deployment. In this work, we
conduct the first systematic analysis of training time attacks against
certifiers in practical application pipelines, identifying new threat vectors
that can be exploited to degrade the overall system. Using these insights, we
design two backdoor attacks against network certifiers, which can drastically
reduce certified robustness when the backdoor is activated. For example, adding
1% poisoned data points during training is sufficient to reduce certified
robustness by up to 95 percentage points, effectively rendering the certifier
useless. We analyze how such novel attacks can compromise the overall system's
integrity or availability. Our extensive experiments across multiple datasets,
model architectures, and certifiers demonstrate the wide applicability of these
attacks. A first investigation into potential defenses shows that current
approaches only partially mitigate the issue, highlighting the need for new,
more specific solutions.
- Abstract(参考訳): ニューラルネットワークの証明器は、敵の例を使って回避攻撃に対する堅牢性を保証するために大きな進歩を遂げている。
しかし、ディープラーニングシステムに認証を導入することで、デプロイ前に考慮する必要がある新たな攻撃ベクトルもオープンになる。
本研究では,実運用パイプラインにおける認証者に対するトレーニングタイムアタックの系統的解析を行い,システム全体の劣化に悪用できる新たな脅威ベクトルを同定する。
これらの知見を用いて,ネットワーク認証者に対するバックドア攻撃を2つ設計し,バックドアをアクティベートした場合の認証ロバスト性を大幅に低減する。
例えば、トレーニング中に1%の有毒なデータポイントを追加することは、認定された堅牢性を最大95%削減するのに十分である。
このような新たな攻撃がシステム全体の整合性や可用性を損なう可能性があるかを分析する。
複数のデータセット、モデルアーキテクチャ、証明器をまたいだ広範な実験は、これらの攻撃の幅広い適用性を示しています。
潜在的な防御に関する最初の調査は、現在のアプローチが問題を部分的に緩和するだけで、新しいより具体的なソリューションの必要性を強調していることを示している。
関連論文リスト
- FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Revealing Vulnerabilities of Neural Networks in Parameter Learning and Defense Against Explanation-Aware Backdoors [2.1165011830664673]
ブラディング攻撃は、機械学習アルゴリズムの予測と説明を大きく変える可能性がある。
我々は統計的解析を利用して、目隠し攻撃後のCNN内のCNN重みの変化を明らかにする。
本研究では,評価段階における攻撃の有効性を限定する手法を提案する。
論文 参考訳(メタデータ) (2024-03-25T09:36:10Z) - Availability Adversarial Attack and Countermeasures for Deep
Learning-based Load Forecasting [1.4112444998191698]
ディープニューラルネットワークは敵の攻撃を受けやすい。
本稿では,攻撃者がより容易に実装可能な,アベイラビリティに基づく敵攻撃を提案する。
敵の訓練アルゴリズムは、アベイラビリティーアタックに対するロバスト性を大幅に改善する。
論文 参考訳(メタデータ) (2023-01-04T21:54:32Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。