論文の概要: Backdoor Attack and Defense for Deep Regression
- arxiv url: http://arxiv.org/abs/2109.02381v1
- Date: Mon, 6 Sep 2021 11:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:26:51.527380
- Title: Backdoor Attack and Defense for Deep Regression
- Title(参考訳): 深い回帰に対するバックドア攻撃と防御
- Authors: Xi Li and George Kesidis and David J. Miller and Vladimir Lucic
- Abstract要約: 回帰に使用するディープニューラルネットワークに対するバックドア攻撃を実演する。
バックドア攻撃はトレーニングセットのデータ中毒に基づいてローカライズされる。
また,局所誤差最大化器の勾配に基づく発見によるバックドアディフェンスの性能評価を行った。
- 参考スコア(独自算出の注目度): 23.20365307988698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate a backdoor attack on a deep neural network used for
regression. The backdoor attack is localized based on training-set data
poisoning wherein the mislabeled samples are surrounded by correctly labeled
ones. We demonstrate how such localization is necessary for attack success. We
also study the performance of a backdoor defense using gradient-based discovery
of local error maximizers. Local error maximizers which are associated with
significant (interpolation) error, and are proximal to many training samples,
are suspicious. This method is also used to accurately train for deep
regression in the first place by active (deep) learning leveraging an "oracle"
capable of providing real-valued supervision (a regression target) for samples.
Such oracles, including traditional numerical solvers of PDEs or SDEs using
finite difference or Monte Carlo approximations, are far more computationally
costly compared to deep regression.
- Abstract(参考訳): 回帰に使用されるディープニューラルネットワークに対するバックドア攻撃を示す。
バックドア攻撃はトレーニングセットのデータ中毒に基づいてローカライズされる。
このようなローカライゼーションが攻撃の成功にいかに必要かを示す。
また,局所誤差最大化器の勾配に基づく発見によるバックドアディフェンスの性能評価を行った。
重要な(補間)エラーと関連し、多くのトレーニングサンプルに近縁な局所的エラー最大化器は疑わしい。
この方法は、サンプルに実価値の監督(回帰対象)を提供できる"oracle"を活用したアクティブな(深い)学習によって、そもそも深い回帰を正確にトレーニングするためにも用いられる。
有限差分やモンテカルロ近似を用いたPDEやSDEの伝統的な数値解法を含むようなオラクルは、深い回帰よりもはるかに計算に費用がかかる。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - T2IShield: Defending Against Backdoors on Text-to-Image Diffusion Models [70.03122709795122]
バックドア攻撃の検出, 局所化, 緩和のための総合防御手法T2IShieldを提案する。
バックドアトリガーによって引き起こされた横断アテンションマップの「アシミレーション現象」を見いだす。
バックドアサンプル検出のために、T2IShieldは計算コストの低い88.9$%のF1スコアを達成している。
論文 参考訳(メタデータ) (2024-07-05T01:53:21Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Backdoor Defense via Decoupling the Training Process [46.34744086706348]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では,従来のエンドツーエンドトレーニングプロセスを3段階に分割して,新たなバックドアディフェンスを提案する。
論文 参考訳(メタデータ) (2022-02-05T03:34:01Z) - Anomaly Localization in Model Gradients Under Backdoor Attacks Against
Federated Learning [0.6091702876917281]
本研究では,複数のバックドア攻撃シナリオ下でのモデル勾配の予測変動について,深い勾配レベル解析を行う。
我々の主要な発見は、ローカルモデル更新(重みまたは勾配)におけるバックドア誘発異常が、悪意のあるローカルモデルの最終層バイアス重みに現れることである。
論文 参考訳(メタデータ) (2021-11-29T16:46:01Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。