論文の概要: Backdoor Attack and Defense for Deep Regression
- arxiv url: http://arxiv.org/abs/2109.02381v1
- Date: Mon, 6 Sep 2021 11:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:26:51.527380
- Title: Backdoor Attack and Defense for Deep Regression
- Title(参考訳): 深い回帰に対するバックドア攻撃と防御
- Authors: Xi Li and George Kesidis and David J. Miller and Vladimir Lucic
- Abstract要約: 回帰に使用するディープニューラルネットワークに対するバックドア攻撃を実演する。
バックドア攻撃はトレーニングセットのデータ中毒に基づいてローカライズされる。
また,局所誤差最大化器の勾配に基づく発見によるバックドアディフェンスの性能評価を行った。
- 参考スコア(独自算出の注目度): 23.20365307988698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate a backdoor attack on a deep neural network used for
regression. The backdoor attack is localized based on training-set data
poisoning wherein the mislabeled samples are surrounded by correctly labeled
ones. We demonstrate how such localization is necessary for attack success. We
also study the performance of a backdoor defense using gradient-based discovery
of local error maximizers. Local error maximizers which are associated with
significant (interpolation) error, and are proximal to many training samples,
are suspicious. This method is also used to accurately train for deep
regression in the first place by active (deep) learning leveraging an "oracle"
capable of providing real-valued supervision (a regression target) for samples.
Such oracles, including traditional numerical solvers of PDEs or SDEs using
finite difference or Monte Carlo approximations, are far more computationally
costly compared to deep regression.
- Abstract(参考訳): 回帰に使用されるディープニューラルネットワークに対するバックドア攻撃を示す。
バックドア攻撃はトレーニングセットのデータ中毒に基づいてローカライズされる。
このようなローカライゼーションが攻撃の成功にいかに必要かを示す。
また,局所誤差最大化器の勾配に基づく発見によるバックドアディフェンスの性能評価を行った。
重要な(補間)エラーと関連し、多くのトレーニングサンプルに近縁な局所的エラー最大化器は疑わしい。
この方法は、サンプルに実価値の監督(回帰対象)を提供できる"oracle"を活用したアクティブな(深い)学習によって、そもそも深い回帰を正確にトレーニングするためにも用いられる。
有限差分やモンテカルロ近似を用いたPDEやSDEの伝統的な数値解法を含むようなオラクルは、深い回帰よりもはるかに計算に費用がかかる。
関連論文リスト
- Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Backdoor Defense via Decoupling the Training Process [46.34744086706348]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では,従来のエンドツーエンドトレーニングプロセスを3段階に分割して,新たなバックドアディフェンスを提案する。
論文 参考訳(メタデータ) (2022-02-05T03:34:01Z) - Anomaly Localization in Model Gradients Under Backdoor Attacks Against
Federated Learning [0.6091702876917281]
本研究では,複数のバックドア攻撃シナリオ下でのモデル勾配の予測変動について,深い勾配レベル解析を行う。
我々の主要な発見は、ローカルモデル更新(重みまたは勾配)におけるバックドア誘発異常が、悪意のあるローカルモデルの最終層バイアス重みに現れることである。
論文 参考訳(メタデータ) (2021-11-29T16:46:01Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。