論文の概要: Debiasing Backdoor Attack: A Benign Application of Backdoor Attack in
Eliminating Data Bias
- arxiv url: http://arxiv.org/abs/2202.10582v1
- Date: Fri, 18 Feb 2022 05:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:47:04.173924
- Title: Debiasing Backdoor Attack: A Benign Application of Backdoor Attack in
Eliminating Data Bias
- Title(参考訳): バックドア攻撃の嫌悪:データバイアス除去におけるバックドア攻撃の利点
- Authors: Shangxi Wu and Qiuyang He and Yi Zhang and Jitao Sang
- Abstract要約: バックドア攻撃は、モデル学習プロセスに取り組み、モデル性能を改善する可能性があると我々は主張する。
バックドア攻撃におけるクリーン精度低下 (CAD) に基づいて, CADはデータの擬似削除効果から生まれた。
我々は,脱バイアスタスクにおいてSOTAを実現するために,脱バイアスバックドアアタック(DBA)を提案する。
- 参考スコア(独自算出の注目度): 12.318552855134715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attack is a new AI security risk that has emerged in recent years.
Drawing on the previous research of adversarial attack, we argue that the
backdoor attack has the potential to tap into the model learning process and
improve model performance. Based on Clean Accuracy Drop (CAD) in backdoor
attack, we found that CAD came out of the effect of pseudo-deletion of data. We
provided a preliminary explanation of this phenomenon from the perspective of
model classification boundaries and observed that this pseudo-deletion had
advantages over direct deletion in the data debiasing problem. Based on the
above findings, we proposed Debiasing Backdoor Attack (DBA). It achieves SOTA
in the debiasing task and has a broader application scenario than
undersampling.
- Abstract(参考訳): バックドア攻撃は、近年出現した新たなAIセキュリティリスクである。
敵意攻撃に関するこれまでの研究から,バックドア攻撃はモデル学習プロセスを活用する可能性があり,モデル性能を向上させることができると論じた。
バックドア攻撃におけるクリーン精度低下 (CAD) に基づいて, CADはデータの擬似削除効果から生まれた。
モデル分類境界の観点からこの現象の予備的な説明を行い,データデバイアス問題において,この擬似削除が直接削除よりも有利であることを確認した。
以上の結果から,我々は脱バイアスバックドア攻撃 (DBA) を提案している。
debiasingタスクでsotaを実現し、アンサンプリングよりも幅広いアプリケーションシナリオを持つ。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Backdoor for Debias: Mitigating Model Bias with Backdoor Attack-based Artificial Bias [22.191649793815298]
バックドア攻撃は,標準訓練で得られたモデルバイアスに類似した人工バイアスを構築できることがわかった。
本稿では,知識蒸留に基づくバックドア脱バイアスフレームワークを提案し,モデルバイアスを元のデータから効果的に低減する。
この作業はバックドア攻撃の理解を深め、有益なアプリケーションの可能性を強調します。
論文 参考訳(メタデータ) (2023-03-01T12:31:07Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。