論文の概要: Backdoor for Debias: Mitigating Model Bias with Backdoor Attack-based
Artificial Bias
- arxiv url: http://arxiv.org/abs/2303.01504v1
- Date: Wed, 1 Mar 2023 12:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 17:35:46.363218
- Title: Backdoor for Debias: Mitigating Model Bias with Backdoor Attack-based
Artificial Bias
- Title(参考訳): デバイアスのバックドア:バックドアアタックに基づく人工バイアスによるモデルバイアスの軽減
- Authors: Shangxi Wu and Qiuyang He and Fangzhao Wu and Jitao Sang and Yaowei
Wang and Changsheng Xu
- Abstract要約: バックドア攻撃は,標準訓練で得られたモデルバイアスに類似した人工バイアスを構築できることがわかった。
本稿では,知識蒸留に基づくバックドア脱バイアスフレームワークを提案し,モデルバイアスを元のデータから効果的に低減する。
この作業はバックドア攻撃の理解を深め、有益なアプリケーションの可能性を強調します。
- 参考スコア(独自算出の注目度): 97.78479322548215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the swift advancement of deep learning, state-of-the-art algorithms have
been utilized in various social situations. Nonetheless, some algorithms have
been discovered to exhibit biases and provide unequal results. The current
debiasing methods face challenges such as poor utilization of data or intricate
training requirements. In this work, we found that the backdoor attack can
construct an artificial bias similar to the model bias derived in standard
training. Considering the strong adjustability of backdoor triggers, we are
motivated to mitigate the model bias by carefully designing reverse artificial
bias created from backdoor attack. Based on this, we propose a backdoor
debiasing framework based on knowledge distillation, which effectively reduces
the model bias from original data and minimizes security risks from the
backdoor attack. The proposed solution is validated on both image and
structured datasets, showing promising results. This work advances the
understanding of backdoor attacks and highlights its potential for beneficial
applications. The code for the study can be found at
\url{https://anonymous.4open.science/r/DwB-BC07/}.
- Abstract(参考訳): ディープラーニングの急速な進歩により、最先端のアルゴリズムは様々な社会状況で利用されている。
それにもかかわらず、バイアスを示し、不平等な結果を与えるアルゴリズムがいくつか発見されている。
現在のデバイアス手法は、データの低利用や複雑なトレーニング要件といった課題に直面している。
本研究では, バックドア攻撃により, 標準訓練によるモデルバイアスに類似した人工バイアスが構築できることを見出した。
バックドアトリガーの強い調整性を考慮すると、バックドアアタックから生成された逆人工バイアスを慎重に設計することにより、モデルバイアスを緩和する動機付けとなる。
そこで本研究では,モデルバイアスを元のデータから効果的に低減し,バックドア攻撃によるセキュリティリスクを最小化する,知識蒸留に基づくバックドア脱バイアスフレームワークを提案する。
提案手法は画像と構造化データセットの両方で検証され,有望な結果を示す。
この作業はバックドア攻撃の理解を深め、有益なアプリケーションの可能性を強調します。
この研究のコードは \url{https://anonymous.4open.science/r/dwb-bc07/} にある。
関連論文リスト
- Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Debiasing Backdoor Attack: A Benign Application of Backdoor Attack in
Eliminating Data Bias [12.318552855134715]
バックドア攻撃は、モデル学習プロセスに取り組み、モデル性能を改善する可能性があると我々は主張する。
バックドア攻撃におけるクリーン精度低下 (CAD) に基づいて, CADはデータの擬似削除効果から生まれた。
我々は,脱バイアスタスクにおいてSOTAを実現するために,脱バイアスバックドアアタック(DBA)を提案する。
論文 参考訳(メタデータ) (2022-02-18T05:00:08Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。