論文の概要: Explainability Matters: Backdoor Attacks on Medical Imaging
- arxiv url: http://arxiv.org/abs/2101.00008v1
- Date: Wed, 30 Dec 2020 09:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:02:29.951156
- Title: Explainability Matters: Backdoor Attacks on Medical Imaging
- Title(参考訳): 説明可能性:医療画像におけるバックドア攻撃
- Authors: Munachiso Nwadike, Takumi Miyawaki, Esha Sarkar, Michail Maniatakos,
Farah Shamout
- Abstract要約: 最近の研究は、自然画像やおもちゃのデータセットに対するバックドア攻撃の調査に焦点を当てている。
本稿では,胸部x線写真を用いたマルチラベル疾患分類タスクにおけるバックドア攻撃の影響について検討する。
トレーニングセットに数ピクセルの摂動を持つ画像を導入することで,攻撃者がトレーニング手順に関与せずにバックドアを効果的に実行できることを示す。
- 参考スコア(独自算出の注目度): 10.674604700001966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been shown to be vulnerable to backdoor attacks,
which could be easily introduced to the training set prior to model training.
Recent work has focused on investigating backdoor attacks on natural images or
toy datasets. Consequently, the exact impact of backdoors is not yet fully
understood in complex real-world applications, such as in medical imaging where
misdiagnosis can be very costly. In this paper, we explore the impact of
backdoor attacks on a multi-label disease classification task using chest
radiography, with the assumption that the attacker can manipulate the training
dataset to execute the attack. Extensive evaluation of a state-of-the-art
architecture demonstrates that by introducing images with few-pixel
perturbations into the training set, an attacker can execute the backdoor
successfully without having to be involved with the training procedure. A
simple 3$\times$3 pixel trigger can achieve up to 1.00 Area Under the Receiver
Operating Characteristic (AUROC) curve on the set of infected images. In the
set of clean images, the backdoored neural network could still achieve up to
0.85 AUROC, highlighting the stealthiness of the attack. As the use of deep
learning based diagnostic systems proliferates in clinical practice, we also
show how explainability is indispensable in this context, as it can identify
spatially localized backdoors in inference time.
- Abstract(参考訳): 深層ニューラルネットワークは、モデルトレーニングの前にトレーニングセットに簡単に導入できるバックドア攻撃に対して脆弱であることが示されている。
最近の研究は、自然画像やおもちゃのデータセットに対するバックドア攻撃の調査に焦点を当てている。
その結果、バックドアの正確な影響は、医療画像などの複雑な実世界応用においてはまだ完全には理解されていない。
本稿では,胸部X線写真を用いたマルチラベル疾患分類タスクに対するバックドア攻撃の影響を,攻撃者がトレーニングデータセットを操作して攻撃を実行することを前提として検討する。
最先端アーキテクチャの広範な評価は、トレーニングセットに数ピクセルの摂動を持つイメージを導入することで、アタッカーがトレーニング手順に関与せずにバックドアをうまく実行できることを示しています。
単純な3$\times$3ピクセルトリガは、感染した画像のセットの受信操作特性(AUROC)曲線の下で最大1.00エリアを達成することができる。
クリーンな画像のセットでは、バックドアニューラルネットワークは最大0.85AUROCを達成することができ、攻撃のステルス性を強調した。
深層学習に基づく診断システムの使用が臨床実践で増加するにつれ,空間的局所化されたバックドアを推論時間で識別できるため,この文脈では説明可能性が不可欠であることを示す。
関連論文リスト
- Dynamic Backdoors with Global Average Pooling [25.71980605208004]
アウトソーストレーニングとマシンラーニング・アズ・ア・サービスにより、バックドア攻撃のような新たな攻撃ベクトルが生まれている。
本研究は,世界平均プール層による動的バックドア攻撃が,有毒なトレーニングデータの割合を増大させることなく起こりうることを示す最初の試みである。
論文 参考訳(メタデータ) (2022-03-04T00:51:54Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Excess Capacity and Backdoor Poisoning [11.383869751239166]
バックドアデータ中毒攻撃は、攻撃者がいくつかの透かし、ラベルのついたトレーニング例をトレーニングセットに注入する敵攻撃である。
本稿では,分類問題に対するバックドアデータ中毒攻撃を議論できる形式的理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-02T03:04:38Z) - Can You Hear It? Backdoor Attacks via Ultrasonic Triggers [31.147899305987934]
本研究では,自動音声認識システムへのバックドア攻撃の選択肢について検討する。
以上の結果から, 毒性データの1%未満は, バックドア攻撃の実施に十分であり, 100%攻撃成功率に達することが示唆された。
論文 参考訳(メタデータ) (2021-07-30T12:08:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Detecting Backdoor in Deep Neural Networks via Intentional Adversarial
Perturbations [9.529588770040183]
逆例に基づく新しいバックドア検出手法を提案する。
提案手法はバックドア攻撃の成功率を99.47%から0.37%に下げる。
異なる条件下での攻撃では、提案手法の偽受け入れ率は1.2%、0.3%、0.04%と低い。
論文 参考訳(メタデータ) (2021-05-29T09:33:05Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。