論文の概要: Towards Evaluating the Robustness of Deep Diagnostic Models by
Adversarial Attack
- arxiv url: http://arxiv.org/abs/2103.03438v1
- Date: Fri, 5 Mar 2021 02:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 07:45:11.936682
- Title: Towards Evaluating the Robustness of Deep Diagnostic Models by
Adversarial Attack
- Title(参考訳): 対向攻撃による深部診断モデルのロバスト性評価に向けて
- Authors: Mengting Xu, Tao Zhang, Zhongnian Li, Mingxia Liu, Daoqiang Zhang
- Abstract要約: 近年の研究では、深部診断モデルは推論過程において堅牢でないことが示されている。
逆の例は、人間に容易に認識されないよく設計された摂動です。
我々は,深部診断モデルの逆行例を扱うための2つの新しい防御法を考案した。
- 参考スコア(独自算出の注目度): 38.480886577088384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models (with neural networks) have been widely used in
challenging tasks such as computer-aided disease diagnosis based on medical
images. Recent studies have shown deep diagnostic models may not be robust in
the inference process and may pose severe security concerns in clinical
practice. Among all the factors that make the model not robust, the most
serious one is adversarial examples. The so-called "adversarial example" is a
well-designed perturbation that is not easily perceived by humans but results
in a false output of deep diagnostic models with high confidence. In this
paper, we evaluate the robustness of deep diagnostic models by adversarial
attack. Specifically, we have performed two types of adversarial attacks to
three deep diagnostic models in both single-label and multi-label
classification tasks, and found that these models are not reliable when
attacked by adversarial example. We have further explored how adversarial
examples attack the models, by analyzing their quantitative classification
results, intermediate features, discriminability of features and correlation of
estimated labels for both original/clean images and those adversarial ones. We
have also designed two new defense methods to handle adversarial examples in
deep diagnostic models, i.e., Multi-Perturbations Adversarial Training (MPAdvT)
and Misclassification-Aware Adversarial Training (MAAdvT). The experimental
results have shown that the use of defense methods can significantly improve
the robustness of deep diagnostic models against adversarial attacks.
- Abstract(参考訳): 深層学習モデル(ニューラルネットワーク)は、医療画像に基づくコンピュータ支援疾患診断などの課題に広く用いられている。
近年の研究では、深い診断モデルは推論プロセスにおいて堅牢でなく、臨床において深刻なセキュリティ上の懸念をもたらす可能性がある。
モデルが堅牢でないすべての要因のうち、最も深刻なものは逆の例である。
いわゆる"adversarial example"はよく設計された摂動であり、人間には容易には認識できないが、信頼性の高い深い診断モデルの誤ったアウトプットをもたらす。
本稿では, 対人攻撃による深部診断モデルの堅牢性を評価する。
具体的には, 単一ラベルと複数ラベルの分類タスクにおいて, 3つの深部診断モデルに対して2種類の逆転攻撃を行い, 逆転例で攻撃した場合, これらのモデルが信頼できないことがわかった。
我々はさらに,その量的分類結果,中間的特徴,特徴の判別性,推定ラベルの相関性を解析し,そのモデルに対する逆例のアプローチについて検討した。
また、深い診断モデル、すなわちMPAdvT(Multi-Perturbations Adversarial Training)とMAAdvT(Misclassification-Aware Adversarial Training)における敵対的例を処理するための2つの新しい防御方法も設計した。
実験結果は、防御方法の使用が逆襲に対する深い診断モデルの堅牢性を大幅に改善できることを示した。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Towards Within-Class Variation in Alzheimer's Disease Detection from Spontaneous Speech [60.08015780474457]
アルツハイマー病(AD)の検出は、機械学習の分類モデルを使用する有望な研究領域として浮上している。
我々は、AD検出において、クラス内変異が重要な課題であると考え、ADを持つ個人は認知障害のスペクトルを示す。
本稿では,ソフトターゲット蒸留 (SoTD) とインスタンスレベルの再分散 (InRe) の2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-22T02:06:05Z) - Evaluating the Adversarial Robustness of Semantic Segmentation: Trying Harder Pays Off [0.6554326244334868]
対人摂動に対する感度の良好な近似は、現在満足していると見なされているものよりもはるかに多くの労力を要すると我々は主張する。
我々は新たな攻撃を提案し、文学で利用可能な最強の攻撃と組み合わせる。
我々の結果は、異なるモデルが異なる攻撃に対して脆弱であることが多いため、多様な強力な攻撃が必要であることも示している。
論文 参考訳(メタデータ) (2024-07-12T10:32:53Z) - On Evaluating Adversarial Robustness of Volumetric Medical Segmentation Models [59.45628259925441]
体積医学セグメンテーションモデルは、臓器および腫瘍ベースのセグメンテーションタスクにおいて大きな成功を収めた。
敵の攻撃に対するその脆弱性はほとんど解明されていない。
このことは、既存のモデルの堅牢性を調べることの重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-12T17:59:42Z) - Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Measuring the Contribution of Multiple Model Representations in
Detecting Adversarial Instances [0.0]
本稿では,複数のモデルから表現を取り入れた2つの手法について述べる。
多くのシナリオについて検討した結果,表現の抽出に使用する基礎モデルの数によって,性能が向上することが明らかとなった。
論文 参考訳(メタデータ) (2021-11-13T04:24:57Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。