論文の概要: Towards Evaluating the Robustness of Deep Diagnostic Models by
Adversarial Attack
- arxiv url: http://arxiv.org/abs/2103.03438v1
- Date: Fri, 5 Mar 2021 02:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 07:45:11.936682
- Title: Towards Evaluating the Robustness of Deep Diagnostic Models by
Adversarial Attack
- Title(参考訳): 対向攻撃による深部診断モデルのロバスト性評価に向けて
- Authors: Mengting Xu, Tao Zhang, Zhongnian Li, Mingxia Liu, Daoqiang Zhang
- Abstract要約: 近年の研究では、深部診断モデルは推論過程において堅牢でないことが示されている。
逆の例は、人間に容易に認識されないよく設計された摂動です。
我々は,深部診断モデルの逆行例を扱うための2つの新しい防御法を考案した。
- 参考スコア(独自算出の注目度): 38.480886577088384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models (with neural networks) have been widely used in
challenging tasks such as computer-aided disease diagnosis based on medical
images. Recent studies have shown deep diagnostic models may not be robust in
the inference process and may pose severe security concerns in clinical
practice. Among all the factors that make the model not robust, the most
serious one is adversarial examples. The so-called "adversarial example" is a
well-designed perturbation that is not easily perceived by humans but results
in a false output of deep diagnostic models with high confidence. In this
paper, we evaluate the robustness of deep diagnostic models by adversarial
attack. Specifically, we have performed two types of adversarial attacks to
three deep diagnostic models in both single-label and multi-label
classification tasks, and found that these models are not reliable when
attacked by adversarial example. We have further explored how adversarial
examples attack the models, by analyzing their quantitative classification
results, intermediate features, discriminability of features and correlation of
estimated labels for both original/clean images and those adversarial ones. We
have also designed two new defense methods to handle adversarial examples in
deep diagnostic models, i.e., Multi-Perturbations Adversarial Training (MPAdvT)
and Misclassification-Aware Adversarial Training (MAAdvT). The experimental
results have shown that the use of defense methods can significantly improve
the robustness of deep diagnostic models against adversarial attacks.
- Abstract(参考訳): 深層学習モデル(ニューラルネットワーク)は、医療画像に基づくコンピュータ支援疾患診断などの課題に広く用いられている。
近年の研究では、深い診断モデルは推論プロセスにおいて堅牢でなく、臨床において深刻なセキュリティ上の懸念をもたらす可能性がある。
モデルが堅牢でないすべての要因のうち、最も深刻なものは逆の例である。
いわゆる"adversarial example"はよく設計された摂動であり、人間には容易には認識できないが、信頼性の高い深い診断モデルの誤ったアウトプットをもたらす。
本稿では, 対人攻撃による深部診断モデルの堅牢性を評価する。
具体的には, 単一ラベルと複数ラベルの分類タスクにおいて, 3つの深部診断モデルに対して2種類の逆転攻撃を行い, 逆転例で攻撃した場合, これらのモデルが信頼できないことがわかった。
我々はさらに,その量的分類結果,中間的特徴,特徴の判別性,推定ラベルの相関性を解析し,そのモデルに対する逆例のアプローチについて検討した。
また、深い診断モデル、すなわちMPAdvT(Multi-Perturbations Adversarial Training)とMAAdvT(Misclassification-Aware Adversarial Training)における敵対的例を処理するための2つの新しい防御方法も設計した。
実験結果は、防御方法の使用が逆襲に対する深い診断モデルの堅牢性を大幅に改善できることを示した。
関連論文リスト
- On Evaluating the Adversarial Robustness of Semantic Segmentation Models [0.0]
敵の摂動に対する防御手段として、多くの敵の訓練アプローチが提案されている。
私たちは、前回の作業で堅牢であると主張するモデルが、実際にはまったく堅牢ではないことを初めて示しています。
次に, 強攻撃群においても, 合理的に堅牢なモデルを生成する, 単純な対向訓練アルゴリズムを評価する。
論文 参考訳(メタデータ) (2023-06-25T11:45:08Z) - Adversarial Attack and Defense for Medical Image Analysis: Methods and
Applications [57.206139366029646]
医用画像解析における対人攻撃と防御の進歩に関する総合的な調査を報告する。
医療画像解析のための異なる種類の敵攻撃のための統一的理論的枠組みと防衛方法を提供する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Measuring the Contribution of Multiple Model Representations in
Detecting Adversarial Instances [0.0]
本稿では,複数のモデルから表現を取り入れた2つの手法について述べる。
多くのシナリオについて検討した結果,表現の抽出に使用する基礎モデルの数によって,性能が向上することが明らかとなった。
論文 参考訳(メタデータ) (2021-11-13T04:24:57Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Now You See It, Now You Dont: Adversarial Vulnerabilities in
Computational Pathology [2.1577322127603407]
病理画像における腫瘍パッチの分類の高精度なモデルが,最小限の摂動で容易に攻撃可能であることを示す。
解析結果から,高い成功率と低摂動エネルギーで,特定の入力画像に対して単一インスタンスのホワイトボックス攻撃を発生できることが示唆された。
本研究は, 対人攻撃の摂動エネルギー, 臨床的意義の形態的構造, 訓練された病理医による受容性, 深層学習モデルを用いて得られた塩分濃度マップとの関係を系統的に解析した。
論文 参考訳(メタデータ) (2021-06-14T14:33:24Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。