論文の概要: Out of Distribution Detection and Adversarial Attacks on Deep Neural
Networks for Robust Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2107.04882v1
- Date: Sat, 10 Jul 2021 18:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 06:31:21.756573
- Title: Out of Distribution Detection and Adversarial Attacks on Deep Neural
Networks for Robust Medical Image Analysis
- Title(参考訳): ロバストな医用画像解析のためのディープニューラルネットワークにおける分布検出と敵攻撃の概要
- Authors: Anisie Uwimana1, Ransalu Senanayake
- Abstract要約: マハラノビス距離に基づく信頼度スコアのロバスト性を実験的に評価した。
その結果,マハラノビス信頼スコア検出器は深層学習モデルの性能向上と堅牢性を示した。
- 参考スコア(独自算出の注目度): 8.985261743452988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have become a popular choice for medical image analysis.
However, the poor generalization performance of deep learning models limits
them from being deployed in the real world as robustness is critical for
medical applications. For instance, the state-of-the-art Convolutional Neural
Networks (CNNs) fail to detect adversarial samples or samples drawn
statistically far away from the training distribution. In this work, we
experimentally evaluate the robustness of a Mahalanobis distance-based
confidence score, a simple yet effective method for detecting abnormal input
samples, in classifying malaria parasitized cells and uninfected cells. Results
indicated that the Mahalanobis confidence score detector exhibits improved
performance and robustness of deep learning models, and achieves
stateof-the-art performance on both out-of-distribution (OOD) and adversarial
samples.
- Abstract(参考訳): 深層学習モデルは、医用画像解析において一般的な選択肢となっている。
しかし、深層学習モデルの一般化性能の低さは、医学的応用にとって堅牢性が不可欠であるため、実世界での展開を妨げている。
例えば、最先端の畳み込みニューラルネットワーク(CNN)は、トレーニング分布から統計的に離れた敵のサンプルやサンプルを検出することができない。
本研究は, マラリア寄生細胞と非感染細胞の分類において, マハラノビス距離に基づく信頼性スコア, および異常サンプルの検出方法の信頼性を実験的に評価した。
その結果,mahalanobis confidence score detectorはディープラーニングモデルの性能と頑健性が向上し,out-of-distribution (ood) とadversarial sampleの両方において最先端のパフォーマンスが得られた。
関連論文リスト
- Realistic Data Enrichment for Robust Image Segmentation in
Histopathology [2.248423960136122]
拡散モデルに基づく新しい手法を提案し、不均衡なデータセットを、表現不足なグループから有意な例で拡張する。
本手法は,限定的な臨床データセットを拡張して,機械学習パイプラインのトレーニングに適したものにする。
論文 参考訳(メタデータ) (2023-04-19T09:52:50Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Detecting when pre-trained nnU-Net models fail silently for Covid-19
lung lesion segmentation [0.34940201626430645]
本稿では,特徴空間におけるマハラノビス距離を利用した軽量OOD検出手法を提案する。
多施設データセットで訓練したパッチベースのnnU-Netアーキテクチャを用いて,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-07-13T10:48:08Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Quantifying Predictive Uncertainty in Medical Image Analysis with Deep
Kernel Learning [14.03923026690186]
本研究では,予測の不確かさを推定できる不確実性を考慮した深層カーネル学習モデルを提案する。
ほとんどの場合、提案したモデルは一般的なアーキテクチャよりも優れた性能を示している。
私たちのモデルは、挑戦的で議論の余地のあるテストサンプルを検出するためにも使用できます。
論文 参考訳(メタデータ) (2021-06-01T17:09:47Z) - Detecting Adversarial Examples with Bayesian Neural Network [68.4910524652765]
ランダム成分が予測器の平滑性を向上できるという観測によって動機づけられた逆例を検出するための新しいフレームワークを提案する。
本研究では,BATector の略であるベイジアン逆例検出器を,逆例検出の性能向上のために提案する。
ポピュラーな攻撃のいくつかのデータセットに関する実証結果から、BATectorが逆例検出における最先端の検出器を上回っていることが示された。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images [1.2809525640002362]
本研究では, 腰椎MR画像から腰椎椎間板形状を再構成するための代表的CNNのin-distriion (IND) とout-of-distriion (OOD) の対向性について検討した。
以上の結果から, IND対人訓練は, IND対人攻撃に対するCNNのロバスト性を向上し, より大きなトレーニングデータセットがIND対人攻撃のロバスト性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-04T20:57:49Z) - Closeness and Uncertainty Aware Adversarial Examples Detection in
Adversarial Machine Learning [0.7734726150561088]
敵のサンプルを検出するための2つの異なるメトリクス群の使用法を探索し、評価します。
敵検出のための新機能を導入し、これらの指標のパフォーマンスが使用される攻撃の強さに大きく依存していることを示します。
論文 参考訳(メタデータ) (2020-12-11T14:44:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。