論文の概要: Explainable AI and susceptibility to adversarial attacks: a case study
in classification of breast ultrasound images
- arxiv url: http://arxiv.org/abs/2108.04345v1
- Date: Mon, 9 Aug 2021 23:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:30:05.563976
- Title: Explainable AI and susceptibility to adversarial attacks: a case study
in classification of breast ultrasound images
- Title(参考訳): 説明可能なAIと敵対的攻撃に対する感受性:乳房超音波画像の分類における事例研究
- Authors: Hamza Rasaee, Hassan Rivaz
- Abstract要約: CNN法は乳房の超音波像を良性または悪性に分類する有望な結果を示している。
しかし、CNN推論はブラックボックスモデルとして機能し、その決定は解釈できない。
本研究では、これらの重要地図を劇的に変更するために、事実上検出不可能な敵攻撃をどのように考案するかを分析する。
- 参考スコア(独自算出の注目度): 5.50791468454604
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ultrasound is a non-invasive imaging modality that can be conveniently used
to classify suspicious breast nodules and potentially detect the onset of
breast cancer. Recently, Convolutional Neural Networks (CNN) techniques have
shown promising results in classifying ultrasound images of the breast into
benign or malignant. However, CNN inference acts as a black-box model, and as
such, its decision-making is not interpretable. Therefore, increasing effort
has been dedicated to explaining this process, most notably through GRAD-CAM
and other techniques that provide visual explanations into inner workings of
CNNs. In addition to interpretation, these methods provide clinically important
information, such as identifying the location for biopsy or treatment. In this
work, we analyze how adversarial assaults that are practically undetectable may
be devised to alter these importance maps dramatically. Furthermore, we will
show that this change in the importance maps can come with or without altering
the classification result, rendering them even harder to detect. As such, care
must be taken when using these importance maps to shed light on the inner
workings of deep learning. Finally, we utilize Multi-Task Learning (MTL) and
propose a new network based on ResNet-50 to improve the classification
accuracies. Our sensitivity and specificity is comparable to the state of the
art results.
- Abstract(参考訳): 超音波は、不審な乳腺の結節を分類し、乳癌の発症を検出するのに便利な非侵襲的イメージングモードである。
近年,畳み込みニューラルネットワーク (cnn) が乳房の超音波像を良性または悪性に分類する有望な結果を示している。
しかし、cnn推論はブラックボックスモデルとして機能するので、その意思決定は解釈できない。
そのため、特にGRAD-CAMや他のCNNの内部動作の視覚的説明を提供する技術によって、このプロセスの説明に努力が注がれている。
解釈に加えて、これらの方法は生検や治療の場所を特定するなどの臨床的に重要な情報を提供する。
本研究では,これらの重要度マップを劇的に変えるために,実質的に検出不能な敵対的攻撃がいかに考案されたかを分析する。
さらに,この重要度マップの変更は,分類結果の変更や変更を伴わずに実現可能であることを示し,検出をさらに困難にする。
そのため、これらの重要地図を使って深層学習の内部作業に光を当てる場合には注意が必要である。
最後に,Multi-Task Learning(MTL)を用いて,ResNet-50に基づく新たなネットワークを提案する。
私たちの感度と特異性は、アート結果の状況に匹敵するものです。
関連論文リスト
- Natias: Neuron Attribution based Transferable Image Adversarial Steganography [62.906821876314275]
逆行性ステガナグラフィーは、ディープラーニングに基づくステガナリシスを効果的に欺く能力から、かなりの注目を集めている。
そこで我々は,Natias という新たな逆向きステガノグラフィー手法を提案する。
提案手法は既存の逆向きステガノグラフィーフレームワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-09-08T04:09:51Z) - Interpretable breast cancer classification using CNNs on mammographic images [0.0]
本研究は,マンモグラム分類のための畳み込みニューラルネットワーク(CNN)の決定過程に関する知見を得る必要性に対処する。
マンモグラフィー画像解析学会(MIAS)データセットをトレーニングしたCNNに対して,LIME,Grad-CAM,Kernel SHAPといったポストホック解釈技術を比較した。
以上の結果から,特にGrad-CAMは,正常,良性,悪性の乳房組織に特徴的なパターンを呈し,CNNの行動に関する包括的知見を提供することが明らかとなった。
論文 参考訳(メタデータ) (2024-08-23T15:25:42Z) - Prostate Lesion Detection and Salient Feature Assessment Using
Zone-Based Classifiers [0.0]
マルチパラメトリックMRI(Multi-parametric magnetic resonance imaging)は前立腺癌の病変の検出において役割を担っている。
これらのスキャンを解釈する医療専門家は、コンピュータ支援検出システムを用いることで、ヒューマンエラーのリスクを低減することが重要である。
本稿では,各前立腺領域に最適な機械学習分類器について検討する。
論文 参考訳(メタデータ) (2022-08-24T13:08:56Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Classification of Breast Cancer Lesions in Ultrasound Images by using
Attention Layer and loss Ensembles in Deep Convolutional Neural Networks [0.0]
本稿では,VGG16アーキテクチャーのアテンションモジュールを用いた乳癌病変の分類のための新しい枠組みを提案する。
また,双曲性コサイン損失の二値交互エントロピーと対数の組み合わせである新たなアンサンブル損失関数を提案し,分類病変とそのラベル間のモデル差を改善する。
本研究で提案したモデルは,93%の精度で他の改良VGG16アーキテクチャよりも優れており,乳がん病変の分類のための他の技術フレームワークと競合する結果となった。
論文 参考訳(メタデータ) (2021-02-23T06:49:12Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z) - Understanding the robustness of deep neural network classifiers for
breast cancer screening [52.50078591615855]
ディープニューラルネットワーク(DNN)は乳がん検診において有望であるが、その入力摂動に対する堅牢性は臨床的に実装される前によりよく理解する必要がある。
放射線技師レベルのマンモグラム画像分類器の4種類の入力摂動に対する感度を測定した。
また,低域通過フィルタの効果について詳細な解析を行い,臨床的に有意な特徴の視認性を低下させることを示した。
論文 参考訳(メタデータ) (2020-03-23T01:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。