論文の概要: Explainability of Deep Neural Networks for Brain Tumor Detection
- arxiv url: http://arxiv.org/abs/2410.07613v1
- Date: Thu, 10 Oct 2024 05:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:56:40.649396
- Title: Explainability of Deep Neural Networks for Brain Tumor Detection
- Title(参考訳): 脳腫瘍検出のためのディープニューラルネットワークの説明可能性
- Authors: S. Park, J. Kim,
- Abstract要約: 我々は、実世界の医療データに基づいて、様々なモデルの性能を評価するために、説明可能なAI(XAI)技術を適用した。
より浅いアーキテクチャを持つCNNは、小さなデータセットに対してより効果的であり、医療的な意思決定をサポートすることができる。
- 参考スコア(独自算出の注目度): 0.0828720658988688
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Medical image classification is crucial for supporting healthcare professionals in decision-making and training. While Convolutional Neural Networks (CNNs) have traditionally dominated this field, Transformer-based models are gaining attention. In this study, we apply explainable AI (XAI) techniques to assess the performance of various models on real-world medical data and identify areas for improvement. We compare CNN models such as VGG-16, ResNet-50, and EfficientNetV2L with a Transformer model: ViT-Base-16. Our results show that data augmentation has little impact, but hyperparameter tuning and advanced modeling improve performance. CNNs, particularly VGG-16 and ResNet-50, outperform ViT-Base-16 and EfficientNetV2L, likely due to underfitting from limited data. XAI methods like LIME and SHAP further reveal that better-performing models visualize tumors more effectively. These findings suggest that CNNs with shallower architectures are more effective for small datasets and can support medical decision-making.
- Abstract(参考訳): 医療画像分類は、意思決定とトレーニングにおいて医療専門家を支援するために不可欠である。
畳み込みニューラルネットワーク(CNN)は伝統的にこの分野を支配してきたが、トランスフォーマーベースのモデルは注目されている。
本研究では、実世界の医療データ上での様々なモデルの性能を評価し、改善すべき領域を特定するために、説明可能なAI(XAI)技術を適用した。
本稿では,VGG-16,ResNet-50,EfficientNetV2LなどのCNNモデルとTransformerモデルであるViT-Base-16を比較した。
以上の結果から,データ拡張の影響はほとんどないが,ハイパーパラメータチューニングと高度なモデリングにより性能が向上することがわかった。
CNN、特にVGG-16とResNet-50は、VT-Base-16とEfficientNetV2Lを上回っている。
LIMEやSHAPといったXAIの手法は、より良いパフォーマンスのモデルが腫瘍をより効果的に視覚化することを示している。
これらの結果から,より浅いアーキテクチャのCNNは小規模なデータセットに有効であり,医療的意思決定を支援することが示唆された。
関連論文リスト
- Residual Vision Transformer (ResViT) Based Self-Supervised Learning Model for Brain Tumor Classification [0.08192907805418585]
自己教師付き学習モデルは、限られたデータセット問題に対するデータ効率と注目すべき解決策を提供する。
本稿では2段階の脳腫瘍分類のための生成型SSLモデルを提案する。
提案されたモデルが最も精度が高く、T1シークエンスでBraTsデータセットで90.56%、Figshareで98.53%、Kaggle脳腫瘍データセットで98.47%を達成している。
論文 参考訳(メタデータ) (2024-11-19T21:42:57Z) - MIC: Medical Image Classification Using Chest X-ray (COVID-19 and Pneumonia) Dataset with the Help of CNN and Customized CNN [0.0]
本研究では,医用画像分類のための独自の畳み込みニューラルネットワーク(CCNN)を提案する。
提案されたCCNNは、同じデータセットを使用した畳み込みニューラルネットワーク(CNN)や他のモデルと比較された。
この研究によると、畳み込みニューラルネットワーク(CCNN)は95.62%の検証精度と0.1270の検証損失を達成した。
論文 参考訳(メタデータ) (2024-11-02T07:18:53Z) - Analysis of Modern Computer Vision Models for Blood Cell Classification [49.1574468325115]
この研究では、MaxVit、EfficientVit、EfficientNet、EfficientNetV2、MobileNetV3といった最先端アーキテクチャを使用して、迅速かつ正確な結果を得る。
本手法は,従来の手法の速度と精度の懸念に対処するだけでなく,血液学的解析における革新的な深層学習モデルの適用性についても検討する。
論文 参考訳(メタデータ) (2024-06-30T16:49:29Z) - A Comparative Study of CNN, ResNet, and Vision Transformers for Multi-Classification of Chest Diseases [0.0]
ビジョントランスフォーマー(ViT)は、そのスケーラビリティと大量のデータを処理する能力のため、強力なツールである。
NIH Chest X-rayデータセットを用いて、ImageNetで事前トレーニングされたモデルと、スクラッチからトレーニングされたモデルである2種類のViTモデルを微調整した。
本研究は,14の異なる疾患の多ラベル分類において,これらのモデルの性能を評価するものである。
論文 参考訳(メタデータ) (2024-05-31T23:56:42Z) - InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions [95.94629864981091]
この研究は、パラメータの増加やViTsのようなトレーニングデータから得られるインターンイメージと呼ばれる、CNNベースの新しい大規模ファンデーションモデルを提案する。
提案されたInternImageは、従来のCNNの厳格な帰納バイアスを低減し、ViTのような大規模データから、より強く堅牢なパターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-11-10T18:59:04Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Improving Vision Transformers by Revisiting High-frequency Components [106.7140968644414]
視覚変換器(ViT)モデルは,CNNモデルよりも画像の高周波成分の捕捉に効果が低いことを示す。
本稿では,画像の高周波成分を直接補うHATを提案する。
HAT は様々な ViT モデルの性能を継続的に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-03T05:16:51Z) - COVID-19 Electrocardiograms Classification using CNN Models [1.1172382217477126]
深層学習アルゴリズムの統合による心電図(ECG)データの利用により、COVID-19を自動的に診断するための新しいアプローチが提案されている。
CNNモデルは、VGG16、VGG19、InceptionResnetv2、InceptionV3、Resnet50、Densenet201を含む提案されたフレームワークで利用されている。
この結果,VGG16モデルと比較すると,他のモデルに比べて比較的精度が低いことがわかった。
論文 参考訳(メタデータ) (2021-12-15T08:06:45Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - An Interaction-based Convolutional Neural Network (ICNN) Towards Better
Understanding of COVID-19 X-ray Images [0.0]
本稿では,局所情報の関連性を仮定しない対話型畳み込みニューラルネットワーク(ICNN)を提案する。
提案手法は、新型コロナウイルスのチェストX線画像を分類した実世界のデータセット上で、99.8%の最先端予測性能を実現する。
論文 参考訳(メタデータ) (2021-06-13T04:41:17Z) - A Data and Compute Efficient Design for Limited-Resources Deep Learning [68.55415606184]
同変ニューラルネットワークは 深層学習コミュニティへの関心を高めています
医療分野では、データの対称性を効果的に活用して、より正確で堅牢なモデルの構築に成功している。
ディープ・ラーニング・ソリューションのモバイル・オン・デバイス実装は医療応用のために開発されている。
しかし、同変モデルは大規模で計算コストのかかるアーキテクチャを用いて一般的に実装されており、モバイルデバイス上では動作しない。
本研究では、MobileNetV2の同変バージョンを設計、テストし、さらにモデル量子化により最適化し、より効率的な推論を可能にする。
論文 参考訳(メタデータ) (2020-04-21T00:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。