論文の概要: Lung Disease Detection with Vision Transformers: A Comparative Study of Machine Learning Methods
- arxiv url: http://arxiv.org/abs/2411.11376v1
- Date: Mon, 18 Nov 2024 08:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:27:19.268130
- Title: Lung Disease Detection with Vision Transformers: A Comparative Study of Machine Learning Methods
- Title(参考訳): 視覚変換器を用いた肺疾患検出 : 機械学習手法の比較検討
- Authors: Baljinnyam Dayan,
- Abstract要約: 本研究では,機械学習における最先端アーキテクチャであるビジョントランスフォーマー(ViT)の胸部X線解析への応用について検討する。
胸部X線像と肺分画領域に焦点を当てた2つのViT法の比較検討を行った。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advancements in medical image analysis have predominantly relied on Convolutional Neural Networks (CNNs), achieving impressive performance in chest X-ray classification tasks, such as the 92% AUC reported by AutoThorax-Net and the 88% AUC achieved by ChexNet in classifcation tasks. However, in the medical field, even small improvements in accuracy can have significant clinical implications. This study explores the application of Vision Transformers (ViT), a state-of-the-art architecture in machine learning, to chest X-ray analysis, aiming to push the boundaries of diagnostic accuracy. I present a comparative analysis of two ViT-based approaches: one utilizing full chest X-ray images and another focusing on segmented lung regions. Experiments demonstrate that both methods surpass the performance of traditional CNN-based models, with the full-image ViT achieving up to 97.83% accuracy and the lung-segmented ViT reaching 96.58% accuracy in classifcation of diseases on three label and AUC of 94.54% when label numbers are increased to eight. Notably, the full-image approach showed superior performance across all metrics, including precision, recall, F1 score, and AUC-ROC. These findings suggest that Vision Transformers can effectively capture relevant features from chest X-rays without the need for explicit lung segmentation, potentially simplifying the preprocessing pipeline while maintaining high accuracy. This research contributes to the growing body of evidence supporting the efficacy of transformer-based architectures in medical image analysis and highlights their potential to enhance diagnostic precision in clinical settings.
- Abstract(参考訳): 医療画像解析の最近の進歩は、主に畳み込みニューラルネットワーク(CNN)に依存しており、AutoThorax-Netが報告した92%のAUCやChexNetが分類タスクで達成した88%のAUCなど、胸部X線分類タスクにおいて顕著なパフォーマンスを達成している。
しかし、医療分野では、精度が小さめに向上しても、臨床的に重要な意味を持つ可能性がある。
本研究では、機械学習における最先端アーキテクチャであるビジョントランスフォーマー(ViT)の胸部X線解析への応用について検討し、診断精度の境界を押し上げることを目的とした。
胸部X線像と肺分画領域に焦点を当てた2つのViT法の比較検討を行った。
実験により、どちらの手法も従来のCNNベースのモデルの性能を上回ることが示され、フルイメージのViTは97.83%の精度で、肺切除されたViTは3つのラベル上の疾患の分類において96.58%、AUCはラベル番号が8まで増加すると94.54%に達する。
特に、フルイメージのアプローチは、精度、リコール、F1スコア、AUC-ROCなど、すべての指標で優れたパフォーマンスを示した。
以上の結果から,Vision Transformerは肺の明示的分節を必要とせず,胸部X線から有意な特徴を効果的に捉え,高い精度を維持しつつ,前処理パイプラインを簡素化する可能性が示唆された。
本研究は, 医用画像解析におけるトランスフォーマーアーキテクチャの有効性を裏付けるエビデンスとして, 臨床現場における診断精度の向上に寄与する。
関連論文リスト
- InfLocNet: Enhanced Lung Infection Localization and Disease Detection from Chest X-Ray Images Using Lightweight Deep Learning [0.5242869847419834]
本稿では,より軽量な深層学習に基づくセグメンテーション分類ネットワークを提案する。
胸部X線画像を用いた肺感染症の検出と局在性の向上を目的としている。
IoUは93.59%, Dice similarity Coefficient (DSC)は97.61%であった。
論文 参考訳(メタデータ) (2024-08-12T19:19:23Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - HGT: A Hierarchical GCN-Based Transformer for Multimodal Periprosthetic
Joint Infection Diagnosis Using CT Images and Text [0.0]
補綴関節感染症(PJI)は重篤な合併症である。
現在,CT画像とPJIの数値テキストデータを組み合わせた統一診断基準が確立されていない。
本研究では,ディープラーニングとマルチモーダル技術に基づく診断手法であるHGTを紹介する。
論文 参考訳(メタデータ) (2023-05-29T11:25:57Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Efficient Lung Cancer Image Classification and Segmentation Algorithm
Based on Improved Swin Transformer [0.0]
トランスモデルは、自然言語処理(NLP)の成功の後、コンピュータビジョン(CV)の分野に適用された。
本稿では,効率的なトランスを用いたセグメンテーション手法を創造的に提案し,医用画像解析に応用する。
本アルゴリズムは,肺癌データを解析して肺がん分類と分節化のタスクを完了し,医療スタッフに効率的な技術支援を提供することを目的とする。
論文 参考訳(メタデータ) (2022-07-04T15:50:06Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Chest X-ray Image Phase Features for Improved Diagnosis of COVID-19
Using Convolutional Neural Network [2.752817022620644]
最近の研究で、新型コロナウイルス患者のX線写真には、新型コロナウイルスに関する情報が含まれていることが示されている。
胸部X線(CXR)は、高速な撮像時間、広範囲の可用性、低コスト、可搬性から注目されている。
本研究では、CXR画像から新型コロナウイルスの分類を改善するために、新しい多機能畳み込みニューラルネットワーク(CNN)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-11-06T20:26:26Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。