論文の概要: Alzheimer's Disease Classification Using Retinal OCT: TransnetOCT and Swin Transformer Models
- arxiv url: http://arxiv.org/abs/2503.11511v1
- Date: Fri, 14 Mar 2025 15:34:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:08:24.317002
- Title: Alzheimer's Disease Classification Using Retinal OCT: TransnetOCT and Swin Transformer Models
- Title(参考訳): 網膜OCTを用いたアルツハイマー病の分類: TransnetOCT と Swin Transformer モデル
- Authors: Siva Manohar Reddy Kesu, Neelam Sinha, Hariharan Ramasangu, Thomas Gregor Issac,
- Abstract要約: 本研究は、高度深層学習技術を用いて、アルツハイマー病(AD)および健康管理(CO)患者の網膜OCT画像の分類を行う。
最高の分類アーキテクチャはTransNet OCTであり、入力されたOCT画像の平均精度は98.18%、セグメント化されたOCT画像では98.91%であり、5倍のクロスバリデーションである。
- 参考スコア(独自算出の注目度): 2.474908349649168
- License:
- Abstract: Retinal optical coherence tomography (OCT) images are the biomarkers for neurodegenerative diseases, which are rising in prevalence. Early detection of Alzheimer's disease using retinal OCT is a primary challenging task. This work utilizes advanced deep learning techniques to classify retinal OCT images of subjects with Alzheimer's disease (AD) and healthy controls (CO). The goal is to enhance diagnostic capabilities through efficient image analysis. In the proposed model, Raw OCT images have been preprocessed with ImageJ and given to various deep-learning models to evaluate the accuracy. The best classification architecture is TransNetOCT, which has an average accuracy of 98.18% for input OCT images and 98.91% for segmented OCT images for five-fold cross-validation compared to other models, and the Swin Transformer model has achieved an accuracy of 93.54%. The evaluation accuracy metric demonstrated TransNetOCT and Swin transformer models capability to classify AD and CO subjects reliably, contributing to the potential for improved diagnostic processes in clinical settings.
- Abstract(参考訳): 網膜光コヒーレンス断層撮影(英語版) (OCT) 画像は神経変性疾患のバイオマーカーである。
網膜 OCT を用いたアルツハイマー病の早期発見が主な課題である。
本研究は、高度深層学習技術を用いて、アルツハイマー病(AD)および健康管理(CO)を有する患者の網膜ORT画像の分類を行う。
目標は、効率的な画像解析によって診断能力を向上することである。
提案したモデルでは、Raw OCT画像はImageJで前処理され、様々なディープラーニングモデルに渡され、精度が評価されている。
最高の分類アーキテクチャはTransNetOCTであり、入力されたOCT画像の平均精度は98.18%、セグメント化されたOCT画像では98.91%、他のモデルと比較して5倍のクロスバリデーションが可能である。
評価精度測定では,ADとCOを確実に分類できるTransNetOCTおよびSwin Transformerモデルが得られた。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - DCT-HistoTransformer: Efficient Lightweight Vision Transformer with DCT Integration for histopathological image analysis [0.0]
視覚変換器(ViTs)を用いた乳がんの新しい軽度分類法を提案する。
離散コサイン変換(DCT)アテンションとMobileConvの並列処理経路を組み込むことで、空間領域の画像データを周波数領域に変換し、画像内の高周波数をフィルタリングするといった利点を利用する。
提案モデルでは,バイナリ分類では96.00%$pm$0.48%,マルチクラス分類では87.85%$pm$0.93%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-24T21:16:56Z) - Classification of Endoscopy and Video Capsule Images using CNN-Transformer Model [1.0994755279455526]
本研究では、トランスフォーマーと畳み込みニューラルネットワーク(CNN)の利点を組み合わせて分類性能を向上させるハイブリッドモデルを提案する。
GastroVisionデータセットでは,精度,リコール,F1スコア,精度,マシューズ相関係数(MCC)が0.8320,0.8386,0.8324,0.8386,0.8191であった。
論文 参考訳(メタデータ) (2024-08-20T11:05:32Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - GAN-based Super-Resolution and Segmentation of Retinal Layers in Optical
coherence tomography Scans [13.016298207860974]
網膜層のCTスキャンの超高分解能化とセグメンテーションのためのGAN(Generative Adversarial Network)ベースのソリューションを提案する。
GANに基づくセグメンテーションモデルと、人気のあるネットワーク、すなわちU-NetとResNetをGANアーキテクチャに組み込んだ評価を行う。
我々の最良のモデル構成は、Dice係数 0.867 と mIOU 0.765 を実証的に達成した。
論文 参考訳(メタデータ) (2022-06-28T03:53:40Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Interpretable Automated Diagnosis of Retinal Disease using Deep OCT
Analysis [7.005458308454871]
我々は,OCTスキャンの正確な分類のためのCNNベースモデルを開発した。
我々は、モデルの判断に関する質的および定量的な説明の両方を作成することに重点を置いている。
私たちの仕事は、モデルの決定について、初めて詳細な説明をしました。
論文 参考訳(メタデータ) (2021-09-03T17:59:34Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。