論文の概要: Patch-Based and Non-Patch-Based inputs Comparison into Deep Neural Models: Application for the Segmentation of Retinal Diseases on Optical Coherence Tomography Volumes
- arxiv url: http://arxiv.org/abs/2501.13970v1
- Date: Wed, 22 Jan 2025 10:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 20:40:39.498525
- Title: Patch-Based and Non-Patch-Based inputs Comparison into Deep Neural Models: Application for the Segmentation of Retinal Diseases on Optical Coherence Tomography Volumes
- Title(参考訳): 深部神経モデルにおけるパッチベースおよび非パッチベース入力の比較:光学コヒーレンス・トモグラフィーにおける網膜疾患の分画への応用
- Authors: Khaled Al-Saih, Fares Al-Shargie, Mohammed Isam Al-hiyali, Reham Alhejaili,
- Abstract要約: AMDは、2040年までに2億8800万人に達すると予想されている。
ディープラーニングネットワークは、画像とピクセルレベルの2Dスキャンの分類において有望な結果を示している。
DSC測定値のパッチベースモデルが最も高いスコアは0.88であり、SRF流体セグメンテーションの非パッチベースでは0.71であった。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Worldwide, sight loss is commonly occurred by retinal diseases, with age-related macular degeneration (AMD) being a notable facet that affects elderly patients. Approaching 170 million persons wide-ranging have been spotted with AMD, a figure anticipated to rise to 288 million by 2040. For visualizing retinal layers, optical coherence tomography (OCT) dispenses the most compelling non-invasive method. Frequent patient visits have increased the demand for automated analysis of retinal diseases, and deep learning networks have shown promising results in both image and pixel-level 2D scan classification. However, when relying solely on 2D data, accuracy may be impaired, especially when localizing fluid volume diseases. The goal of automatic techniques is to outperform humans in manually recognizing illnesses in medical data. In order to further understand the benefit of deep learning models, we studied the effects of the input size. The dice similarity coefficient (DSC) metric showed a human performance score of 0.71 for segmenting various retinal diseases. Yet, the deep models surpassed human performance to establish a new era of advancement of segmenting the diseases on medical images. However, to further improve the performance of the models, overlapping patches enhanced the performance of the deep models compared to feeding the full image. The highest score for a patch-based model in the DSC metric was 0.88 in comparison to the score of 0.71 for the same model in non-patch-based for SRF fluid segmentation. The objective of this article is to show a fair comparison between deep learning models in relation to the input (Patch-Based vs. NonPatch-Based).
- Abstract(参考訳): 世界全体では、視力喪失は網膜疾患によってよく起こり、高齢患者に影響を及ぼす顕著な顔面の年齢関連黄斑変性(AMD)が引き起こされる。
AMDは、2040年までに2億8800万人に達すると予想されている。
網膜層を可視化するために、光コヒーレンス断層撮影(OCT)は最も説得力のある非侵襲的方法である。
頻繁な患者訪問は網膜疾患の自動解析の需要を増大させ、深層学習ネットワークは画像とピクセルレベルの2Dスキャンの分類において有望な結果を示している。
しかし、2Dデータのみに依存する場合、特に流体量疾患の局所化では精度が低下する可能性がある。
自動技術の目的は、医療データ中の病気を手動で認識することで、人間より優れていることである。
深層学習モデルの利点をさらに理解するために,入力サイズの影響について検討した。
ジス類似度係数(DSC)は,網膜疾患のセグメンテーションにおけるヒトのパフォーマンススコア0.71を示した。
しかし、深層モデルが人間のパフォーマンスを上回り、医療画像に病気を分類する新たな時代を築き上げた。
しかし、モデルの性能をさらに向上させるため、重なり合うパッチにより、フルイメージの供給に比べて深部モデルの性能が向上した。
DSC測定値のパッチベースモデルの平均スコアは0.88であり、SRF流体セグメンテーションの非パッチベースモデルでは0.71であった。
本論文の目的は,入力に対する深層学習モデル(パッチベース対非パッチベース)の公正な比較を示すことである。
関連論文リスト
- Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Deep Learning for Vascular Segmentation and Applications in Phase
Contrast Tomography Imaging [33.23991248643144]
本稿では,多様な臓器にまたがる機械学習技術の現状を概説する。
我々のゴールは、このトピックの基礎を提供し、新しい画像モダリティで血管セグメンテーションに適用するための堅牢なベースラインモデルを特定することである。
HiP CTは、1ボクセルあたり20mmという前例のない解像度で、完全な臓器の3Dイメージングを可能にする。
論文 参考訳(メタデータ) (2023-11-22T11:15:38Z) - Retinal Image Segmentation with Small Datasets [25.095695898777656]
糖尿病黄斑浮腫(DME)、加齢関連黄斑変性(AMD)、緑内障などの多くの眼疾患が網膜に出現し、不可逆的な失明や中心バージョンに深刻な障害を引き起こす。
オプティカルコヒーレンス・トモグラフィ(OCT)は網膜の3Dスキャンであり、網膜解剖の変化を診断し、モニターするために用いられる。
多くのDeep Learning(DL)メソッドは、網膜の病理学的変化を監視する自動化ツールの開発の成功を共有している。
論文 参考訳(メタデータ) (2023-03-09T08:32:14Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Multi-Scale Convolutional Neural Network for Automated AMD
Classification using Retinal OCT Images [1.299941371793082]
加齢関連黄斑変性症(AMD)は、先進国、特に60歳以上の人々において、視覚障害の最も一般的な原因である。
近年のディープラーニングの発展は、完全に自動化された診断フレームワークの開発にユニークな機会を与えている。
様々な大きさの受容場を用いて病理を識別できる多スケール畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2021-10-06T18:20:58Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - StyPath: Style-Transfer Data Augmentation For Robust Histology Image
Classification [6.690876060631452]
我々は,StyPathに基づくAMR分類のための,堅牢なディープニューラルネットワークを構築するための新しいパイプラインを提案する。
それぞれの画像は、1GTX V TITANとpytorchを使って1.84 + 0.03秒で生成された。
以上の結果から,本手法は組織学的分類性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2020-07-09T18:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。