論文の概要: Transplant-Ready? Evaluating AI Lung Segmentation Models in Candidates with Severe Lung Disease
- arxiv url: http://arxiv.org/abs/2509.15083v1
- Date: Thu, 18 Sep 2025 15:42:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.306537
- Title: Transplant-Ready? Evaluating AI Lung Segmentation Models in Candidates with Severe Lung Disease
- Title(参考訳): 移植準備? 重症肺疾患候補者におけるAI肺分節モデルの評価
- Authors: Jisoo Lee, Michael R. Harowicz, Yuwen Chen, Hanxue Gu, Isaac S. Alderete, Lin Li, Maciej A. Mazurowski, Matthew G. Hartwig,
- Abstract要約: 本研究は, 移植既往の患者において, 利用可能な深層学習に基づく肺セグメンテーションモデルについて検討した。
Unet-R231は評価されたモデルの中で最も正確な自動肺セグメンテーションを提供する。
- 参考スコア(独自算出の注目度): 11.854505363942941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study evaluates publicly available deep-learning based lung segmentation models in transplant-eligible patients to determine their performance across disease severity levels, pathology categories, and lung sides, and to identify limitations impacting their use in preoperative planning in lung transplantation. This retrospective study included 32 patients who underwent chest CT scans at Duke University Health System between 2017 and 2019 (total of 3,645 2D axial slices). Patients with standard axial CT scans were selected based on the presence of two or more lung pathologies of varying severity. Lung segmentation was performed using three previously developed deep learning models: Unet-R231, TotalSegmentator, MedSAM. Performance was assessed using quantitative metrics (volumetric similarity, Dice similarity coefficient, Hausdorff distance) and a qualitative measure (four-point clinical acceptability scale). Unet-R231 consistently outperformed TotalSegmentator and MedSAM in general, for different severity levels, and pathology categories (p<0.05). All models showed significant performance declines from mild to moderate-to-severe cases, particularly in volumetric similarity (p<0.05), without significant differences among lung sides or pathology types. Unet-R231 provided the most accurate automated lung segmentation among evaluated models with TotalSegmentator being a close second, though their performance declined significantly in moderate-to-severe cases, emphasizing the need for specialized model fine-tuning in severe pathology contexts.
- Abstract(参考訳): 本研究は, 術前の肺移植計画において, 疾患重症度レベル, 病理診断カテゴリー, 肺側を対象とし, 術前の肺移植計画に影響を及ぼす限界を明らかにするために, 術中深層学習に基づく肺セグメンテーションモデルの評価を行った。
この振り返り調査では、2017年から2019年にかけてデューク大学健康システムで胸部CT検査を受けた32人の患者(合計3,645個の2D軸方向スライス)が調査された。
各種重症度の肺病変が2例以上あったことから, 標準軸椎CT検査を施行した症例を選定した。
Unet-R231, TotalSegmentator, MedSAMの3つのディープラーニングモデルを用いて肺分割を行った。
定量的な測定値(Voumetric similarity, Dice similarity coefficient, Hausdorff distance)と定性尺度(4点臨床受容性尺度)を用いて評価した。
Unet-R231 はTtalSegmentator と MedSAM を多種多様な重症度と病理カテゴリー(p<0.05。
いずれのモデルも, 軽度から中度から重度の症例, 特に肺側, 病理組織型に有意な差はなく, 容積類似性 (p<0.05) が認められた。
Unet-R231は、TotalSegmentatorが2番目に近い評価モデルの中で、最も正確な自動肺分画を提供していたが、その性能は中等度から重度の症例では著しく低下し、重度の病態の文脈において専門的なモデル微調整の必要性を強調した。
関連論文リスト
- A Machine Learning Approach to Volumetric Computations of Solid Pulmonary Nodules [12.415286588339901]
マルチスケール3次元畳み込みニューラルネットワーク(CNN)とサブタイプ固有のバイアス補正を組み合わせた高精度なボリューム推定手法を提案する。
その結果,処理速度において17ポイント以上の誤差が減少し,3倍の高速化が得られた。
論文 参考訳(メタデータ) (2025-08-26T03:36:32Z) - Stress-testing cross-cancer generalizability of 3D nnU-Net for PET-CT tumor segmentation: multi-cohort evaluation with novel oesophageal and lung cancer datasets [0.16999906736255554]
本研究はPET-CTによるnU-Netのクロス癌評価である。
3つのパラダイムで3D nnUNetモデルをトレーニングし、テストしました。
テストセットでは、食道のみのモデルが最高ドメイン内精度(平均DSC, 57.8)を達成したが、インド外部の肺コホートでは失敗した。
公衆のみのモデルはより広範に一般化された(つまり、オートPETでは63.5、インド肺コホートでは51.6)が、食道オーストラリアコホートでは性能が低かった。
論文 参考訳(メタデータ) (2025-08-26T02:25:53Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Generalizability of Deep Adult Lung Segmentation Models to the Pediatric
Population: A Retrospective Study [3.083972552471178]
胸部X線(CXRs)の肺分画は心肺疾患の診断の特異性を改善する重要な前提条件である。
現在の肺分画の深層学習モデルはCXRデータセットを用いて訓練され評価され、X線投影は成体から主に捉えられる。
肺の形状は幼少期から成人期にかけて大きく異なることが報告されている。
論文 参考訳(メタデータ) (2022-11-04T14:06:51Z) - Longitudinal Variability Analysis on Low-dose Abdominal CT with Deep
Learning-based Segmentation [20.38282484296331]
2次元低線量シングルスライスCT(CT)は高分解能で定量的な組織マップを提供する。
自動セグメンテーションを併用した低用量シングルスライスCTの経時変化に関する総合的な研究は行われていない。
今回,ボルチモア縦断法(BLSA)腹部データセット1469例の1816個のスライスについて検討した。
論文 参考訳(メタデータ) (2022-09-28T16:43:29Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - CoRSAI: A System for Robust Interpretation of CT Scans of COVID-19
Patients Using Deep Learning [133.87426554801252]
我々は,深部畳み込み神経網のアンサンブルを用いた肺CTスキャンのセグメンテーションによるアプローチを採用した。
本モデルを用いて, 病変の分類, 患者の動態の評価, 病変による肺の相対体積の推定, 肺の損傷ステージの評価が可能となった。
論文 参考訳(メタデータ) (2021-05-25T12:06:55Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。