論文の概要: Segment-and-Classify: ROI-Guided Generalizable Contrast Phase Classification in CT Using XGBoost
- arxiv url: http://arxiv.org/abs/2501.14066v2
- Date: Thu, 01 May 2025 01:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.220438
- Title: Segment-and-Classify: ROI-Guided Generalizable Contrast Phase Classification in CT Using XGBoost
- Title(参考訳): XGBoost を用いた CT における ROI-Guided Generalizable Contrast Phase 分類
- Authors: Benjamin Hou, Tejas Sudharshan Mathai, Pritam Mukherjee, Xinya Wang, Ronald M. Summers, Zhiyong Lu,
- Abstract要約: 本研究は,別機関の3つの公開CTデータセットを利用した。
位相予測モデルはWAW-TACEデータセットに基づいてトレーニングされ、VinDr-MultiphaseとC4KC-KiTSデータセット上で検証された。
- 参考スコア(独自算出の注目度): 7.689389068258514
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Purpose: To automate contrast phase classification in CT using organ-specific features extracted from a widely used segmentation tool with a lightweight decision tree classifier. Materials and Methods: This retrospective study utilized three public CT datasets from separate institutions. The phase prediction model was trained on the WAW-TACE (median age: 66 [60,73]; 185 males) dataset, and externally validated on the VinDr-Multiphase (146 males; 63 females; 56 unk) and C4KC-KiTS (median age: 61 [50.68; 123 males) datasets. Contrast phase classification was performed using organ-specific features extracted by TotalSegmentator, followed by prediction using a gradient-boosted decision tree classifier. Results: On the VinDr-Multiphase dataset, the phase prediction model achieved the highest or comparable AUCs across all phases (>0.937), with superior F1-scores in the non-contrast (0.994), arterial (0.937), and delayed (0.718) phases. Statistical testing indicated significant performance differences only in the arterial and delayed phases (p<0.05). On the C4KC-KiTS dataset, the phase prediction model achieved the highest AUCs across all phases (>0.991), with superior F1-scores in arterial/venous (0.968) and delayed (0.935) phases. Statistical testing confirmed significant improvements over all baseline models in these two phases (p<0.05). Performance in the non-contrast class, however, was comparable across all models, with no statistically significant differences observed (p>0.05). Conclusion: The lightweight model demonstrated strong performance relative to all baseline models, and exhibited robust generalizability across datasets from different institutions.
- Abstract(参考訳): 目的: 軽量な決定木分類器を用いて広く使用されているセグメンテーションツールから抽出された臓器特異的特徴を用いてCTのコントラスト位相分類を自動化すること。
材料と方法: この振り返り調査では, 別機関の3つの公開CTデータセットを用いた。
位相予測モデルはWAW-TACEデータセット(中期年齢:66 [60,73],185人の男性)で訓練し,VinDr-Multiphaseデータセット(男性146名,女性63名,男性56名)とC4KC-KiTSデータセット(中期年齢:61 [50.68名,男性123名)で外的検証を行った。
コントラスト位相分類はTotalSegmentatorによって抽出された臓器特異的特徴を用いて行い,次いで勾配型決定木分類器を用いて予測を行った。
結果: VinDr-Multiphaseデータセットでは, 位相予測モデルが最も高いAUC(>0.937), 非コントラスト (0.994), 動脈 (0.937), 遅延 (0.718) に優れたF1スコアが得られた。
統計検査では動脈および遅延期のみに有意なパフォーマンス差が認められた(p<0.05。
C4KC-KiTSデータセットでは、相予測モデルが最も高いAUC(>0.991)を達成し、動脈/静脈(0.968)と遅延(0.935)のF1スコアに優れていた。
統計的試験により,これら2つの相における全てのベースラインモデルに対して有意な改善が認められた(p<0.05。
しかし, 非コントラストクラスでは, 統計的に有意な差は認められなかった (p>0.05。
結論: 軽量モデルは,すべてのベースラインモデルに対して強い性能を示し,異なる機関のデータセット間で堅牢な一般化性を示した。
関連論文リスト
- Artificial Intelligence-Based Triaging of Cutaneous Melanocytic Lesions [0.8864540224289991]
患者数の増加とより包括的な診断の必要性により、病理学者は作業負荷の増大に直面している。
われわれは,全スライド画像に基づいて皮膚メラノサイト性病変をトリアージする人工知能(AI)モデルを開発した。
論文 参考訳(メタデータ) (2024-10-14T13:49:04Z) - Multi-centric AI Model for Unruptured Intracranial Aneurysm Detection and Volumetric Segmentation in 3D TOF-MRI [6.397650339311053]
我々は3DTOF-MRIで未破裂脳動脈瘤(UICA)の検出と分節を併用したオープンソースのnnU-NetベースのAIモデルを開発した。
4つの異なるトレーニングデータセットが作成され、nnU-Netフレームワークがモデル開発に使用された。
一次モデルは85%の感度と0.23FP/ケースレートを示し、ADAM-challengeの勝者(61%)と、ADAMデータでトレーニングされたnnU-Net(51%)を感度で上回った。
論文 参考訳(メタデータ) (2024-08-30T08:57:04Z) - Comprehensive Multimodal Deep Learning Survival Prediction Enabled by a Transformer Architecture: A Multicenter Study in Glioblastoma [4.578027879885667]
本研究は,変圧器を用いた深層学習モデルにMR画像,臨床および分子病理学的データを統合することにより,グリオーマの生存率予測を改善することを目的とする。
このモデルは、自己教師付き学習技術を用いて、高次元MRI入力を効果的に符号化し、クロスアテンションを用いた非画像データと統合する。
論文 参考訳(メタデータ) (2024-05-21T17:44:48Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Adaptive Contrastive Learning with Dynamic Correlation for Multi-Phase
Organ Segmentation [25.171694372205774]
臓器レベルでの各ミニバッチにおけるサンプル間の類似・異種コントラスト関係に適応するデータ駆動型コントラスト損失関数を提案する。
非コントラストCTデータセットとMICCAI 2015 BTCV ChallengeのコントラストCTデータセットを併用した多臓器セグメンテーションの検討を行った。
論文 参考訳(メタデータ) (2022-10-16T22:38:30Z) - Automated segmentation of 3-D body composition on computed tomography [0.0]
VAT,SAT,IMAT,SM,骨の5種類の異なる体組成を手動でアノテートした。
畳み込みニューラルネットワーク(CNN)の性能評価と評価に10倍のクロスバリデーション法が用いられた。
3つのCNNモデルの中で、UNetは5つのボディ構成を共同でセグメント化する上で、最高の全体的な性能を示した。
論文 参考訳(メタデータ) (2021-12-16T15:38:27Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Semi-supervised learning for generalizable intracranial hemorrhage
detection and segmentation [0.0]
本研究は頭蓋内出血の検出・分節化のための半教師付き学習モデルの開発と評価である。
最初の「教師」ディープラーニングモデルは、2010年から2017年にかけて米国のある機関から収集された457ピクセルの頭部CTスキャンに基づいて訓練された。
2つ目の"学生"モデルは、このピクセルラベル付きデータセットと擬似ラベル付きデータセットの組み合わせでトレーニングされた。
論文 参考訳(メタデータ) (2021-05-03T00:14:43Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - MSED: a multi-modal sleep event detection model for clinical sleep
analysis [62.997667081978825]
ポリソムノグラムで睡眠イベントを共同検出する,単一のディープニューラルネットワークアーキテクチャを設計した。
モデルの性能は,F1,精度,リコールスコア,および指標値と臨床値との相関で定量化した。
論文 参考訳(メタデータ) (2021-01-07T13:08:44Z) - Automatic sleep stage classification with deep residual networks in a
mixed-cohort setting [63.52264764099532]
我々は,大規模コホートの一般化性を評価するために,新しいディープニューラルネットワークモデルを開発した。
総合的な分類精度はトレーニングデータの分数を増やして向上した。
論文 参考訳(メタデータ) (2020-08-21T10:48:35Z) - Deep Learning to Quantify Pulmonary Edema in Chest Radiographs [7.121765928263759]
肺浮腫の重症度を胸部X線写真で分類する機械学習モデルを開発した。
深層学習モデルは、大きな胸部X線写真データセットで訓練された。
論文 参考訳(メタデータ) (2020-08-13T15:45:44Z) - Interpretable Machine Learning Model for Early Prediction of Mortality
in Elderly Patients with Multiple Organ Dysfunction Syndrome (MODS): a
Multicenter Retrospective Study and Cross Validation [9.808639780672156]
MODS患者は死亡リスクが高く予後不良である。
本研究は,MODS高齢者の早期死亡予測のための解釈可能・一般化可能なモデルを開発することを目的とする。
論文 参考訳(メタデータ) (2020-01-28T17:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。