論文の概要: Virtual-Eyes: Quantitative Validation of a Lung CT Quality-Control Pipeline for Foundation-Model Cancer Risk Prediction
- arxiv url: http://arxiv.org/abs/2512.24294v1
- Date: Tue, 30 Dec 2025 15:34:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.415571
- Title: Virtual-Eyes: Quantitative Validation of a Lung CT Quality-Control Pipeline for Foundation-Model Cancer Risk Prediction
- Title(参考訳): Virtual-Eyes:基礎モデル癌リスク予測のための肺CT品質コントロルパイプラインの定量的検証
- Authors: Md. Enamul Hoq, Linda Larson-Prior, Fred Prior,
- Abstract要約: 低用量肺癌スクリーニングのためのディープラーニングパイプラインでは、前処理が定量化されることはめったにない。
我々は16ビットのCT品質制御パイプラインであるVirtualEyesを開発し、一般基礎モデルと専門モデルに対するその影響を測定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust preprocessing is rarely quantified in deep-learning pipelines for low-dose CT (LDCT) lung cancer screening. We develop and validate Virtual-Eyes, a clinically motivated 16-bit CT quality-control pipeline, and measure its differential impact on generalist foundation models versus specialist models. Virtual-Eyes enforces strict 512x512 in-plane resolution, rejects short or non-diagnostic series, and extracts a contiguous lung block using Hounsfield-unit filtering and bilateral lung-coverage scoring while preserving the native 16-bit grid. Using 765 NLST patients (182 cancer, 583 non-cancer), we compute slice-level embeddings from RAD-DINO and Merlin with frozen encoders and train leakage-free patient-level MLP heads; we also evaluate Sybil and a 2D ResNet-18 baseline under Raw versus Virtual-Eyes inputs without backbone retraining. Virtual-Eyes improves RAD-DINO slice-level AUC from 0.576 to 0.610 and patient-level AUC from 0.646 to 0.683 (mean pooling) and from 0.619 to 0.735 (max pooling), with improved calibration (Brier score 0.188 to 0.112). In contrast, Sybil and ResNet-18 degrade under Virtual-Eyes (Sybil AUC 0.886 to 0.837; ResNet-18 AUC 0.571 to 0.596) with evidence of context dependence and shortcut learning, and Merlin shows limited transferability (AUC approximately 0.507 to 0.567) regardless of preprocessing. These results demonstrate that anatomically targeted QC can stabilize and improve generalist foundation-model workflows but may disrupt specialist models adapted to raw clinical context.
- Abstract(参考訳): 低用量CT(LDCT)肺がん検診のためのディープラーニングパイプラインにおいて,ロバスト前処理が定量化されることは稀である。
臨床動機付16ビットCT品質制御パイプラインであるVirtual-Eyesを開発した。
Virtual-Eyesは512x512の平面解像度を厳格に強制し、短いまたは非診断系列を拒絶し、ネイティブの16ビットグリッドを保存しながら、ハウンズフィールドユニットフィルタリングと両側の肺被覆スコアを用いて連続した肺ブロックを抽出する。
765例のNLST患者 (182例, 非癌583例) を用いて, RAD-DINOとMerlinのスライスレベル埋め込みを凍結エンコーダで計算し, リークフリーの患者レベルMLPヘッドをトレーニングし, またRaw vs Virtual-Eyesによる2D ResNet-18ベースラインの評価を行った。
Virtual-EyesはRAD-DINOスライスレベルAUCを0.576から0.610に、患者レベルAUCを0.646から0.683(平均プール)に、そして0.619から0.735(最大プール)に改善し、キャリブレーションを改善した(Brierスコア0.188から0.112)。
対照的に、SybilとResNet-18は仮想アイス(Sybil AUC 0.886 - 0.837; ResNet-18 AUC 0.571 - 0.596)の下で分解され、文脈依存やショートカット学習の証拠があり、Merlinは前処理によらず限られた転送可能性(AUC 0.507 - 0.567)を示す。
これらの結果は、解剖学的に標的としたQCは、一般的な基礎モデルワークフローを安定させ改善するが、生臨床に適応した専門モデルを破壊する可能性があることを示している。
関連論文リスト
- Neural Discrete Representation Learning for Sparse-View CBCT Reconstruction: From Algorithm Design to Prospective Multicenter Clinical Evaluation [64.42236775544579]
コーンビームCT(CBCT)ガイド下穿刺は胸部腫瘍の診断・治療に確立されたアプローチとなっている。
DeepPriorCBCTは3段階のディープラーニングフレームワークであり、従来の放射線線量の6分の1しか使用せずに診断段階の再構築を実現する。
論文 参考訳(メタデータ) (2025-11-30T12:45:02Z) - Click, Predict, Trust: Clinician-in-the-Loop AI Segmentation for Lung Cancer CT-Based Prognosis within the Knowledge-to-Action Framework [0.7340285482623061]
肺がんは依然としてがん死亡の主な原因であり、CT像はスクリーニング、予後、治療の中心となっている。
ディープラーニング(DL)は自動化を提供するが、臨床導入の障壁に直面している。
本研究は, 診断精度, 臨床信頼度を高めるために, ループ内DLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-10-19T23:02:43Z) - A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - ViT-2SPN: Vision Transformer-based Dual-Stream Self-Supervised Pretraining Networks for Retinal OCT Classification [0.10241134756773226]
Vision Transformer-based Dual-Stream Self-Supervised Pretraining Network (ViT-2SPN) は、特徴抽出を強化し、診断精度を向上させるために設計された新しいフレームワークである。
ViT-2SPNは3段階のワークフロー、Supervised Pretraining、Self-Supervised Pretraining、Supervised Fine-Tuningを採用している。
ViT-2SPN は平均 AUC 0.93 、精度 0.77 、精度 0.81 、リコール 0.75 、F1 スコア 0.76 を達成し、既存の SSP 法より優れている。
論文 参考訳(メタデータ) (2025-01-28T19:41:38Z) - BeyondCT: A deep learning model for predicting pulmonary function from chest CT scans [2.602923751641061]
BeyondCT モデルは,非造影胸部CT から1秒間 (FEV1) の強制活量および強制呼気量を予測するために開発された。
肺機能予測には非造影胸部CT検査が有用であった。
論文 参考訳(メタデータ) (2024-08-10T22:28:02Z) - Rapid quantification of COVID-19 pneumonia burden from computed
tomography with convolutional LSTM networks [1.0072268949897432]
新型肺炎における肺病変の迅速定量と分化のための新しい完全自動化ディープラーニングフレームワークを提案する。
SARS-CoV-2の陽性逆転写ポリメラーゼ連鎖反応試験結果を有する197例のCTデータセット上で,この方法の性能を評価した。
論文 参考訳(メタデータ) (2021-03-31T22:09:14Z) - COVID-Net CT-2: Enhanced Deep Neural Networks for Detection of COVID-19
from Chest CT Images Through Bigger, More Diverse Learning [70.92379567261304]
胸部CT画像からのCOVID-19検出のための深部ニューラルネットワークであるCOVID-Net CT-2を導入する。
説明力を活用して、COVID-Net CT-2の意思決定行動を調査します。
結果は有望であり、コンピュータ支援型COVID-19アセスメントの有効なツールとして、ディープニューラルネットワークの強い可能性を示唆している。
論文 参考訳(メタデータ) (2021-01-19T03:04:09Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - An Efficient Mixture of Deep and Machine Learning Models for COVID-19
and Tuberculosis Detection Using X-Ray Images in Resource Limited Settings [2.408714894793063]
最前線の臨床医は、症状のある患者が本当に新型コロナウイルスに感染しているかどうかを迅速に判断する必要がある。
この作業の難しさは、バイオテクノロジーテストにアクセスできない可能性のある低い資源設定で悪化する。
胸部X線画像から深部特徴(DF)を抽出し,その後の機械学習手法を用いて分類する。
論文 参考訳(メタデータ) (2020-07-16T09:49:49Z) - Predicting COVID-19 Pneumonia Severity on Chest X-ray with Deep Learning [57.00601760750389]
前頭部胸部X線画像の重症度予測モデルを提案する。
このようなツールは、エスカレーションやケアの非エスカレーションに使用できる新型コロナウイルスの肺感染症の重症度を測定することができる。
論文 参考訳(メタデータ) (2020-05-24T23:13:16Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。