論文の概要: X2CT-CLIP: Enable Multi-Abnormality Detection in Computed Tomography from Chest Radiography via Tri-Modal Contrastive Learning
- arxiv url: http://arxiv.org/abs/2503.02162v2
- Date: Tue, 11 Mar 2025 00:50:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:40:10.905627
- Title: X2CT-CLIP: Enable Multi-Abnormality Detection in Computed Tomography from Chest Radiography via Tri-Modal Contrastive Learning
- Title(参考訳): X2CT-CLIP:Tri-Modal Contrastive Learningによる胸部X線CTのマルチ異常検出
- Authors: Jianzhong You, Yuan Gao, Sangwook Kim, Chris Mcintosh,
- Abstract要約: 我々はCTとCXRのモダリティギャップを埋める3モーダルな知識伝達学習フレームワークであるX2CT-CLIPを提案する。
CXRエンコーダに3次元CTボリュームと関連する放射線学レポートから知識を伝達することにより,CTにおける多重異常分類を可能にするための最初の試みである。
- 参考スコア(独自算出の注目度): 18.954939735299963
- License:
- Abstract: Computed tomography (CT) is a key imaging modality for diagnosis, yet its clinical utility is marred by high radiation exposure and long turnaround times, restricting its use for larger-scale screening. Although chest radiography (CXR) is more accessible and safer, existing CXR foundation models focus primarily on detecting diseases that are readily visible on the CXR. Recently, works have explored training disease classification models on simulated CXRs, but they remain limited to recognizing a single disease type from CT. CT foundation models have also emerged with significantly improved detection of pathologies in CT. However, the generalized application of CT-derived labels on CXR has remained illusive. In this study, we propose X2CT-CLIP, a tri-modal knowledge transfer learning framework that bridges the modality gap between CT and CXR while reducing the computational burden of model training. Our approach is the first work to enable multi-abnormality classification in CT, using CXR, by transferring knowledge from 3D CT volumes and associated radiology reports to a CXR encoder via a carefully designed tri-modal alignment mechanism in latent space. Extensive evaluations on three multi-label CT datasets demonstrate that our method outperforms state-of-the-art baselines in cross-modal retrieval, few-shot adaptation, and external validation. These results highlight the potential of CXR, enriched with knowledge derived from CT, as a viable efficient alternative for disease detection in resource-limited settings.
- Abstract(参考訳): CT(Computed tomography)は診断における重要な画像モダリティであるが、その臨床的有用性は放射線曝露と長時間のターンアラウンド時間によって損なわれ、より大規模なスクリーニングに使用されることが制限されている。
胸部X線撮影(CXR)はよりアクセスしやすく、安全であるが、既存のCXR基盤モデルは、主にCXRで容易に見える疾患を検出することに焦点を当てている。
近年, 模擬CXRの訓練疾患分類モデルの検討が進められている。
CTファンデーションモデルも,CTの病態の検出を著しく改善した。
しかし、CT由来のラベルのCXRへの一般化は、いまだに解明されていない。
本研究では,CTとCXRのモダリティギャップを埋める3モーダルな知識伝達学習フレームワークであるX2CT-CLIPを提案する。
提案手法は,CXRを用いたCTにおける多重異常分類を実現するための最初の試みであり,3次元CTボリュームと関連する放射線学報告からの知識を,遅延空間におけるトリモーダルアライメント機構を念頭に設計したCXRエンコーダに転送するものである。
3つの多ラベルCTデータセットの広範囲な評価により, クロスモーダル検索, 少数ショット適応, 外部検証において, 最先端のベースラインよりも優れた結果が得られた。
これらの結果から,CTから得られた知識を豊富に活用したCXRが,資源制限環境での疾患検出に有効な代替手段となる可能性が示唆された。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - X-Recon: Learning-based Patient-specific High-Resolution CT Reconstruction from Orthogonal X-Ray Images [14.04604990570727]
X-Reconは、左右胸部X線画像に基づく再構成ネットワークである。
PTX-Segはゼロショット気胸セグメンテーションアルゴリズムである。
再現度はピーク信号対雑音比を含むいくつかの指標で最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-07-22T03:55:36Z) - X-ray2CTPA: Generating 3D CTPA scans from 2D X-ray conditioning [24.233484690096898]
胸部X線または胸部X線撮影(CXR)はCTスキャンと比較して限られた画像撮影を可能にする。
CTスキャンはCXRよりもコストが高く、放射線被曝も大きく、アクセス性も低い。
本研究では,2次元低コントラスト分解能X線入力から3次元高コントラストおよび空間分解能Aスキャンへのクロスモーダル変換について検討する。
論文 参考訳(メタデータ) (2024-06-23T13:53:35Z) - CT Reconstruction from Few Planar X-rays with Application towards
Low-resource Radiotherapy [20.353246282326943]
先行データ分布を用いた5次元平面X線観測からCTボリュームを生成する手法を提案する。
臨床に関連のある特徴に焦点をあてるために,本モデルは訓練中に解剖学的指導を活用できる。
本手法は, 標準画素, 構造レベルの基準値から, 近年のスパースCT再建基準値よりも優れている。
論文 参考訳(メタデータ) (2023-08-04T01:17:57Z) - Revisiting Computer-Aided Tuberculosis Diagnosis [56.80999479735375]
結核(TB)は世界的な健康上の脅威であり、毎年何百万人もの死者を出している。
深層学習を用いたコンピュータ支援結核診断 (CTD) は有望であるが, 限られたトレーニングデータによって進行が妨げられている。
結核X線(TBX11K)データセットは11,200個の胸部X線(CXR)画像とそれに対応するTB領域のバウンディングボックスアノテーションを含む。
このデータセットは、高品質なCTDのための洗練された検出器のトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-07-06T08:27:48Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Chest X-ray Image Classification: A Causal Perspective [49.87607548975686]
本稿では,CXR分類問題に対処する因果的アプローチを提案し,構造因果モデル(SCM)を構築し,CXR分類に有効な視覚情報を選択するためにバックドア調整を用いる。
実験の結果,提案手法はオープンソースNIH ChestX-ray14の分類性能に優れていた。
論文 参考訳(メタデータ) (2023-05-20T03:17:44Z) - Improving Computed Tomography (CT) Reconstruction via 3D Shape Induction [3.1498833540989413]
再現モデルのトレーニング中に現実的なX線分布を取り入れた新しい手法として,CTの監督なしに3次元CTの形状を学習する形状誘導法を提案する。
本研究は, 肺疾患におけるCTの知覚的品質と下流分類の精度を両立させることを実証した。
論文 参考訳(メタデータ) (2022-08-23T13:06:02Z) - COVIDx CT-3: A Large-scale, Multinational, Open-Source Benchmark Dataset
for Computer-aided COVID-19 Screening from Chest CT Images [82.74877848011798]
胸部CT画像から新型コロナウイルスの症例を検出するための大規模ベンチマークデータセットであるCOVIDx CT-3を紹介する。
COVIDx CT-3には、少なくとも17カ国で6,068人の患者から431,205個のCTスライスが含まれている。
我々は, COVIDx CT-3データセットのデータ多様性と潜在的なバイアスについて検討し, 地理的, 集団的不均衡について検討した。
論文 参考訳(メタデータ) (2022-06-07T06:35:48Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z) - Multi-modality super-resolution loss for GAN-based super-resolution of
clinical CT images using micro CT image database [1.5247645805472543]
本稿では,GANに基づく超解像のための多モード損失関数を提案する。
臨床CTおよびマイクロCTボリュームの未整備のトレーニングデータセット上で、画像構造と強度を維持することができる。
論文 参考訳(メタデータ) (2019-12-30T07:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。