論文の概要: A foundation model utilizing chest CT volumes and radiology reports for supervised-level zero-shot detection of abnormalities
- arxiv url: http://arxiv.org/abs/2403.17834v1
- Date: Tue, 26 Mar 2024 16:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 14:37:40.645532
- Title: A foundation model utilizing chest CT volumes and radiology reports for supervised-level zero-shot detection of abnormalities
- Title(参考訳): 胸部CTボリュームと放射線検査による異常診断の基礎的検討
- Authors: Ibrahim Ethem Hamamci, Sezgin Er, Furkan Almas, Ayse Gulnihan Simsek, Sevval Nil Esirgun, Irem Dogan, Muhammed Furkan Dasdelen, Bastian Wittmann, Enis Simsar, Mehmet Simsar, Emine Bensu Erdemir, Abdullah Alanbay, Anjany Sekuboyina, Berkan Lafci, Mehmet K. Ozdemir, Bjoern Menze,
- Abstract要約: 3D医療画像における計算研究における大きな課題は、包括的なデータセットの欠如である。
CT-RATEは、画像とテキストレポートを組み合わせた最初の3D医療画像データセットである。
我々はCTに焦点をあてたコントラスト言語画像事前学習フレームワークであるCT-CLIPを開発した。
- 参考スコア(独自算出の注目度): 1.8953268281326607
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A major challenge in computational research in 3D medical imaging is the lack of comprehensive datasets. Addressing this issue, our study introduces CT-RATE, the first 3D medical imaging dataset that pairs images with textual reports. CT-RATE consists of 25,692 non-contrast chest CT volumes, expanded to 50,188 through various reconstructions, from 21,304 unique patients, along with corresponding radiology text reports. Leveraging CT-RATE, we developed CT-CLIP, a CT-focused contrastive language-image pre-training framework. As a versatile, self-supervised model, CT-CLIP is designed for broad application and does not require task-specific training. Remarkably, CT-CLIP outperforms state-of-the-art, fully supervised methods in multi-abnormality detection across all key metrics, thus eliminating the need for manual annotation. We also demonstrate its utility in case retrieval, whether using imagery or textual queries, thereby advancing knowledge dissemination. The open-source release of CT-RATE and CT-CLIP marks a significant advancement in medical AI, enhancing 3D imaging analysis and fostering innovation in healthcare.
- Abstract(参考訳): 3D医療画像における計算研究における大きな課題は、包括的なデータセットの欠如である。
この問題に対処するため,CT-RATEは,画像とテキストレポートを組み合わせた最初の3次元医用画像データセットである。
CT-RATEは25,692個の非造影胸部CT巻からなり、21,304名のユニークな患者から50,188名に拡張された。
我々はCT-RATEを活用し,CTに焦点をあてたコントラスト言語画像事前学習フレームワークであるCT-CLIPを開発した。
汎用的な自己教師型モデルとして、CT-CLIPは幅広い応用のために設計されており、タスク固有の訓練を必要としない。
注目すべきなのは、CT-CLIPは、すべての主要なメトリクスの多異常検出において、最先端で完全に教師されたメソッドよりも優れており、手動のアノテーションは不要であることだ。
また,画像やテキストクエリを用いても,ケース検索においてその有用性を実証し,知識の普及を促進させる。
CT-RATEとCT-CLIPのオープンソースリリースは、医療AIの大幅な進歩と、3Dイメージング分析の強化、医療におけるイノベーションの促進を象徴している。
関連論文リスト
- RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Bootstrapping Chest CT Image Understanding by Distilling Knowledge from X-ray Expert Models [17.75505740079875]
胸部CT画像における言語利用の可能性について検討した。
胸部CT画像の理解を胸部関連診断知識を, 広く訓練された2次元X線専門家モデルから抽出し, 胸部CT画像の理解をブートストラップした。
胸部CT画像と放射線検査で12,000対以上の画像でモデルを訓練した。
論文 参考訳(メタデータ) (2024-04-07T12:17:40Z) - A Unified Multi-Phase CT Synthesis and Classification Framework for
Kidney Cancer Diagnosis with Incomplete Data [18.15801599933636]
非完全多相CTを用いた腎癌診断のための統合的枠組みを提案する。
同時に、欠落したCT画像を復元し、完了した画像セットを使用して癌サブタイプを分類する。
提案するフレームワークは,完全な3次元畳み込みニューラルネットワークに基づいている。
論文 参考訳(メタデータ) (2023-12-09T11:34:14Z) - Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - COVIDx CT-3: A Large-scale, Multinational, Open-Source Benchmark Dataset
for Computer-aided COVID-19 Screening from Chest CT Images [82.74877848011798]
胸部CT画像から新型コロナウイルスの症例を検出するための大規模ベンチマークデータセットであるCOVIDx CT-3を紹介する。
COVIDx CT-3には、少なくとも17カ国で6,068人の患者から431,205個のCTスライスが含まれている。
我々は, COVIDx CT-3データセットのデータ多様性と潜在的なバイアスについて検討し, 地理的, 集団的不均衡について検討した。
論文 参考訳(メタデータ) (2022-06-07T06:35:48Z) - CT-SGAN: Computed Tomography Synthesis GAN [4.765541373485143]
胸部CTスキャンの小さなデータセットを用いて,大規模な3次元合成CTスキャンボリュームを生成するCT-SGANモデルを提案する。
その結果,CT-SGANは大量の合成データに基づいて結節を事前訓練することにより,肺検出精度を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-10-14T22:20:40Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。