論文の概要: CLIP-Driven Universal Model for Organ Segmentation and Tumor Detection
- arxiv url: http://arxiv.org/abs/2301.00785v5
- Date: Thu, 17 Aug 2023 15:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 00:58:21.426307
- Title: CLIP-Driven Universal Model for Organ Segmentation and Tumor Detection
- Title(参考訳): クリップ駆動による臓器分節・腫瘍検出のためのユニバーサルモデル
- Authors: Jie Liu, Yixiao Zhang, Jie-Neng Chen, Junfei Xiao, Yongyi Lu, Bennett
A. Landman, Yixuan Yuan, Alan Yuille, Yucheng Tang, Zongwei Zhou
- Abstract要約: 本稿では,Contrastive Language-Image Pre-trainingから学習したテキストをセグメンテーションモデルに組み込んだCLIP駆動ユニバーサルモデルを提案する。
提案モデルは14のデータセットから作成され、合計3,410個のCTスキャンを使用してトレーニングを行い、さらに3つの追加データセットから6,162個の外部CTスキャンで評価する。
- 参考スコア(独自算出の注目度): 36.08551407926805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An increasing number of public datasets have shown a marked impact on
automated organ segmentation and tumor detection. However, due to the small
size and partially labeled problem of each dataset, as well as a limited
investigation of diverse types of tumors, the resulting models are often
limited to segmenting specific organs/tumors and ignore the semantics of
anatomical structures, nor can they be extended to novel domains. To address
these issues, we propose the CLIP-Driven Universal Model, which incorporates
text embedding learned from Contrastive Language-Image Pre-training (CLIP) to
segmentation models. This CLIP-based label encoding captures anatomical
relationships, enabling the model to learn a structured feature embedding and
segment 25 organs and 6 types of tumors. The proposed model is developed from
an assembly of 14 datasets, using a total of 3,410 CT scans for training and
then evaluated on 6,162 external CT scans from 3 additional datasets. We rank
first on the Medical Segmentation Decathlon (MSD) public leaderboard and
achieve state-of-the-art results on Beyond The Cranial Vault (BTCV).
Additionally, the Universal Model is computationally more efficient (6x faster)
compared with dataset-specific models, generalized better to CT scans from
varying sites, and shows stronger transfer learning performance on novel tasks.
- Abstract(参考訳): 公共データセットの増加は、自動臓器分割と腫瘍検出に顕著な影響を与えている。
しかし、各データセットの小さなサイズと部分的にラベル付けされた問題、および様々な種類の腫瘍の限られた調査のため、結果のモデルは特定の臓器や腫瘍の分節化と解剖学的構造の意味論の無視に制限されることが多く、新しい領域に拡張することもできない。
そこで本研究では,clip(con contrastive language-image pre-training)から学習したテキスト埋め込みをセグメンテーションモデルに組み込む,クリップ駆動ユニバーサルモデルを提案する。
このクリップベースのラベルエンコーディングは解剖学的関係を捉え、25の臓器と6種類の腫瘍の構造的特徴を学習することができる。
提案モデルは14のデータセットの集合から開発され、合計3,410個のCTスキャンを使用してトレーニングを行い、3つの追加データセットから6,162個の外部CTスキャンで評価する。
医用セグメンテーション・デスロン(MSD)の公開リーダーボードにランクインし、BTCV(Beyond The Cranial Vault)で最先端の結果を得る。
さらに、Universal Modelはデータセット固有のモデルに比べて計算効率が良く(6倍高速)、様々なサイトからのCTスキャンより一般化され、新しいタスクにおいてより強力な転送学習性能を示す。
関連論文リスト
- CT-based Anatomical Segmentation for Thoracic Surgical Planning: A
Benchmark Study for 3D U-shaped Deep Learning Models [0.8897689150430447]
3次元U型モデルの変種に関する最初のベンチマーク研究を行う。
本研究では,異なる注意機構,解像度ステージ数,ネットワーク構成がセグメンテーション精度および計算複雑性に与える影響について検討した。
論文 参考訳(メタデータ) (2024-02-05T17:43:02Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - 3D Medical Image Segmentation based on multi-scale MPU-Net [5.393743755706745]
本稿では,患者のCT画像に対する腫瘍分割モデルMPU-Netを提案する。
グローバルアテンション機構を備えたTransformerにインスパイアされている。
ベンチマークモデルであるU-Netと比較して、MPU-Netは優れたセグメンテーション結果を示す。
論文 参考訳(メタデータ) (2023-07-11T20:46:19Z) - Continual Segment: Towards a Single, Unified and Accessible Continual
Segmentation Model of 143 Whole-body Organs in CT Scans [31.388497540849297]
全身143の臓器をセグメント化するための1つの深部分割モデルを学習するための新しいアーキテクチャCSS学習フレームワークを提案する。
私たちは4つのデータセットから2500人以上の患者の3DCTをトレーニングし、検証しました。
論文 参考訳(メタデータ) (2023-02-01T00:49:21Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - A New Probabilistic V-Net Model with Hierarchical Spatial Feature
Transform for Efficient Abdominal Multi-Organ Segmentation [15.26560999964979]
本稿では, 階層的空間的特徴変調を用いた確率的多臓器分割ネットワークを提案する。
提案手法は公開されているAbdomenCT-1Kデータセットに基づいて訓練され、他の2つのオープンデータセットで評価される。
論文 参考訳(メタデータ) (2022-08-02T11:51:46Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Weakly Supervised 3D Classification of Chest CT using Aggregated
Multi-Resolution Deep Segmentation Features [5.938730586521215]
CT画像の病巣分類は, 症例レベルのアノテーションが原因で, 局所性に乏しい。
マルチレゾリューション・セグメンテーション・フィーチャーマップを用いて学習した意味構造概念を活用する医療分類器を提案する。
論文 参考訳(メタデータ) (2020-10-31T00:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。