論文の概要: Quality or Quantity: Toward a Unified Approach for Multi-organ
Segmentation in Body CT
- arxiv url: http://arxiv.org/abs/2203.01934v1
- Date: Thu, 3 Mar 2022 00:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 05:37:36.915318
- Title: Quality or Quantity: Toward a Unified Approach for Multi-organ
Segmentation in Body CT
- Title(参考訳): 品質・量:身体CTにおける多臓器分割への統一的アプローチに向けて
- Authors: Fakrul Islam Tushar, Husam Nujaim, Wanyi Fu, Ehsan Abadi, Maciej A.
Mazurowski, Ehsan Samei, William P. Segars, Joseph Y. Lo
- Abstract要約: 医用画像の臓器セグメンテーションは、仮想画像治験における重要なステップである。
本研究では,品質と量とのトレードオフについて検討した。
- 参考スコア(独自算出の注目度): 3.188202211222004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organ segmentation of medical images is a key step in virtual imaging trials.
However, organ segmentation datasets are limited in terms of quality (because
labels cover only a few organs) and quantity (since case numbers are limited).
In this study, we explored the tradeoffs between quality and quantity. Our goal
is to create a unified approach for multi-organ segmentation of body CT, which
will facilitate the creation of large numbers of accurate virtual phantoms.
Initially, we compared two segmentation architectures, 3D-Unet and DenseVNet,
which were trained using XCAT data that is fully labeled with 22 organs, and
chose the 3D-Unet as the better performing model. We used the XCAT-trained
model to generate pseudo-labels for the CT-ORG dataset that has only 7 organs
segmented. We performed two experiments: First, we trained 3D-UNet model on the
XCAT dataset, representing quality data, and tested it on both XCAT and CT-ORG
datasets. Second, we trained 3D-UNet after including the CT-ORG dataset into
the training set to have more quantity. Performance improved for segmentation
in the organs where we have true labels in both datasets and degraded when
relying on pseudo-labels. When organs were labeled in both datasets, Exp-2
improved Average DSC in XCAT and CT-ORG by 1. This demonstrates that quality
data is the key to improving the model's performance.
- Abstract(参考訳): 医療画像の臓器セグメンテーションは、仮想画像の試行において重要なステップである。
しかし、オルガンセグメンテーションデータセットは品質(ラベルは数臓器しかカバーしていないため)と量(ケース番号が限られているため)で制限されている。
本研究では,品質と量とのトレードオフについて検討した。
我々のゴールは、身体CTの多臓器分割のための統一的なアプローチを作ることで、多数の正確な仮想ファントムの作成を容易にすることである。
まず、2つのセグメンテーションアーキテクチャ(3d-unet と densevnet)を比較した。それらは、22の臓器で完全にラベル付けされたxcatデータを使用してトレーニングされ、3d-unet をよりよいパフォーマンスモデルとして選択した。
我々はXCAT訓練モデルを用いて、7つの臓器のみを分節したCT-ORGデータセットの擬似ラベルを生成する。
まず、XCATデータセット上で3D-UNetモデルをトレーニングし、品質データを表現し、XCATデータセットとCT-ORGデータセットの両方でテストしました。
次に,CT-ORGデータセットをトレーニングセットに組み込んだ3D-UNetのトレーニングを行った。
データセットの両方に真のラベルがあり、擬似ラベルに依存すると劣化するオルガンのセグメンテーションのパフォーマンスが向上した。
両データセットに臓器をラベル付けした場合,Exp-2ではXCATでは平均DSC,CT-ORGでは1。
これは、品質データがモデルの性能を改善する鍵であることを示している。
関連論文リスト
- The impact of training dataset size and ensemble inference strategies on
head and neck auto-segmentation [0.0]
コンボリューショナルニューラルネットワーク(CNN)は、放射線治療において臓器とリスクのセグメンテーションを自動化するためにますます使われている。
頭部・頸部自動分離モデルの正確かつ堅牢な訓練に要するデータ量について検討した。
確立された3D CNNは、スクラッチから異なるサイズのデータセット(25-1000スキャン)を用いて訓練され、脳幹、耳下腺、脊髄をCTで分割した。
これらのモデルの性能向上のために,複数のアンサンブル手法を評価した。
論文 参考訳(メタデータ) (2023-03-30T12:14:07Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Multi-organ Segmentation Network with Adversarial Performance Validator [10.775440368500416]
本稿では,2次元から3次元のセグメンテーションフレームワークに対向的な性能検証ネットワークを導入する。
提案したネットワークは, 2次元粗い結果から3次元高品質なセグメンテーションマスクへの変換を行い, 共同最適化によりセグメンテーション精度が向上する。
NIH膵分節データセットの実験では、提案したネットワークが小臓器分節の最先端の精度を達成し、過去の最高性能を上回った。
論文 参考訳(メタデータ) (2022-04-16T18:00:29Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - DoDNet: Learning to segment multi-organ and tumors from multiple
partially labeled datasets [102.55303521877933]
本稿では,複数の臓器と腫瘍を部分的にラベル付けしたデータセット上に分割する動的オンデマンドネットワーク(DoDNet)を提案する。
DoDNetは共有エンコーダデコーダアーキテクチャ、タスク符号化モジュール、動的畳み込みフィルタを生成するコントローラ、そして単一だが動的セグメンテーションヘッドで構成されている。
論文 参考訳(メタデータ) (2020-11-20T04:56:39Z) - Bidirectional RNN-based Few Shot Learning for 3D Medical Image
Segmentation [11.873435088539459]
対象臓器アノテーションの限られたトレーニングサンプルを用いて, 正確な臓器分類を行うための3次元ショットセグメンテーションフレームワークを提案する。
U-Netのようなネットワークは、サポートデータの2次元スライスとクエリイメージの関係を学習することでセグメンテーションを予測するように設計されている。
異なる臓器のアノテーションを付加した3つの3次元CTデータセットを用いて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2020-11-19T01:44:55Z) - Weakly Supervised 3D Classification of Chest CT using Aggregated
Multi-Resolution Deep Segmentation Features [5.938730586521215]
CT画像の病巣分類は, 症例レベルのアノテーションが原因で, 局所性に乏しい。
マルチレゾリューション・セグメンテーション・フィーチャーマップを用いて学習した意味構造概念を活用する医療分類器を提案する。
論文 参考訳(メタデータ) (2020-10-31T00:16:53Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。