論文の概要: DoDNet: Learning to segment multi-organ and tumors from multiple
partially labeled datasets
- arxiv url: http://arxiv.org/abs/2011.10217v1
- Date: Fri, 20 Nov 2020 04:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:58:16.083366
- Title: DoDNet: Learning to segment multi-organ and tumors from multiple
partially labeled datasets
- Title(参考訳): DoDNet: 複数の部分ラベル付きデータセットから複数臓器と腫瘍を分離する学習
- Authors: Jianpeng Zhang, Yutong Xie, Yong Xia, Chunhua Shen
- Abstract要約: 本稿では,複数の臓器と腫瘍を部分的にラベル付けしたデータセット上に分割する動的オンデマンドネットワーク(DoDNet)を提案する。
DoDNetは共有エンコーダデコーダアーキテクチャ、タスク符号化モジュール、動的畳み込みフィルタを生成するコントローラ、そして単一だが動的セグメンテーションヘッドで構成されている。
- 参考スコア(独自算出の注目度): 102.55303521877933
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the intensive cost of labor and expertise in annotating 3D medical
images at a voxel level, most benchmark datasets are equipped with the
annotations of only one type of organs and/or tumors, resulting in the
so-called partially labeling issue. To address this, we propose a dynamic
on-demand network (DoDNet) that learns to segment multiple organs and tumors on
partially labeled datasets. DoDNet consists of a shared encoder-decoder
architecture, a task encoding module, a controller for generating dynamic
convolution filters, and a single but dynamic segmentation head. The
information of the current segmentation task is encoded as a task-aware prior
to tell the model what the task is expected to solve. Different from existing
approaches which fix kernels after training, the kernels in dynamic head are
generated adaptively by the controller, conditioned on both input image and
assigned task. Thus, DoDNet is able to segment multiple organs and tumors, as
done by multiple networks or a multi-head network, in a much efficient and
flexible manner. We have created a large-scale partially labeled dataset,
termed MOTS, and demonstrated the superior performance of our DoDNet over other
competitors on seven organ and tumor segmentation tasks. We also transferred
the weights pre-trained on MOTS to a downstream multi-organ segmentation task
and achieved state-of-the-art performance. This study provides a general 3D
medical image segmentation model that has been pre-trained on a large-scale
partially labelled dataset and can be extended (after fine-tuning) to
downstream volumetric medical data segmentation tasks. The dataset and code
areavailableat: https://git.io/DoDNet
- Abstract(参考訳): 集中的な作業コストとボクセルレベルで3d医療画像に注釈を付ける専門知識のため、ほとんどのベンチマークデータセットには1種類の臓器や腫瘍のアノテーションしか備えておらず、いわゆる部分的ラベリングの問題となっている。
そこで我々は,複数の臓器と腫瘍を部分的にラベル付けしたデータセット上に分割する動的オンデマンドネットワーク(DoDNet)を提案する。
DoDNetは共有エンコーダデコーダアーキテクチャ、タスク符号化モジュール、動的畳み込みフィルタを生成するコントローラ、そして単一だが動的セグメンテーションヘッドで構成されている。
現在のセグメンテーションタスクの情報は、そのタスクが解決されることをモデルに伝える前にタスク認識としてエンコードされる。
トレーニング後のカーネルを固定する既存のアプローチとは異なり、動的ヘッドのカーネルはコントローラによって適応的に生成され、入力画像と割り当てられたタスクの両方に条件付けされる。
したがって、DoDNetは複数の臓器や腫瘍を、より効率的かつ柔軟な方法で、複数のネットワークやマルチヘッドネットワークによって分割することができる。
我々はMOTSと呼ばれる大規模な部分ラベル付きデータセットを作成し、7つの臓器と腫瘍のセグメンテーションタスクにおいて、他の競合他社よりもDoDNetの優れたパフォーマンスを実証した。
また,motsで事前学習した重みを下流のマルチオーガンセグメンテーションタスクに移し,最新性能を達成した。
本研究は,大規模部分ラベル付きデータセットで事前学習し,(微調整後)下流の医療データセグメンテーションタスクに拡張可能な,一般的な3次元医用画像セグメンテーションモデルを提供する。
データセットとコードは利用可能である。 https://git.io/DoDNet
関連論文リスト
- ESDMR-Net: A Lightweight Network With Expand-Squeeze and Dual Multiscale
Residual Connections for Medical Image Segmentation [7.921517156237902]
本稿では,拡張型マルチスケール残差ネットワーク(ESDMR-Net)を提案する。
完全な畳み込みネットワークであり、モバイルデバイスのようなリソースに制約のあるコンピューティングハードウェアに適している。
5つの異なる応用例から7つのデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-12-17T02:15:49Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - UNetFormer: A Unified Vision Transformer Model and Pre-Training
Framework for 3D Medical Image Segmentation [14.873473285148853]
UNetFormerと呼ばれる2つのアーキテクチャで構成され,3D Swin TransformerベースのエンコーダとConal Neural Network(CNN)とTransformerベースのデコーダを備えている。
提案モデルでは, 5つの異なる解像度でのスキップ接続により, エンコーダをデコーダにリンクする。
本稿では,ランダムにマスクされたトークンを予測する学習を通じて,エンコーダバックボーンの自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T17:38:39Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - 3D Segmentation Networks for Excessive Numbers of Classes: Distinct Bone
Segmentation in Upper Bodies [1.2023648183416153]
本稿では,多ラベル環境下での3次元セグメンテーションネットワークの訓練の複雑さについて論じる。
ネットワークアーキテクチャ、損失関数、データ拡張に必要となる変更を示す。
その結果,CTスキャンから学習した100以上の骨を同時に分割し,その頑健さを実証した。
論文 参考訳(メタデータ) (2020-10-14T12:54:15Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。