論文の概要: Universal Segmentation of 33 Anatomies
- arxiv url: http://arxiv.org/abs/2203.02098v1
- Date: Fri, 4 Mar 2022 02:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:44:25.389707
- Title: Universal Segmentation of 33 Anatomies
- Title(参考訳): 33の解剖学のユニバーサルセグメンテーション
- Authors: Pengbo Liu, Yang Deng, Ce Wang, Yuan Hui, Qian Li, Jun Li, Shiwei Luo,
Mengke Sun, Quan Quan, Shuxin Yang, You Hao, Honghu Xiao, Chunpeng Zhao,
Xinbao Wu, and S. Kevin Zhou
- Abstract要約: 本稿では,33の解剖学的構造を普遍的に分割する単一モデルの学習手法を提案する。
我々は、複数のデータセットの結合からそのようなモデルを学び、各データセットには部分的にラベル付けされた画像が含まれている。
我々は,複数のオープンソースデータセット上でモデルを評価し,モデルが優れた一般化性能を有することを示す。
- 参考スコア(独自算出の注目度): 19.194539991903593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the paper, we present an approach for learning a single model that
universally segments 33 anatomical structures, including vertebrae, pelvic
bones, and abdominal organs. Our model building has to address the following
challenges. Firstly, while it is ideal to learn such a model from a
large-scale, fully-annotated dataset, it is practically hard to curate such a
dataset. Thus, we resort to learn from a union of multiple datasets, with each
dataset containing the images that are partially labeled. Secondly, along the
line of partial labelling, we contribute an open-source, large-scale vertebra
segmentation dataset for the benefit of spine analysis community, CTSpine1K,
boasting over 1,000 3D volumes and over 11K annotated vertebrae. Thirdly, in a
3D medical image segmentation task, due to the limitation of GPU memory, we
always train a model using cropped patches as inputs instead a whole 3D volume,
which limits the amount of contextual information to be learned. To this, we
propose a cross-patch transformer module to fuse more information in adjacent
patches, which enlarges the aggregated receptive field for improved
segmentation performance. This is especially important for segmenting, say, the
elongated spine. Based on 7 partially labeled datasets that collectively
contain about 2,800 3D volumes, we successfully learn such a universal model.
Finally, we evaluate the universal model on multiple open-source datasets,
proving that our model has a good generalization performance and can
potentially serve as a solid foundation for downstream tasks.
- Abstract(参考訳): 本稿では, 椎骨, 骨盤骨, 腹部器官など33の解剖学的構造を普遍的に区分する単一モデルを学ぶためのアプローチを提案する。
私たちのモデル構築は、以下の課題に対処する必要があります。
第一に、大規模で完全に注釈付きデータセットからそのようなモデルを学ぶのは理想的ですが、そのようなデータセットのキュレーションは事実上困難です。
したがって、複数のデータセットの結合から学習し、各データセットには部分的にラベル付けされた画像が含まれている。
第2に,部分的ラベリングのラインに沿って,背骨解析コミュニティであるctspine1kの利益のために,オープンソースの大規模な椎骨セグメンテーションデータセットを提供し,1,000以上の3dボリュームと1k以上の注釈付き椎骨を誇っている。
第三に、GPUメモリの制限により、3次元の医用画像分割タスクにおいて、我々は常に、収集したパッチを入力として使用し、学習するコンテキスト情報の量を制限する3次元ボリューム全体をトレーニングする。
そこで本研究では,隣接パッチでより多くの情報を融合するクロスパッチトランスフォーマーモジュールを提案する。
これは、例えば細長い脊椎のセグメンテーションにおいて特に重要である。
約2800の3Dボリュームを含む7つの部分ラベル付きデータセットに基づいて、そのような普遍的なモデルを学ぶことに成功した。
最後に、複数のオープンソースデータセット上でのユニバーサルモデルの評価を行い、我々のモデルが優れた一般化性能を持ち、下流タスクの基盤となる可能性を証明した。
関連論文リスト
- ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - Label-Efficient 3D Brain Segmentation via Complementary 2D Diffusion Models with Orthogonal Views [10.944692719150071]
相補的な2次元拡散モデルを用いた新しい3次元脳分割法を提案する。
私たちのゴールは、個々の主題に対して完全なラベルを必要とせずに、信頼性の高いセグメンテーション品質を達成することです。
論文 参考訳(メタデータ) (2024-07-17T06:14:53Z) - One model to use them all: Training a segmentation model with complementary datasets [38.73145509617609]
補足アノテーションを提供する部分注釈付きデータセットを1つのモデルに結合する手法を提案する。
このアプローチは6つのクラスを1つのモデルにうまく組み合わせ、全体のDice Scoreを4.4%増加させました。
胃と大腸の混同を24%減らすことができた。
論文 参考訳(メタデータ) (2024-02-29T16:46:49Z) - One Model to Rule them All: Towards Universal Segmentation for Medical Images with Text Prompts [62.55349777609194]
我々は、SATと呼ばれるテキストプロンプトによって駆動される放射線学的スキャンにおいて、任意のセグメンテーションを可能にするモデルを構築することを目指している。
トレーニングのために、最大かつ最も包括的なセグメンテーションデータセットを構築します。
我々はSAT-Nano(110Mパラメータ)とSAT-Pro(447Mパラメータ)をトレーニングし、データセット/サブセット毎にトレーニングされた72の専門家nnU-Netに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-28T18:16:00Z) - SegViz: A Federated Learning Framework for Medical Image Segmentation
from Distributed Datasets with Different and Incomplete Annotations [3.6704226968275258]
分散医用画像セグメンテーションデータセットから知識を集約する学習フレームワークであるSegVizを開発した。
SegVizは、両方のノードから知識を収集する肝臓と脾臓の両方をセグメント化できるモデルを構築するように訓練された。
以上の結果から,SegVizは臨床的に翻訳可能なマルチタスクセグメンテーションモデルのトレーニングに向けた重要な第一歩であることが示された。
論文 参考訳(メタデータ) (2023-01-17T18:36:57Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z) - Universal Medical Image Segmentation using 3D Fabric Image
Representation Encoding Networks [8.691611603448152]
本稿では,Fabric Image Representationというネットワークを提案する。
Network (FIRENet) - 同時3Dマルチデータセットセグメンテーションのためのネットワーク。
本研究では, FIRENetを人工膝関節, 肩関節, 股関節の複数のデータセットを含む3次元普遍骨分割に適用した。
論文 参考訳(メタデータ) (2020-06-28T11:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。