論文の概要: SegViz: A Federated Learning Framework for Medical Image Segmentation
from Distributed Datasets with Different and Incomplete Annotations
- arxiv url: http://arxiv.org/abs/2301.07074v1
- Date: Tue, 17 Jan 2023 18:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 13:15:06.635419
- Title: SegViz: A Federated Learning Framework for Medical Image Segmentation
from Distributed Datasets with Different and Incomplete Annotations
- Title(参考訳): segviz: 異なるアノテーションと不完全なアノテーションを持つ分散データセットから医用画像セグメンテーションのための連合学習フレームワーク
- Authors: Adway U. Kanhere, Pranav Kulkarni, Paul H. Yi, Vishwa S. Parekh
- Abstract要約: 分散医用画像セグメンテーションデータセットから知識を集約する学習フレームワークであるSegVizを開発した。
SegVizは、両方のノードから知識を収集する肝臓と脾臓の両方をセグメント化できるモデルを構築するように訓練された。
以上の結果から,SegVizは臨床的に翻訳可能なマルチタスクセグメンテーションモデルのトレーニングに向けた重要な第一歩であることが示された。
- 参考スコア(独自算出の注目度): 3.6704226968275258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmentation is one of the primary tasks in the application of deep learning
in medical imaging, owing to its multiple downstream clinical applications. As
a result, many large-scale segmentation datasets have been curated and released
for the segmentation of different anatomical structures. However, these
datasets focus on the segmentation of a subset of anatomical structures in the
body, therefore, training a model for each dataset would potentially result in
hundreds of models and thus limit their clinical translational utility.
Furthermore, many of these datasets share the same field of view but have
different subsets of annotations, thus making individual dataset annotations
incomplete. To that end, we developed SegViz, a federated learning framework
for aggregating knowledge from distributed medical image segmentation datasets
with different and incomplete annotations into a `global` meta-model. The
SegViz framework was trained to build a single model capable of segmenting both
liver and spleen aggregating knowledge from both these nodes by aggregating the
weights after every 10 epochs. The global SegViz model was tested on an
external dataset, Beyond the Cranial Vault (BTCV), comprising both liver and
spleen annotations using the dice similarity (DS) metric. The baseline
individual segmentation models for spleen and liver trained on their respective
datasets produced a DS score of 0.834 and 0.878 on the BTCV test set. In
comparison, the SegViz model produced comparable mean DS scores of 0.829 and
0.899 for the segmentation of the spleen and liver respectively. Our results
demonstrate SegViz as an essential first step towards training clinically
translatable multi-task segmentation models from distributed datasets with
disjoint incomplete annotations with excellent performance.
- Abstract(参考訳): セグメンテーションは、複数の下流臨床応用のために、医学画像におけるディープラーニングの応用における主要なタスクの1つである。
その結果、多くの大規模セグメンテーションデータセットが、異なる解剖学的構造のセグメンテーションのためにキュレーションされ、リリースされた。
しかしながら、これらのデータセットは、体内の解剖学的構造のサブセットのセグメンテーションに焦点を当てているため、各データセットのモデルのトレーニングは、数百のモデルをもたらす可能性があり、その臨床的翻訳能力を制限する可能性がある。
さらに、これらのデータセットの多くは同じ視野を共有しているが、アノテーションのサブセットが異なるため、個々のデータセットアノテーションは不完全である。
そこで我々は,異なるアノテーションと不完全なアノテーションを持つ分散医用画像セグメンテーションデータセットから知識を‘グローバル’メタモデルに集約する,連合学習フレームワークであるSegVizを開発した。
SegVizフレームワークは、肝臓と脾臓の両方をセグメント化し、これらのノードから知識を集約する単一のモデルを構築するように訓練された。
グローバルsegvizモデルは、dice similarity (ds) メトリックを用いて、肝臓と脾臓のアノテーションを含む頭蓋骨ヴォールト(btcv)を超えて、外部データセット上でテストされた。
それぞれのデータセットで訓練した脾臓および肝臓の基線別セグメンテーションモデルでは,BTCV試験セットのDSスコアは0.834,0.878であった。
一方、SegVizモデルでは、脾臓と肝臓の分画に対してそれぞれ0.829と0.899の平均DSスコアが得られた。
以上の結果から,segvizは分散データセットから臨床翻訳可能なマルチタスクセグメンテーションモデルを訓練するための重要な第一歩である。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - One model to use them all: Training a segmentation model with complementary datasets [38.73145509617609]
補足アノテーションを提供する部分注釈付きデータセットを1つのモデルに結合する手法を提案する。
このアプローチは6つのクラスを1つのモデルにうまく組み合わせ、全体のDice Scoreを4.4%増加させました。
胃と大腸の混同を24%減らすことができた。
論文 参考訳(メタデータ) (2024-02-29T16:46:49Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Segment Together: A Versatile Paradigm for Semi-Supervised Medical Image
Segmentation [17.69933345468061]
医用画像セグメンテーションのための強力なディープラーニングモデルをトレーニングする上で、不足は大きな障害となっている。
textbfVersatile textbfSemi-supervised framework を導入する。
論文 参考訳(メタデータ) (2023-11-20T11:35:52Z) - CEmb-SAM: Segment Anything Model with Condition Embedding for Joint
Learning from Heterogeneous Datasets [3.894987097246834]
我々は異種データセットから共同学習する問題を考察する。
異種データセットを1つのデータセットにマージし、各コンポーネントデータセットをサブグループとして参照します。
実験の結果,Cemb-SAMは末梢神経および乳癌に対する超音波画像分割法において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2023-08-14T06:22:49Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - Correlation-Aware Mutual Learning for Semi-supervised Medical Image
Segmentation [5.045813144375637]
既存の半教師付きセグメンテーション手法の多くは、ラベルのないデータから情報を取り出すことのみに焦点を当てている。
本稿では,ラベル付きデータを利用してラベル付きデータから情報を抽出する相関学習フレームワークを提案する。
提案手法は,CMA(Cross-sample Mutual Attention Module)とOCC(Omni-Correlation Consistency Module)の2つのモジュールを組み込んだ相互学習戦略に基づいている。
論文 参考訳(メタデータ) (2023-07-12T17:20:05Z) - Universal Segmentation of 33 Anatomies [19.194539991903593]
本稿では,33の解剖学的構造を普遍的に分割する単一モデルの学習手法を提案する。
我々は、複数のデータセットの結合からそのようなモデルを学び、各データセットには部分的にラベル付けされた画像が含まれている。
我々は,複数のオープンソースデータセット上でモデルを評価し,モデルが優れた一般化性能を有することを示す。
論文 参考訳(メタデータ) (2022-03-04T02:29:54Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。