論文の概要: One model to use them all: Training a segmentation model with
complementary datasets
- arxiv url: http://arxiv.org/abs/2402.19340v1
- Date: Thu, 29 Feb 2024 16:46:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 13:57:38.271337
- Title: One model to use them all: Training a segmentation model with
complementary datasets
- Title(参考訳): それらすべてを使用する1つのモデル:補完的なデータセットでセグメンテーションモデルをトレーニングする
- Authors: Alexander C. Jenke, Sebastian Bodenstedt, Fiona R. Kolbinger, Marius
Distler, J\"urgen Weitz, Stefanie Speidel
- Abstract要約: 補足アノテーションを提供する部分注釈付きデータセットを1つのモデルに結合する手法を提案する。
このアプローチは6つのクラスを1つのモデルにうまく組み合わせ、全体のDice Scoreを4.4%増加させました。
胃と大腸の混同を24%減らすことができた。
- 参考スコア(独自算出の注目度): 40.296689201958024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding a surgical scene is crucial for computer-assisted surgery
systems to provide any intelligent assistance functionality. One way of
achieving this scene understanding is via scene segmentation, where every pixel
of a frame is classified and therefore identifies the visible structures and
tissues. Progress on fully segmenting surgical scenes has been made using
machine learning. However, such models require large amounts of annotated
training data, containing examples of all relevant object classes. Such fully
annotated datasets are hard to create, as every pixel in a frame needs to be
annotated by medical experts and, therefore, are rarely available. In this
work, we propose a method to combine multiple partially annotated datasets,
which provide complementary annotations, into one model, enabling better scene
segmentation and the use of multiple readily available datasets. Our method
aims to combine available data with complementary labels by leveraging mutual
exclusive properties to maximize information. Specifically, we propose to use
positive annotations of other classes as negative samples and to exclude
background pixels of binary annotations, as we cannot tell if they contain a
class not annotated but predicted by the model. We evaluate our method by
training a DeepLabV3 on the publicly available Dresden Surgical Anatomy
Dataset, which provides multiple subsets of binary segmented anatomical
structures. Our approach successfully combines 6 classes into one model,
increasing the overall Dice Score by 4.4% compared to an ensemble of models
trained on the classes individually. By including information on multiple
classes, we were able to reduce confusion between stomach and colon by 24%. Our
results demonstrate the feasibility of training a model on multiple datasets.
This paves the way for future work further alleviating the need for one large,
fully segmented datasets.
- Abstract(参考訳): 手術シーンを理解することは、コンピュータ支援手術システムにとって、インテリジェントな補助機能を提供するために不可欠である。
このシーン理解を達成する1つの方法はシーンセグメンテーションであり、フレームのすべてのピクセルが分類され、可視構造と組織を識別する。
外科シーンの完全分割の進歩は機械学習を用いて行われている。
しかし、そのようなモデルは、関連するすべてのオブジェクトクラスの例を含む大量の注釈付きトレーニングデータを必要とします。
このような完全なアノテートデータセットは、フレーム内のすべてのピクセルを医療専門家によってアノテートする必要があるため、作成が困難である。
本研究では,補完アノテーションを提供する複数の部分注釈付きデータセットを1つのモデルに組み合わせ,シーンセグメンテーションの改善と利用可能な複数のデータセットの利用を可能にする手法を提案する。
本手法は,情報の最大化に相互排他的特性を活用することで,利用可能なデータと補完ラベルを組み合わせることを目的とする。
具体的には、他のクラスの正のアノテーションを負のサンプルとして使用し、アノテーションを含まないがモデルによって予測されるクラスを含むかどうかを判断できないため、バイナリアノテーションの背景ピクセルを除外することを提案する。
我々はDreesden surgery anatomy DatasetでDeepLabV3をトレーニングし,2分節解剖構造を複数サブセットする手法を評価した。
我々の手法は6つのクラスを1つのモデルにうまく組み合わせ、Dice Score全体の4.4%増加させました。
複数のクラスに関する情報を含めることで,胃と結腸の混乱を24%低減することができた。
本研究では,複数のデータセット上でモデルをトレーニングすることの実現可能性を示す。
これにより、将来的な作業が1つの大きな完全にセグメント化されたデータセットの必要性を緩和する道を開く。
関連論文リスト
- Segment Together: A Versatile Paradigm for Semi-Supervised Medical Image
Segmentation [17.69933345468061]
医用画像セグメンテーションのための強力なディープラーニングモデルをトレーニングする上で、不足は大きな障害となっている。
textbfVersatile textbfSemi-supervised framework を導入する。
論文 参考訳(メタデータ) (2023-11-20T11:35:52Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - Diffusion Models for Open-Vocabulary Segmentation [79.02153797465324]
OVDiffは、教師なしオープン語彙セグメンテーションに生成テキストから画像への拡散モデルを利用する新しい手法である。
トレーニング済みのコンポーネントのみに依存し、トレーニングなしで合成セグメンタを直接出力する。
論文 参考訳(メタデータ) (2023-06-15T17:51:28Z) - SegViz: A Federated Learning Framework for Medical Image Segmentation
from Distributed Datasets with Different and Incomplete Annotations [3.6704226968275258]
分散医用画像セグメンテーションデータセットから知識を集約する学習フレームワークであるSegVizを開発した。
SegVizは、両方のノードから知識を収集する肝臓と脾臓の両方をセグメント化できるモデルを構築するように訓練された。
以上の結果から,SegVizは臨床的に翻訳可能なマルチタスクセグメンテーションモデルのトレーニングに向けた重要な第一歩であることが示された。
論文 参考訳(メタデータ) (2023-01-17T18:36:57Z) - Universal Segmentation of 33 Anatomies [19.194539991903593]
本稿では,33の解剖学的構造を普遍的に分割する単一モデルの学習手法を提案する。
我々は、複数のデータセットの結合からそのようなモデルを学び、各データセットには部分的にラベル付けされた画像が含まれている。
我々は,複数のオープンソースデータセット上でモデルを評価し,モデルが優れた一般化性能を有することを示す。
論文 参考訳(メタデータ) (2022-03-04T02:29:54Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Training CNN Classifiers for Semantic Segmentation using Partially
Annotated Images: with Application on Human Thigh and Calf MRI [0.0]
複数のデータセットに異質にアノテートされた全てのラベルクラスをセグメント化する際に、一つの分類器を訓練する一連の戦略を提案する。
本研究は,画像モダリティと解剖学的領域をまたいだトレーニングと推論の効率を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2020-08-16T23:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。