論文の概要: Sparse annotation strategies for segmentation of short axis cardiac MRI
- arxiv url: http://arxiv.org/abs/2307.12619v1
- Date: Mon, 24 Jul 2023 08:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 15:03:48.939337
- Title: Sparse annotation strategies for segmentation of short axis cardiac MRI
- Title(参考訳): 短軸心MRI領域分割のためのスパースアノテーション戦略
- Authors: Josh Stein and Maxime Di Folco and Julia Schnabel
- Abstract要約: 短軸心MRIのセグメンテーションはよく研究された話題であり、教師付き環境で最先端のモデルによって優れた結果が得られた。
多くの異なるアプローチ(トランスファーラーニング、データ強化、少数ショットラーニングなど)が、注釈付きデータの少ない使用と、完全な教師付きモデルと同じようなパフォーマンスを達成するために登場した。
本稿では,スパースボリュームによるトレーニングの効果,すなわち,注釈付き症例数削減,スパースアノテーション,すなわち1ケースあたりの注釈付きスライス数削減について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Short axis cardiac MRI segmentation is a well-researched topic, with
excellent results achieved by state-of-the-art models in a supervised setting.
However, annotating MRI volumes is time-consuming and expensive. Many different
approaches (e.g. transfer learning, data augmentation, few-shot learning, etc.)
have emerged in an effort to use fewer annotated data and still achieve similar
performance as a fully supervised model. Nevertheless, to the best of our
knowledge, none of these works focus on which slices of MRI volumes are most
important to annotate for yielding the best segmentation results. In this
paper, we investigate the effects of training with sparse volumes, i.e.
reducing the number of cases annotated, and sparse annotations, i.e. reducing
the number of slices annotated per case. We evaluate the segmentation
performance using the state-of-the-art nnU-Net model on two public datasets to
identify which slices are the most important to annotate. We have shown that
training on a significantly reduced dataset (48 annotated volumes) can give a
Dice score greater than 0.85 and results comparable to using the full dataset
(160 and 240 volumes for each dataset respectively). In general, training on
more slice annotations provides more valuable information compared to training
on more volumes. Further, annotating slices from the middle of volumes yields
the most beneficial results in terms of segmentation performance, and the
apical region the worst. When evaluating the trade-off between annotating
volumes against slices, annotating as many slices as possible instead of
annotating more volumes is a better strategy.
- Abstract(参考訳): 短軸心MRIのセグメンテーションはよく研究され, 教師付き環境での最先端モデルによる優れた結果を得た。
しかし、MRIボリュームのアノテートには時間と費用がかかる。
多くの異なるアプローチ(転送学習、データ拡張、少数ショット学習など)が、注釈付きデータの使用を減らし、完全に監督されたモデルと同等のパフォーマンスを達成するために出現した。
それにもかかわらず、私たちの知る限りでは、これらの研究はどのMRIボリュームのスライスが最適なセグメンテーション結果を得るためにアノテートが最も重要であるかに焦点を当てていない。
本稿では,スパースボリュームによるトレーニングの効果,すなわち,注釈付き症例数とスパースアノテーション,すなわち1ケースあたりの注釈付きスライス数を減少させる効果について検討する。
我々は2つの公開データセット上で,最先端のnnU-Netモデルを用いてセグメント化性能を評価し,どのスライスが最も重要かを特定する。
我々は,データセット(48の注釈付きボリューム)のトレーニングにより,0.85以上のサイススコアと,データセット全体(それぞれ160ボリュームと240ボリューム)を使用した場合と同等の結果が得られることを示した。
一般的に、スライスアノテーションのトレーニングは、より多くのボリュームのトレーニングよりも価値のある情報を提供する。
さらに、ボリュームの中央からスライスを注釈すると、セグメンテーション性能において最も有益な結果となり、アピカル領域が最悪となる。
スライスに対する注釈付きボリューム間のトレードオフを評価する場合、より多くのボリュームをアノテートするのではなく、可能な限り多くのスライスをアノテートするのがよい戦略である。
関連論文リスト
- Influence of Prompting Strategies on Segment Anything Model (SAM) for
Short-axis Cardiac MRI segmentation [2.4828003234992666]
Segment Anything Model (SAM)は、最近、ファンデーションモデルにおいて重要なブレークスルーとして登場した。
本研究は, SAM基礎モデルを用いて, 心磁気共鳴画像(cMRI)短軸視分割の課題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-14T13:40:28Z) - Scribble-supervised Cell Segmentation Using Multiscale Contrastive
Regularization [9.849498498869258]
Scribble2Label (S2L) は、一握りのスクリブルと自己教師付き学習を使用することで、完全なアノテーションなしで正確なセグメンテーション結果を生成することを示した。
本研究では,S2Lに対して,新しいマルチスケールコントラスト正規化項を用いる。
主なアイデアは、ニューラルネットワークの中間層から特徴を抽出して、さまざまなスケールの構造を効果的に分離できるようにすることである。
論文 参考訳(メタデータ) (2023-06-25T06:00:33Z) - SegPrompt: Using Segmentation Map as a Better Prompt to Finetune Deep
Models for Kidney Stone Classification [62.403510793388705]
深層学習は、内視鏡画像を用いた腎臓結石分類のための奨励的な結果を生み出している。
注釈付きトレーニングデータの不足は、トレーニングされたモデルの性能と一般化能力を改善する上で深刻な問題を引き起こす。
本稿では,セグメンテーションマップを2つの側面から活用することにより,データ不足問題を軽減するためにSegPromptを提案する。
論文 参考訳(メタデータ) (2023-03-15T01:30:48Z) - Partial annotations for the segmentation of large structures with low
annotation cost [2.7998963147546143]
深層学習法は、医用画像における構造と病理の自動分割に有効であることが示されている。
そこで本研究では,各スキャンから連続的な注釈付きスライスを少量の注釈付きケースと同等のアノテーションで組み合わせた部分アノテーションの手法を提案する。
注釈付きブロックのみを使用して、興味構造外のスライスに関する情報を取り入れ、注釈付きスライスのみを考慮するためにバッチ損失関数を変更することで、部分アノテーションによるトレーニングを行う。
論文 参考訳(メタデータ) (2022-09-25T13:21:19Z) - Is Contrastive Learning Suitable for Left Ventricular Segmentation in
Echocardiographic Images? [0.0]
心エコー画像では,左心室の分画に造影前訓練が有用であるか否かを論じる。
自己教師付きでモデルをトレーニングし、わずか5%のデータを微調整すると、最先端の完全教師付きアルゴリズムに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-16T13:09:47Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - A Few Guidelines for Incremental Few-Shot Segmentation [57.34237650765928]
事前訓練されたセグメンテーションモデルと、新しいクラスを含む画像が少ないことを前提として、我々が目指すのは、以前に見たセグメンテーション能力を維持しながら、新しいクラスをセグメンテーションすることである。
このシナリオにおけるエンド・ツー・エンドのトレーニングの主な問題はどのようなものかを示します。
一 バッチ正規化統計を、バッチ正規化で修正できる新しいクラスへ向けての漂流すること。
二 旧クラスの忘れ物 正規化戦略で解決できるもの。
論文 参考訳(メタデータ) (2020-11-30T20:45:56Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - DenoiSeg: Joint Denoising and Segmentation [75.91760529986958]
我々は,いくつかの注釈付き基底真理セグメンテーションでエンドツーエンドに学習できる新しい手法であるDenoySegを提案する。
我々は、ノイズの多い画像だけで訓練できる自己教師付き遮音方式であるNoss2Voidを拡張して、密度の高い3クラスセグメンテーションを予測する。
論文 参考訳(メタデータ) (2020-05-06T17:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。