論文の概要: FBA-Net: Foreground and Background Aware Contrastive Learning for
Semi-Supervised Atrium Segmentation
- arxiv url: http://arxiv.org/abs/2306.15189v1
- Date: Tue, 27 Jun 2023 04:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 14:49:46.296742
- Title: FBA-Net: Foreground and Background Aware Contrastive Learning for
Semi-Supervised Atrium Segmentation
- Title(参考訳): FBA-Net:半監督されたアトリウムセグメンテーションのためのコントラスト学習
- Authors: Yunsung Chung, Chanho Lim, Chao Huang, Nassir Marrouche, and Jihun
Hamm
- Abstract要約: 半教師付き3次元医用画像セグメンテーションのための,前景と背景表現の対照的な学習戦略を提案する。
我々のフレームワークは、半教師付き3次元医用画像セグメンテーションの分野を前進させる可能性を秘めている。
- 参考スコア(独自算出の注目度): 10.11072886547561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation of gadolinium enhancement magnetic resonance
imaging (GE MRI) is an important task in clinical applications. However, manual
annotation is time-consuming and requires specialized expertise.
Semi-supervised segmentation methods that leverage both labeled and unlabeled
data have shown promise, with contrastive learning emerging as a particularly
effective approach. In this paper, we propose a contrastive learning strategy
of foreground and background representations for semi-supervised 3D medical
image segmentation (FBA-Net). Specifically, we leverage the contrastive loss to
learn representations of both the foreground and background regions in the
images. By training the network to distinguish between foreground-background
pairs, we aim to learn a representation that can effectively capture the
anatomical structures of interest. Experiments on three medical segmentation
datasets demonstrate state-of-the-art performance. Notably, our method achieves
a Dice score of 91.31% with only 20% labeled data, which is remarkably close to
the 91.62% score of the fully supervised method that uses 100% labeled data on
the left atrium dataset. Our framework has the potential to advance the field
of semi-supervised 3D medical image segmentation and enable more efficient and
accurate analysis of medical images with a limited amount of annotated labels.
- Abstract(参考訳): ガドリニウム造影MRI(GE MRI)の医用画像分割は臨床応用において重要な課題である。
しかし、マニュアルアノテーションは時間がかかり、専門的な専門知識を必要とする。
ラベル付きデータとラベルなしデータの両方を活用する半教師付きセグメンテーション手法は有望であり、対照的な学習が特に効果的なアプローチとして登場している。
本稿では,半教師付き3次元医用画像セグメンテーション(fba-net)のための前景と背景表現の対比学習戦略を提案する。
具体的には,画像中の前景領域と背景領域の両方の表現を学ぶために,コントラスト損失を利用する。
前景と背景のペアを区別するためにネットワークを訓練することにより、興味ある解剖学的構造を効果的に捉えることができる表現を学習することを目指している。
3つの医療セグメンテーションデータセットの実験は、最先端のパフォーマンスを示している。
特に,本手法は,20%のラベル付きデータで91.31%のサイススコアを達成している。これは,100%ラベル付きデータを左アトリウムデータセットで使用する完全教師付き手法の91.62%のスコアに非常に近い。
本フレームワークは, 半教師付き3次元医用画像セグメンテーションの分野を進展させる可能性があり, 注釈付きラベルを限定して, より効率的かつ正確な医用画像解析を可能にする。
関連論文リスト
- Collaborative Learning for Annotation-Efficient Volumetric MR Image
Segmentation [5.462792626065119]
本研究の目的は,各3次元訓練MR画像に対して,1つの2次元スライスラベルのみをスパースアノテーションとして探索する深層学習手法を構築することである。
半教師型・自己教師型学習スキームの強みを統合した協調学習法を開発した。
提案手法はセグメンテーション精度を大幅に向上させ, 前立腺セグメンテーションでは平均B-IoUを10.0%以上増加させた。
論文 参考訳(メタデータ) (2023-12-18T07:02:37Z) - PCDAL: A Perturbation Consistency-Driven Active Learning Approach for
Medical Image Segmentation and Classification [12.560273908522714]
監視された学習は、医用画像のアプリケーションを取得するのに費用がかかり、時間がかかり、実用的でない、大規模な注釈付きデータに大きく依存している。
アクティブラーニング(AL)手法は、アノテーションのコストを削減するために、自然な画像分類タスクに広く応用されている。
本稿では,2次元医用画像分類,セグメンテーション,および3次元医用画像分割タスクに同時に適用可能なALベースの手法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:11:46Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Cut-Paste Consistency Learning for Semi-Supervised Lesion Segmentation [0.20305676256390934]
半教師付き学習は、深層ニューラルネットワークを訓練する際のデータ効率を改善する可能性がある。
本稿では,切削ペースト増分法と整合性正規化の考え方を基礎として,簡易な半教師付き学習法を提案する。
論文 参考訳(メタデータ) (2022-10-01T04:43:54Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - Contrastive learning of global and local features for medical image
segmentation with limited annotations [10.238403787504756]
教師付きディープラーニングの成功のための重要な要件は、大きなラベル付きデータセットである。
半教師付き環境での医用画像のセグメンテーションのためのコントラスト学習フレームワークの拡張戦略を提案する。
限定的なアノテーション設定では、提案手法は、他の自己超越的および半教師付き学習技術と比較して大幅に改善される。
論文 参考訳(メタデータ) (2020-06-18T13:31:26Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。