論文の概要: Distillation Learning Guided by Image Reconstruction for One-Shot Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2408.03616v1
- Date: Wed, 7 Aug 2024 08:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 13:34:00.750447
- Title: Distillation Learning Guided by Image Reconstruction for One-Shot Medical Image Segmentation
- Title(参考訳): 医用1ショット画像分割のための画像再構成による蒸留学習
- Authors: Feng Zhou, Yanjie Zhou, Longjie Wang, Yun Peng, David E. Carlson, Liyun Tu,
- Abstract要約: 1ショットの医用画像分割法(MIS)は、しばしば登録エラーや低品質の合成画像に悩まされる。
知識蒸留に基づく新しいワンショットMISフレームワークを提案する。
これは、画像再構成によって導かれる蒸留プロセスを通じて、ネットワークが実際の画像を直接「見る」ことを可能にする。
- 参考スコア(独自算出の注目度): 12.33442990188044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional one-shot medical image segmentation (MIS) methods use registration networks to propagate labels from a reference atlas or rely on comprehensive sampling strategies to generate synthetic labeled data for training. However, these methods often struggle with registration errors and low-quality synthetic images, leading to poor performance and generalization. To overcome this, we introduce a novel one-shot MIS framework based on knowledge distillation, which allows the network to directly 'see' real images through a distillation process guided by image reconstruction. It focuses on anatomical structures in a single labeled image and a few unlabeled ones. A registration-based data augmentation network creates realistic, labeled samples, while a feature distillation module helps the student network learn segmentation from these samples, guided by the teacher network. During inference, the streamlined student network accurately segments new images. Evaluations on three public datasets (OASIS for T1 brain MRI, BCV for abdomen CT, and VerSe for vertebrae CT) show superior segmentation performance and generalization across different medical image datasets and modalities compared to leading methods. Our code is available at https://github.com/NoviceFodder/OS-MedSeg.
- Abstract(参考訳): 従来のワンショット医療画像セグメンテーション(MIS)法では、登録ネットワークを使用して、基準アトラスからラベルを伝達したり、あるいは総合的なサンプリング戦略を使って、トレーニング用に合成ラベル付きデータを生成する。
しかし、これらの手法は、しばしば登録エラーや低品質の合成画像に苦しむため、性能や一般化は不十分である。
そこで我々は,知識蒸留に基づく新しい一発MISフレームワークを導入し,画像再構成によって導かれる蒸留プロセスを通じて,実画像を直接「見る」ことを可能にする。
単一のラベル付き画像とラベルなし画像の解剖学的構造に焦点を当てている。
登録ベースのデータ拡張ネットワークは、現実的なラベル付きサンプルを生成し、特徴蒸留モジュールは、教師ネットワークによってガイドされたこれらのサンプルから、学生ネットワークがセグメンテーションを学ぶのを助ける。
推論中、合理化された学生ネットワークは、新しい画像を正確に分割する。
T1脳MRIのOASIS, 腹部CTのBCV, 脊椎CTのVerSeの3つの公開データセットの評価では, 先行法と比較して, 異なる医用画像データセットとモダリティのセグメンテーション性能と一般化が優れていた。
私たちのコードはhttps://github.com/NoviceFodder/OS-MedSegで利用可能です。
関連論文リスト
- Explanations of Classifiers Enhance Medical Image Segmentation via
End-to-end Pre-training [37.11542605885003]
医用画像セグメンテーションは、ディープニューラルネットワークを用いて、胸部X線写真などの医用画像の異常な構造を特定し、発見することを目的としている。
我々の研究は、よく訓練された分類器から説明を集め、セグメンテーションタスクの擬似ラベルを生成する。
次に、インテグレート・グラディエント(IG)法を用いて、分類器から得られた説明を蒸留し、強化し、大規模診断指向のローカライゼーション・ラベル(DoLL)を生成する。
これらのDLLアノテーション付き画像は、新型コロナウイルス感染症、肺、心臓、鎖骨などの下流のセグメンテーションタスクのために、モデルを微調整する前に事前訓練するために使用される。
論文 参考訳(メタデータ) (2024-01-16T16:18:42Z) - Unsupervised Segmentation of Fetal Brain MRI using Deep Learning
Cascaded Registration [2.494736313545503]
従来の深層学習に基づく自動セグメンテーションは、グランドトラストラベルによる広範なトレーニングデータを必要とする。
ラベル付きデータに頼らずに複数の組織を正確にセグメンテーションするマルチアトラスセグメンテーションに基づく新しい手法を提案する。
提案手法では,3次元画像登録のためのカスケード深層学習ネットワークを用いて,移動画像への小さなインクリメンタルな変形を計算し,それを固定画像と正確に整合させる。
論文 参考訳(メタデータ) (2023-07-07T13:17:12Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Self-Supervised Generative Style Transfer for One-Shot Medical Image
Segmentation [10.634870214944055]
医用画像のセグメンテーションにおいて、教師付きディープネットワークの成功は、豊富なラベル付きデータを必要とするコストが伴う。
本稿では,ボリューム画像分割ペアを合成可能なデータ拡張のための,新しいボリューム自己教師型学習法を提案する。
我々の研究の中心的信条は、ワンショット生成学習と自己指導型学習戦略の併用による恩恵を受けている。
論文 参考訳(メタデータ) (2021-10-05T15:28:42Z) - Recurrent Mask Refinement for Few-Shot Medical Image Segmentation [15.775057485500348]
本稿では,プロトタイプネットワークに基づく数ショットの医用画像セグメンテーションのための新しいフレームワークを提案する。
1) 前景と背景領域間の局所的関係の特徴を関連付けるために相関を利用するコンテキスト関係エンコーダ(CRE)である。
2つの腹部CTデータセットと腹部MRIデータセットを用いた実験により、提案手法は最先端の方法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2021-08-02T04:06:12Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Modeling the Probabilistic Distribution of Unlabeled Data forOne-shot
Medical Image Segmentation [40.41161371507547]
我々は1ショットの脳磁気共鳴画像(MRI)画像分割のためのデータ拡張法を開発した。
提案手法は,MRI画像1枚(atlas)とラベルなし画像数枚のみを利用する。
本手法は最先端のワンショット医療セグメンテーション法より優れている。
論文 参考訳(メタデータ) (2021-02-03T12:28:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。