論文の概要: Inpainting is All You Need: A Diffusion-based Augmentation Method for Semi-supervised Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2506.23038v1
- Date: Sat, 28 Jun 2025 23:44:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.680684
- Title: Inpainting is All You Need: A Diffusion-based Augmentation Method for Semi-supervised Medical Image Segmentation
- Title(参考訳): インペインティングは必要なものすべて:半教師型医用画像分割のための拡散法による拡張法
- Authors: Xinrong Hu, Yiyu Shi,
- Abstract要約: AugPaintは、限られたラベル付きデータからイメージラベルペアを生成するフレームワークである。
4つの公開医用画像セグメンテーションデータセットを用いたデータ拡張手法の評価を行った。
すべてのデータセットにおける結果は、AugPaintが最先端のラベル効率の方法論より優れていることを示している。
- 参考スコア(独自算出の注目度): 8.772764547425291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collecting pixel-level labels for medical datasets can be a laborious and expensive process, and enhancing segmentation performance with a scarcity of labeled data is a crucial challenge. This work introduces AugPaint, a data augmentation framework that utilizes inpainting to generate image-label pairs from limited labeled data. AugPaint leverages latent diffusion models, known for their ability to generate high-quality in-domain images with low overhead, and adapts the sampling process for the inpainting task without need for retraining. Specifically, given a pair of image and label mask, we crop the area labeled with the foreground and condition on it during reversed denoising process for every noise level. Masked background area would gradually be filled in, and all generated images are paired with the label mask. This approach ensures the accuracy of match between synthetic images and label masks, setting it apart from existing dataset generation methods. The generated images serve as valuable supervision for training downstream segmentation models, effectively addressing the challenge of limited annotations. We conducted extensive evaluations of our data augmentation method on four public medical image segmentation datasets, including CT, MRI, and skin imaging. Results across all datasets demonstrate that AugPaint outperforms state-of-the-art label-efficient methodologies, significantly improving segmentation performance.
- Abstract(参考訳): 医療データセットのピクセルレベルのラベルの収集は、面倒で高価なプロセスであり、ラベル付きデータの不足によるセグメンテーションパフォーマンスの向上は、非常に難しい課題である。
この研究は、インペイントを利用してラベル付き限られたデータからイメージラベルペアを生成するデータ拡張フレームワークであるAugPaintを紹介する。
AugPaintは遅延拡散モデルを活用し、低オーバーヘッドで高品質なドメイン内画像を生成できることで知られる。
具体的には、一対の画像とラベルマスクが与えられた場合、各ノイズレベルに対する逆デノナイジング過程において、前景と条件でラベル付けされた領域を収穫する。
マスクされた背景領域は徐々に埋められ、生成された画像はすべてラベルマスクとペアリングされる。
このアプローチにより、合成画像とラベルマスクの一致の精度が保証され、既存のデータセット生成方法とは分離される。
生成された画像は下流のセグメンテーションモデルをトレーニングするための貴重な監督役であり、制限されたアノテーションの課題に効果的に対処する。
我々は,CT,MRI,皮膚画像を含む4つの公開医用画像セグメント化データセットを用いて,データ拡張手法の広範な評価を行った。
すべてのデータセットにわたる結果から、AugPaintは最先端のラベル効率の高い方法論より優れており、セグメンテーション性能が大幅に向上していることが示されている。
関連論文リスト
- Semi-Supervised Biomedical Image Segmentation via Diffusion Models and Teacher-Student Co-Training [7.915123555266876]
セマンティックセグメンテーションの深層学習は, 医用画像の解剖学的, 病理学的構造を正確に同定する上で, 優れた成果を上げている。
多くの場合、大きなアノテートされたトレーニングデータセットを必要とするため、臨床環境でのスケーラビリティが制限される。
本稿では, バイオメディカルイメージセグメンテーションのための半教師型教員学生フレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-04-02T09:41:43Z) - Dataset Diffusion: Diffusion-based Synthetic Dataset Generation for
Pixel-Level Semantic Segmentation [6.82236459614491]
テキストから画像への生成モデルであるStable Diffusionを用いて,ピクセルレベルのセマンティックセマンティックセマンティクスラベルを生成する手法を提案する。
テキストプロンプト,クロスアテンション,SDの自己アテンションを活用することで,クラスプロンプト付加,クラスプロンプト横断アテンション,自己アテンション指数の3つの新しい手法を導入する。
これらの手法により合成画像に対応するセグメンテーションマップを生成することができる。
論文 参考訳(メタデータ) (2023-09-25T17:19:26Z) - DiffuMask: Synthesizing Images with Pixel-level Annotations for Semantic
Segmentation Using Diffusion Models [68.21154597227165]
本研究では,オフザシェルフ安定拡散モデルにより生成された合成画像の正確なセマンティックマスクを自動で取得できることを示す。
我々のアプローチはDiffuMaskと呼ばれ、テキストと画像間の相互注意マップの可能性を利用しています。
論文 参考訳(メタデータ) (2023-03-21T08:43:15Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - High-Quality Entity Segmentation [110.55724145851725]
CropFormerは高解像度画像におけるインスタンスレベルのセグメンテーションの難易度に対処するために設計されている。
よりきめ細かい画像とフルイメージを提供する高解像度の画像作物を融合することで、マスク予測を改善する。
CropFormerでは、難易度の高いエンティティセグメンテーションタスクで1.9ドルという大きなAP利益を達成しています。
論文 参考訳(メタデータ) (2022-11-10T18:58:22Z) - Dual-Perspective Semantic-Aware Representation Blending for Multi-Label
Image Recognition with Partial Labels [70.36722026729859]
本稿では,多粒度カテゴリ固有の意味表現を異なる画像にブレンドした,二重パースペクティブな意味認識表現ブレンディング(DSRB)を提案する。
提案したDSは、すべての比率ラベル設定において、最先端のアルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-26T00:33:44Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Distilling effective supervision for robust medical image segmentation
with noisy labels [21.68138582276142]
本稿では,画素レベルと画像レベルの両方から効果的な監視情報を抽出することにより,ノイズラベルによるセグメント化に対処する新しい枠組みを提案する。
特に,各画素の不確かさを画素単位の雑音推定として明確に推定する。
画素レベルの学習を補完する画像レベルの頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T13:33:38Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。