論文の概要: Test-Time Generative Augmentation for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2406.17608v1
- Date: Tue, 25 Jun 2024 14:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 14:00:49.105136
- Title: Test-Time Generative Augmentation for Medical Image Segmentation
- Title(参考訳): 医用画像分割のためのテスト時間生成拡張
- Authors: Xiao Ma, Yuhui Tao, Yuhan Zhang, Zexuan Ji, Yizhe Zhang, Qiang Chen,
- Abstract要約: 本稿では,テスト期間中の医用画像のセグメンテーションを強化する新しい手法を提案する。
入力テスト画像に手作り変換や関数を使う代わりに、先進的なドメインファインチューニング生成モデル(GM)の利用を提唱する。
医用画像分割作業におけるTTGAの有効性と有用性を示す実験を行った。
- 参考スコア(独自算出の注目度): 20.12850876150199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel approach to enhance medical image segmentation during test time. Instead of employing hand-crafted transforms or functions on the input test image to create multiple views for test-time augmentation, we advocate for the utilization of an advanced domain-fine-tuned generative model (GM), e.g., stable diffusion (SD), for test-time augmentation. Given that the GM has been trained to comprehend and encapsulate comprehensive domain data knowledge, it is superior than segmentation models in terms of representing the data characteristics and distribution. Hence, by integrating the GM into test-time augmentation, we can effectively generate multiple views of a given test sample, aligning with the content and appearance characteristics of the sample and the related local data distribution. This approach renders the augmentation process more adaptable and resilient compared to conventional handcrafted transforms. Comprehensive experiments conducted across three medical image segmentation tasks (nine datasets) demonstrate the efficacy and versatility of the proposed TTGA in enhancing segmentation outcomes. Moreover, TTGA significantly improves pixel-wise error estimation, thereby facilitating the deployment of a more reliable segmentation system. Code will be released at: https://github.com/maxiao0234/TTGA.
- Abstract(参考訳): 本稿では,テスト期間中の医用画像のセグメンテーションを向上するための新しいアプローチを提案する。
入力テスト画像上に手作りの変換や関数を用いて、テスト時間拡張のための複数のビューを作成する代わりに、テスト時間拡張のための高度なドメインファインチューニング生成モデル(GM)、例えば安定拡散(SD)の利用を提唱する。
GMは、包括的ドメインデータ知識の理解とカプセル化を訓練されているため、データ特性と分布を表す点において、セグメンテーションモデルよりも優れている。
したがって、GMをテスト時間拡張に統合することにより、サンプルの内容と外観特性と関連するローカルデータ分布とを一致させて、与えられたテストサンプルの複数のビューを効果的に生成することができる。
このアプローチは、従来の手作り変換よりも適応性と弾力性が向上する。
3つの医用画像セグメンテーションタスク(9つのデータセット)で実施された総合的な実験は、セグメンテーションの結果を高めるために提案されたTTGAの有効性と汎用性を示した。
さらに、TTGAは画素単位の誤差推定を大幅に改善し、より信頼性の高いセグメンテーションシステムの展開を容易にする。
コードは、https://github.com/maxiao0234/TTGA.comでリリースされる。
関連論文リスト
- Generative Medical Segmentation [5.4613210257624605]
Generative Medical (GMS) は、画像セグメンテーションに生成モデルを活用する新しいアプローチである。
GMSは、画像とマスクの両方の潜在表現を導出するために、堅牢な事前訓練されたVari Autoencoder(VAE)を使用し、次に、潜時空間における画像からマスクへの遷移を学習するマッピングモデルを使用する。
GMSの設計はモデルの学習可能なパラメータを減らし、計算負荷の低減と一般化能力の向上をもたらす。
論文 参考訳(メタデータ) (2024-03-27T02:16:04Z) - S$^3$-TTA: Scale-Style Selection for Test-Time Augmentation in
Biomedical Image Segmentation [33.69194889400333]
本研究では、テスト画像毎に適切な画像スケールとスタイルを選択する新しいTTAフレームワークであるS$3$-TTAを提案する。
細胞と肺のセグメンテーションに関する公開ベンチマークでは、S$3$-TTAはそれぞれ3.4%と1.3%改善されている。
論文 参考訳(メタデータ) (2023-10-25T17:19:14Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Enhancing MR Image Segmentation with Realistic Adversarial Data
Augmentation [17.539828821476224]
本稿では,学習データの利用効率を向上させるために,逆データ拡張手法を提案する。
本稿では,データ拡張モデルとセグメンテーションネットワークを協調的に最適化する汎用的なタスク駆動学習フレームワークを提案する。
提案した逆データ拡張は生成ネットワークに依存しず,汎用セグメンテーションネットワークのプラグインモジュールとして使用できる。
論文 参考訳(メタデータ) (2021-08-07T11:32:37Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Semi-supervised Task-driven Data Augmentation for Medical Image
Segmentation [9.499375648561001]
教師付き学習ベースセグメンテーション法は、テスト時によく一般化するために、多くの注釈付きトレーニングデータを必要とする。
医療応用では、専門家から大量の注釈付きサンプルを取得するのに時間がかかり、費用がかかるため、そのようなデータセットのキュレーションは好ましくない。
本稿では,限定ラベル付きデータを用いた学習のためのタスク駆動型データ拡張手法を提案する。
論文 参考訳(メタデータ) (2020-07-09T17:05:42Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Self-Guided Adaptation: Progressive Representation Alignment for Domain
Adaptive Object Detection [86.69077525494106]
非教師なしドメイン適応(UDA)は、オブジェクト検出モデルのドメイン間ロバスト性を改善するために前例のない成功を収めた。
既存のUDA手法は、モデル学習中の瞬間的なデータ分布を無視しており、大きなドメインシフトによって特徴表現が劣化する可能性がある。
本稿では、特徴表現の整合とドメイン間のオブジェクト検出モデルの転送を目標とする自己ガイド適応モデルを提案する。
論文 参考訳(メタデータ) (2020-03-19T13:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。