論文の概要: Color-Quality Invariance for Robust Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2502.07200v1
- Date: Tue, 11 Feb 2025 02:47:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:06:35.581699
- Title: Color-Quality Invariance for Robust Medical Image Segmentation
- Title(参考訳): ロバストな医用画像分割のための色質不変性
- Authors: Ravi Shah, Atsushi Fukuda, Quan Huu Cap,
- Abstract要約: 単一ソース領域の一般化は、医療画像のセグメンテーションにおいて重要な課題である。
動的カラー画像正規化(DCIN)モジュールとカラー品質一般化(CQG)損失の2つの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 4.710921988115686
- License:
- Abstract: Single-source domain generalization (SDG) in medical image segmentation remains a significant challenge, particularly for images with varying color distributions and qualities. Previous approaches often struggle when models trained on high-quality images fail to generalize to low-quality test images due to these color and quality shifts. In this work, we propose two novel techniques to enhance generalization: dynamic color image normalization (DCIN) module and color-quality generalization (CQG) loss. The DCIN dynamically normalizes the color of test images using two reference image selection strategies. Specifically, the DCIN utilizes a global reference image selection (GRIS), which finds a universal reference image, and a local reference image selection (LRIS), which selects a semantically similar reference image per test sample. Additionally, CQG loss enforces invariance to color and quality variations by ensuring consistent segmentation predictions across transformed image pairs. Experimental results show that our proposals significantly improve segmentation performance over the baseline on two target domain datasets, despite being trained solely on a single source domain. Notably, our model achieved up to a 32.3-point increase in Dice score compared to the baseline, consistently producing robust and usable results even under substantial domain shifts. Our work contributes to the development of more robust medical image segmentation models that generalize across unseen domains. The implementation code is available at https://github.com/RaviShah1/DCIN-CQG.
- Abstract(参考訳): 医用画像分割における単一ソース領域一般化(SDG)は、特に色分布や画質の異なる画像において重要な課題である。
高品質な画像で訓練されたモデルが、これらの色や品質の変化により、低品質なテストイメージに一般化できない場合、以前のアプローチでは、しばしば苦労する。
本研究では,動的カラー画像正規化(DCIN)モジュールとカラー品質一般化(CQG)損失の2つの新しい手法を提案する。
DCINは、2つの基準画像選択戦略を用いてテスト画像の色を動的に正規化する。
具体的には、グローバル参照画像選択(GRIS)と、テストサンプル毎に意味的に類似した参照画像を選択するローカル参照画像選択(LRIS)を利用する。
さらに、CQG損失は、変換された画像対間の一貫したセグメンテーション予測を確実にすることで、色と品質のばらつきを強制する。
実験結果から,本提案手法は,単一ソース領域のみにトレーニングされているにもかかわらず,2つの対象領域データセットのベースライン上でのセグメンテーション性能を著しく向上することが示された。
特に,本モデルでは,ベースラインと比較して最大32.3ポイントのDiceスコア向上を実現し,ドメインシフトがかなり大きい場合でも,頑健で有用な結果が得られた。
我々の研究は、目に見えない領域にまたがって一般化する、より堅牢な医用画像分割モデルの開発に寄与する。
実装コードはhttps://github.com/RaviShah1/DCIN-CQGで公開されている。
関連論文リスト
- A Single Graph Convolution Is All You Need: Efficient Grayscale Image Classification [3.0299904110792255]
グレースケール画像分類は、医用画像やSAR ATRなどの分野で重要な応用がある。
画像のベクトル化ビューを用いた新しいグレースケール画像分類手法を提案する。
提案手法では,単一のグラフ畳み込み層をバッチ的に組み込んで,精度の向上と性能のばらつきの低減を図る。
論文 参考訳(メタデータ) (2024-02-01T12:50:48Z) - SPDGAN: A Generative Adversarial Network based on SPD Manifold Learning
for Automatic Image Colorization [1.220743263007369]
生成逆ネットワーク(SPDGAN)を用いたSymmetric Positive Definite (SPD) Manifold Learningに基づく完全自動カラー化手法を提案する。
本モデルは,2つの識別器とジェネレータの対角ゲームを確立する。その目標は,残差接続により層間の色情報を失うことなく,偽のカラー化画像を生成することである。
論文 参考訳(メタデータ) (2023-12-21T00:52:01Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - AdaWCT: Adaptive Whitening and Coloring Style Injection [55.554986498301574]
本稿では,AdaWCTを用いた白黒色変換(WCT)を応用したAdaINの一般化について述べる。
本稿では、StarGANv2アーキテクチャの実験を通して、この一般化が概念的には単純ではあるが、生成した画像の品質を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-08-01T15:07:51Z) - Astronomical Image Colorization and upscaling with Generative
Adversarial Networks [0.0]
本研究の目的は、非常に特定の画像領域、すなわち天文学的な画像に焦点をあてることにより、この問題に自動的アプローチを提供することである。
我々は、RGBとL*a*bという2つの異なる色空間における様々なモデルの使用について検討する。
このモデルは、画像に存在しない高解像度で色付けされたデータを幻覚させる視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2021-12-27T19:01:20Z) - Generalizable Cross-modality Medical Image Segmentation via Style
Augmentation and Dual Normalization [29.470385509955687]
本稿では,拡張されたソース類似画像とソース類似画像を利用する新しいデュアル正規化モジュールを提案する。
我々の手法は、他の最先端の領域一般化手法よりも優れている。
論文 参考訳(メタデータ) (2021-12-21T13:18:46Z) - Palette: Image-to-Image Diffusion Models [50.268441533631176]
我々は条件付き拡散モデルを用いた画像から画像への変換のためのシンプルで一般的なフレームワークであるPaletteを紹介する。
4つの困難な画像から画像への変換タスクにおいて、Paletteは強力なGANと回帰ベースラインを上回っている。
本稿では、FID、インセプションスコア、事前訓練されたResNet-50の分類精度、参照画像に対する知覚距離などのサンプル品質スコアについて報告する。
論文 参考訳(メタデータ) (2021-11-10T17:49:29Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - TriGAN: Image-to-Image Translation for Multi-Source Domain Adaptation [82.52514546441247]
本稿では,ジェネレーティブ・アドバイサル・ネットワークに基づくマルチソース・ドメイン適応(MSDA)の最初のアプローチを提案する。
本手法は,画像の出現がドメイン,スタイル,内容の3つの要因に依存するという観察に着想を得たものである。
提案手法はMSDAベンチマークを用いて試行し,最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。