論文の概要: Style Content Decomposition-based Data Augmentation for Domain Generalizable Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2502.20619v1
- Date: Fri, 28 Feb 2025 00:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:40:56.102119
- Title: Style Content Decomposition-based Data Augmentation for Domain Generalizable Medical Image Segmentation
- Title(参考訳): 領域一般化可能な医用画像分割のためのスタイルコンテンツ分解に基づくデータ拡張
- Authors: Zhiqiang Shen, Peng Cao, Jinzhu Yang, Osmar R. Zaiane, Zhaolin Chen,
- Abstract要約: 我々は、画像をそのスタイルコードとコンテンツマップに分解し、医療画像のドメインシフトが関与していることを明らかにする: textbfstyle shifts (emphi.、画像の外観の違い)と textbfcontent shifts (emphi.、解剖学的構造の変化)。
textbfStyCona, textbfstyle textbfcontent decomposition-based data textbfaugmentation method を提案する。
- 参考スコア(独自算出の注目度): 22.69909762038458
- License:
- Abstract: Due to the domain shifts between training and testing medical images, learned segmentation models often experience significant performance degradation during deployment. In this paper, we first decompose an image into its style code and content map and reveal that domain shifts in medical images involve: \textbf{style shifts} (\emph{i.e.}, differences in image appearance) and \textbf{content shifts} (\emph{i.e.}, variations in anatomical structures), the latter of which has been largely overlooked. To this end, we propose \textbf{StyCona}, a \textbf{sty}le \textbf{con}tent decomposition-based data \textbf{a}ugmentation method that innovatively augments both image style and content within the rank-one space, for domain generalizable medical image segmentation. StyCona is a simple yet effective plug-and-play module that substantially improves model generalization without requiring additional training parameters or modifications to the segmentation model architecture. Experiments on cross-sequence, cross-center, and cross-modality medical image segmentation settings with increasingly severe domain shifts, demonstrate the effectiveness of StyCona and its superiority over state-of-the-arts. The code is available at https://github.com/Senyh/StyCona.
- Abstract(参考訳): 医用画像のトレーニングとテストのドメインシフトのため、学習されたセグメンテーションモデルは、デプロイメント中に重大なパフォーマンス低下を経験することが多い。
本稿ではまず, 画像のスタイルコードと内容マップに分割し, 医用画像のドメインシフトには, 画像の外観の違いである \textbf{style shifts} (\emph{i.e.}) と \textbf{content shifts} (\emph{i.e.}, 解剖学的構造の変化) が関係していることを明らかにする。
この目的のために,領域一般化可能な医用画像セグメンテーションのために,ランクワン空間内の画像スタイルと内容の両方を革新的に拡張する, {textbf{StyCona}, a \textbf{sty}le \textbf{con}tent decomposition-based data \textbf{a}ugmentation法を提案する。
StyConaはシンプルだが効果的なプラグアンドプレイモジュールであり、セグメンテーションモデルアーキテクチャに追加のトレーニングパラメータや修正を加えることなく、モデルの一般化を大幅に改善する。
StyConaの有効性と最先端技術に対する優位性を示す。
コードはhttps://github.com/Senyh/StyCona.comで入手できる。
関連論文リスト
- ConDSeg: A General Medical Image Segmentation Framework via Contrast-Driven Feature Enhancement [5.117018155594986]
コントラスト駆動医療画像(ConDSeg)というフレームワークを提案する。
様々な照明およびコントラストシナリオにおけるエンコーダの堅牢性を改善するように設計されている。
画像内の異なる大きさのエンティティを正確に特定し、共起特徴の誤学習を避ける。
論文 参考訳(メタデータ) (2024-12-11T12:34:49Z) - Language Guided Domain Generalized Medical Image Segmentation [68.93124785575739]
単一ソースドメインの一般化は、より信頼性が高く一貫性のあるイメージセグメンテーションを現実の臨床環境にわたって約束する。
本稿では,テキストエンコーダ機能によって案内されるコントラスト学習機構を組み込むことで,テキスト情報を明確に活用する手法を提案する。
文献における既存手法に対して,本手法は良好な性能を発揮する。
論文 参考訳(メタデータ) (2024-04-01T17:48:15Z) - MoreStyle: Relax Low-frequency Constraint of Fourier-based Image Reconstruction in Generalizable Medical Image Segmentation [53.24011398381715]
MoreStyleと呼ばれるデータ拡張のためのPlug-and-Playモジュールを紹介します。
MoreStyleは、フーリエ空間の低周波制約を緩和することで、イメージスタイルを多様化する。
敵対的学習の助けを借りて、MoreStyleは潜在機能の中で最も複雑なスタイルの組み合わせを指差している。
論文 参考訳(メタデータ) (2024-03-18T11:38:47Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Devil is in Channels: Contrastive Single Domain Generalization for
Medical Image Segmentation [21.079667938055668]
医用画像分割のためのtextbfChannel レベルの textbfContrastive textbfSingle textbfDomain textbf Generalization モデルを提案する。
提案手法は,単一ソースドメインを用いてチャネルワイドな特徴の絡み合いを可能にする,コントラスト的な視点での新しい手法である。
論文 参考訳(メタデータ) (2023-06-08T14:49:32Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - BayeSeg: Bayesian Modeling for Medical Image Segmentation with
Interpretable Generalizability [15.410162313242958]
医用画像分割のためのモデル一般化性を高めるための解釈可能なベイズフレームワーク(BayeSeg)を提案する。
具体的には、まず、画像を空間的関連変数と空間的変動変数に分解し、階層的ベイズ事前を割り当て、それぞれドメインの安定な形状とドメイン固有の外観情報をモデル化するよう明示的に強制する。
最後に、これらの説明可能な変数の後方分布を推測する変分ベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2023-03-03T04:48:37Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Integrating Visuospatial, Linguistic and Commonsense Structure into
Story Visualization [81.26077816854449]
まず、構造的入力を符号化するための選挙区解析木の利用について検討する。
第二に、構造化されたインプットをコモンセンス情報で強化し、この外部知識が視覚的ストーリーの生成に与える影響について検討する。
第3に、境界ボックスと高密度キャプションによって視覚構造を組み込んで、生成された画像の文字やオブジェクトに関するフィードバックを提供する。
論文 参考訳(メタデータ) (2021-10-21T00:16:02Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Image Translation by Latent Union of Subspaces for Cross-Domain Plaque
Detection [6.114454943178102]
大動脈および骨盤動脈の石灰化プラークは冠動脈石灰化と関連しており、心臓発作の強力な予測因子である。
現在の石灰化プラーク検出モデルでは、異なる領域に対する一般化性が低い。
サブスペース制約の共有結合を用いた画像翻訳ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-22T20:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。