論文の概要: Robust One-shot Segmentation of Brain Tissues via Image-aligned Style
Transformation
- arxiv url: http://arxiv.org/abs/2211.14521v2
- Date: Tue, 29 Nov 2022 15:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 12:18:22.865087
- Title: Robust One-shot Segmentation of Brain Tissues via Image-aligned Style
Transformation
- Title(参考訳): 画像整合型変換による脳組織のロバストワンショットセグメンテーション
- Authors: Jinxin Lv, Xiaoyu Zeng, Sheng Wang, Ran Duan, Zhiwei Wang, and Qiang
Li
- Abstract要約: 本稿では,脳組織のワンショットセグメンテーションのための2モデル反復学習を強化するために,新しい画像整列型変換を提案する。
2つの公開データセットによる実験結果から,1)完全教師付き手法と比較して,提案手法の競合セグメンテーション性能が向上し,2)Diceの平均値が4.67%向上した他の最先端技術よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 13.430851964063534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot segmentation of brain tissues is typically a dual-model iterative
learning: a registration model (reg-model) warps a carefully-labeled atlas onto
unlabeled images to initialize their pseudo masks for training a segmentation
model (seg-model); the seg-model revises the pseudo masks to enhance the
reg-model for a better warping in the next iteration. However, there is a key
weakness in such dual-model iteration that the spatial misalignment inevitably
caused by the reg-model could misguide the seg-model, which makes it converge
on an inferior segmentation performance eventually. In this paper, we propose a
novel image-aligned style transformation to reinforce the dual-model iterative
learning for robust one-shot segmentation of brain tissues. Specifically, we
first utilize the reg-model to warp the atlas onto an unlabeled image, and then
employ the Fourier-based amplitude exchange with perturbation to transplant the
style of the unlabeled image into the aligned atlas. This allows the subsequent
seg-model to learn on the aligned and style-transferred copies of the atlas
instead of unlabeled images, which naturally guarantees the correct spatial
correspondence of an image-mask training pair, without sacrificing the
diversity of intensity patterns carried by the unlabeled images. Furthermore,
we introduce a feature-aware content consistency in addition to the image-level
similarity to constrain the reg-model for a promising initialization, which
avoids the collapse of image-aligned style transformation in the first
iteration. Experimental results on two public datasets demonstrate 1) a
competitive segmentation performance of our method compared to the
fully-supervised method, and 2) a superior performance over other
state-of-the-art with an increase of average Dice by up to 4.67%. The source
code is available at: https://github.com/JinxLv/One-shot-segmentation-via-IST.
- Abstract(参考訳): 登録モデル(reg-model)は、慎重にラベル付けされたアトラスを未ラベルの画像にワープして、セグメンテーションモデル(seg-model)をトレーニングするための擬似マスクを初期化する。
しかし、このような二重モデル反復において重要な弱点は、レグモデルによって必然的に引き起こされる空間的ミスアライメントがセグモデルを誤る可能性があることである。
本稿では,脳組織の高機能なワンショットセグメンテーションのための2モデル反復学習を強化するために,新しい画像整列型変換を提案する。
具体的には,まずreg-modelを用いてアラスを非ラベル画像にワープし,次にフーリエ型振幅交換器を用いて非ラベル画像のスタイルをアラスに移植する。
これにより、後続のsegモデルはラベル付き画像ではなくアトラスのアライメントおよびスタイル変換されたコピーで学習することができ、ラベル付き画像が持つ強度パターンの多様性を犠牲にすることなく、画像マスクトレーニングペアの正しい空間対応を自然に保証する。
さらに,画像レベルの類似性に加えて,機能対応型コンテンツ一貫性を導入し,最初のイテレーションで画像整合型変換の崩壊を回避し,期待できる初期化のためにregモデルを制約する。
2つの公開データセットの実験結果
1)本手法の完全教師あり方式と比較した競合セグメンテーション性能、及び
2) 平均diceが最大4.67%増加する他の最先端技術よりも優れた性能を示す。
ソースコードは、https://github.com/JinxLv/One-shot-segmentation-via-IST.comで入手できる。
関連論文リスト
- StyleSeg V2: Towards Robust One-shot Segmentation of Brain Tissue via Optimization-free Registration Error Perception [15.118588568951253]
脳組織のワンショットセグメンテーションには、トレーニング登録セグメンテーション(reg-seg)二重モデルが反復的に必要である。
最近のStyleSegは、ラベルのないイメージを歪んだatlasのコピーに置き換えることで、このボトルネックを回避している。
ここでは、StyleSegから継承されたStyleSeg V2を提示するが、登録エラーを認識する能力を認めた。
論文 参考訳(メタデータ) (2024-05-06T06:45:23Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - ZoDi: Zero-Shot Domain Adaptation with Diffusion-Based Image Transfer [13.956618446530559]
本稿では,ZoDiと呼ばれる拡散モデルに基づくゼロショット領域適応手法を提案する。
まず,原画像の領域を対象領域に転送することで,対象画像の合成にオフ・ザ・シェルフ拡散モデルを用いる。
次に、元の表現でソース画像と合成画像の両方を用いてモデルを訓練し、ドメイン・ロバスト表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T14:58:09Z) - MixReorg: Cross-Modal Mixed Patch Reorganization is a Good Mask Learner
for Open-World Semantic Segmentation [110.09800389100599]
セマンティックセグメンテーションのための新鮮で簡単な事前学習パラダイムであるMixReorgを提案する。
我々のアプローチは、パッチとテキストの対応を保ちながら、画像パッチを混合することで、きめ細かいパッチテキストペアデータを生成することである。
マスク学習者としてMixReorgを使用することで、従来のテキスト教師付きセマンティックセマンティックセマンティックモデルは、非常に一般化可能なピクセル・セマンティックアライメントを実現することができる。
論文 参考訳(メタデータ) (2023-08-09T09:35:16Z) - CorrMatch: Label Propagation via Correlation Matching for
Semi-Supervised Semantic Segmentation [73.89509052503222]
本稿では、CorrMatchと呼ばれる、単純だが実行可能な半教師付きセマンティックセマンティックセマンティックセマンティクス手法を提案する。
相関写像は、同一カテゴリのクラスタリングピクセルを容易に実現できるだけでなく、良好な形状情報も含んでいることを観察する。
我々は,高信頼画素を拡大し,さらに掘り出すために,画素の対の類似性をモデル化して画素伝搬を行う。
そして、相関地図から抽出した正確なクラス非依存マスクを用いて、領域伝搬を行い、擬似ラベルを強化する。
論文 参考訳(メタデータ) (2023-06-07T10:02:29Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - Cross-modal tumor segmentation using generative blending augmentation and self training [1.6440045168835438]
本稿では,新しいデータ拡張手法によって強化された従来の画像合成に基づくクロスモーダルセグメンテーション手法を提案する。
Generative Blending Augmentation (GBA)は、単一のトレーニング画像から代表的生成特徴を学習し、腫瘍の外観を現実的に多様化させる。
提案手法は,MICCAI CrossMoDA 2022 チャレンジの検証および試験段階において,前庭神経ショーノマ(VS)セグメンテーションにおいて第1位となった。
論文 参考訳(メタデータ) (2023-04-04T11:01:46Z) - Unified Mask Embedding and Correspondence Learning for Self-Supervised
Video Segmentation [76.40565872257709]
我々は、局所的な識別的特徴学習のためのフレーム間密度対応を同時にモデル化する統合フレームワークを開発する。
ラベルなしビデオから直接マスク誘導シーケンシャルセグメンテーションを実行することができる。
我々のアルゴリズムは、2つの標準ベンチマーク(DAVIS17とYouTube-VOS)に最先端をセットする。
論文 参考訳(メタデータ) (2023-03-17T16:23:36Z) - Learning Open-vocabulary Semantic Segmentation Models From Natural
Language Supervision [49.905448429974804]
オープン語彙セマンティックセマンティックセグメンテーション(OVS)は,事前に定義された閉集合のカテゴリではなく,任意のクラスのオブジェクトをセグメンテーションすることを目的としている。
OVSegmentorと呼ばれるOVSのトランスフォーマーベースモデルを提案する。
プレトレーニングには3%のデータ(4M vs 134M)のみを用いることで,最先端手法よりも優れたセグメンテーション結果が得られる。
論文 参考訳(メタデータ) (2023-01-22T13:10:05Z) - Seed the Views: Hierarchical Semantic Alignment for Contrastive
Representation Learning [116.91819311885166]
一つの画像から生成されたビューをtextbfCross-samples や Multi-level representation に拡張することで,階層的なセマンティックアライメント戦略を提案する。
提案手法はCsMlと呼ばれ,サンプル間の多層視覚表現を堅牢な方法で統合する機能を備えている。
論文 参考訳(メタデータ) (2020-12-04T17:26:24Z) - Importance of Self-Consistency in Active Learning for Semantic
Segmentation [31.392212891018655]
我々は,少数のラベル付きデータにのみアクセス可能なデータ駆動モデルの性能を向上させるために,自己整合性は自己超越の強力な情報源となることを示す。
提案するアクティブラーニングフレームワークでは,ラベル付けが必要な小さな画像パッチを反復的に抽出する。
現在のモデルが最も分類に苦労しているイメージパッチを見つけることができます。
論文 参考訳(メタデータ) (2020-08-04T22:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。