論文の概要: CyclePose -- Leveraging Cycle-Consistency for Annotation-Free Nuclei Segmentation in Fluorescence Microscopy
- arxiv url: http://arxiv.org/abs/2503.11266v1
- Date: Fri, 14 Mar 2025 10:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:12.102907
- Title: CyclePose -- Leveraging Cycle-Consistency for Annotation-Free Nuclei Segmentation in Fluorescence Microscopy
- Title(参考訳): CyclePose -- 蛍光顕微鏡における注釈なし核セグメンテーションのためのサイクル整合性
- Authors: Jonas Utz, Stefan Vocht, Anne Tjorven Buessen, Dennis Possart, Fabian Wagner, Mareike Thies, Mingxuan Gu, Stefan Uderhardt, Katharina Breininger,
- Abstract要約: 合成データ生成とセグメンテーションのトレーニングを統合したハイブリッドフレームワークであるCyclePoseを提案する。
CyclePoseは、顕微鏡画像とセグメンテーションマスクの間の未ペア翻訳を可能にするCycleGANアーキテクチャ上に構築されている。
セグメンテーションモデルをCycleGANに組み込み、自己超越のためにサイクル整合損失を利用する。
- 参考スコア(独自算出の注目度): 0.7860933882744594
- License:
- Abstract: In recent years, numerous neural network architectures specifically designed for the instance segmentation of nuclei in microscopic images have been released. These models embed nuclei-specific priors to outperform generic architectures like U-Nets; however, they require large annotated datasets, which are often not available. Generative models (GANs, diffusion models) have been used to compensate for this by synthesizing training data. These two-stage approaches are computationally expensive, as first a generative model and then a segmentation model has to be trained. We propose CyclePose, a hybrid framework integrating synthetic data generation and segmentation training. CyclePose builds on a CycleGAN architecture, which allows unpaired translation between microscopy images and segmentation masks. We embed a segmentation model into CycleGAN and leverage a cycle consistency loss for self-supervision. Without annotated data, CyclePose outperforms other weakly or unsupervised methods on two public datasets. Code is available at https://github.com/jonasutz/CyclePose
- Abstract(参考訳): 近年、顕微鏡画像中の原子核のインスタンスセグメンテーションのために設計された多くのニューラルネットワークアーキテクチャがリリースされている。
これらのモデルは、U-Netのような汎用アーキテクチャよりも優れた性能を発揮するために、核特異的な先行を埋め込んでいるが、しばしば利用できない大規模な注釈付きデータセットが必要である。
生成モデル(GAN、拡散モデル)は、トレーニングデータを合成することでこれを補うために使われてきた。
これらの2段階のアプローチは、まず生成モデル、次にセグメンテーションモデルを訓練する必要があるため、計算的に高価である。
合成データ生成とセグメンテーションのトレーニングを統合したハイブリッドフレームワークであるCyclePoseを提案する。
CyclePoseは、顕微鏡画像とセグメンテーションマスクの間の未ペア翻訳を可能にするCycleGANアーキテクチャ上に構築されている。
セグメンテーションモデルをCycleGANに組み込み、自己超越のためにサイクル整合損失を利用する。
注釈付きデータなしでは、CyclePoseは2つの公開データセット上で、弱い、あるいは教師なしのメソッドよりもパフォーマンスがよい。
コードはhttps://github.com/jonasutz/CyclePoseで入手できる。
関連論文リスト
- LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
このモデルは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
Data Science Bowls、GlaS、ISIC2018、PH2、Sunnybrook、Lung X-rayといった公開データセットの実験は有望な結果を示している。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - Placing Objects in Context via Inpainting for Out-of-distribution Segmentation [59.00092709848619]
コンテキスト内のオブジェクトの配置(POC)は、イメージにオブジェクトを現実的に追加するためのパイプラインである。
POCは任意の数のオブジェクトで任意のデータセットを拡張するために使用することができる。
本稿では,POC 生成データに基づく様々な異常セグメンテーションデータセットを提示し,最近の最先端の異常チューニング手法の性能向上を実証する。
論文 参考訳(メタデータ) (2024-02-26T08:32:41Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models [68.73086826874733]
本稿では,画像分割を参照するための新しい参照拡散分割器(Referring Diffusional segmentor, Ref-Diff)を提案する。
提案生成器がなければ、生成モデルだけで既存のSOTAの弱教師付きモデルに匹敵する性能を達成できることを実証する。
このことは、生成モデルがこのタスクに有益であり、より優れたセグメンテーションを参照するために識別モデルを補完できることを示している。
論文 参考訳(メタデータ) (2023-08-31T14:55:30Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - Simultaneous Semantic and Instance Segmentation for Colon Nuclei
Identification and Counting [3.582485486382699]
我々は,同時セマンティクスとインスタンスセグメンテーションのフレームワークとして構成されたソリューションを提案する。
私たちのソリューションは、Colon Nuclei Identification and Counting (CoNIC) Challengeの一部です。
論文 参考訳(メタデータ) (2022-03-01T00:25:06Z) - Total Generate: Cycle in Cycle Generative Adversarial Networks for
Generating Human Faces, Hands, Bodies, and Natural Scenes [76.83075646527521]
C2GAN(Cycle in Cycle Generative Adversarial Network)は、人間の顔、手、体、自然のシーンのための自転車。
提案するC2GANは,入力画像データとガイダンスデータの相互利用を対話的に探索するクロスモーダルモデルである。
論文 参考訳(メタデータ) (2021-06-21T06:20:16Z) - Half-Real Half-Fake Distillation for Class-Incremental Semantic
Segmentation [84.1985497426083]
畳み込みニューラルネットワークは漸進的な学習に不適である。
新しいクラスは利用できるが、初期トレーニングデータは保持されない。
訓練されたセグメンテーションネットワークを「反転」して、ランダムノイズから始まる入力画像の合成を試みる。
論文 参考訳(メタデータ) (2021-04-02T03:47:16Z) - Composable Generative Models [5.990174495635326]
本稿では,プライバシ保護アプリケーションを考慮した合成データ生成モデルについて述べる。
新しいアーキテクチャであるComposable Generative Model(CGM)を導入する。
CGMは13のデータセットで評価され、14の最近の生成モデルと比較された。
論文 参考訳(メタデータ) (2021-02-18T10:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。