論文の概要: CellStyle: Improved Zero-Shot Cell Segmentation via Style Transfer
- arxiv url: http://arxiv.org/abs/2503.08603v1
- Date: Tue, 11 Mar 2025 16:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:45:04.619936
- Title: CellStyle: Improved Zero-Shot Cell Segmentation via Style Transfer
- Title(参考訳): CellStyle: スタイル転送によるゼロショットセルセグメンテーションの改善
- Authors: Rüveyda Yilmaz, Zhu Chen, Yuli Wu, Johannes Stegmaier,
- Abstract要約: 本稿では、ターゲットデータセットのラベルを必要とせずに、そのようなモデルのセグメンテーション品質を改善するCellStyleを提案する。
CellStyleは、テクスチャ、色、ノイズなどの注釈なしのターゲットデータセットの属性をアノテーション付きソースデータセットに転送する。
我々は,CellStyleが,スタイル変換データ上で複数のセグメンテーションモデルを微調整することにより,多様なデータセット間のゼロショットセルセグメンテーション性能を著しく向上することを示した。
- 参考スコア(独自算出の注目度): 1.5053987978031302
- License:
- Abstract: Cell microscopy data are abundant; however, corresponding segmentation annotations remain scarce. Moreover, variations in cell types, imaging devices, and staining techniques introduce significant domain gaps between datasets. As a result, even large, pretrained segmentation models trained on diverse datasets (source datasets) struggle to generalize to unseen datasets (target datasets). To overcome this generalization problem, we propose CellStyle, which improves the segmentation quality of such models without requiring labels for the target dataset, thereby enabling zero-shot adaptation. CellStyle transfers the attributes of an unannotated target dataset, such as texture, color, and noise, to the annotated source dataset. This transfer is performed while preserving the cell shapes of the source images, ensuring that the existing source annotations can still be used while maintaining the visual characteristics of the target dataset. The styled synthetic images with the existing annotations enable the finetuning of a generalist segmentation model for application to the unannotated target data. We demonstrate that CellStyle significantly improves zero-shot cell segmentation performance across diverse datasets by finetuning multiple segmentation models on the style-transferred data. The code will be made publicly available.
- Abstract(参考訳): 細胞顕微鏡のデータは豊富だが、対応するセグメンテーションアノテーションは乏しい。
さらに、セルタイプ、イメージングデバイス、染色技術のバリエーションは、データセット間の大きなドメインギャップをもたらす。
その結果、さまざまなデータセット(ソースデータセット)でトレーニングされた大規模で事前訓練されたセグメンテーションモデルでさえ、目に見えないデータセット(ターゲットデータセット)への一般化に苦慮している。
この一般化問題を解決するために、ターゲットデータセットのラベルを必要とせずに、そのようなモデルのセグメンテーション品質を向上し、ゼロショット適応を可能にするCellStyleを提案する。
CellStyleは、テクスチャ、色、ノイズなどの注釈なしのターゲットデータセットの属性をアノテーション付きソースデータセットに転送する。
この転送は、ソースイメージのセル形状を保持しながら行われ、ターゲットデータセットの視覚的特性を維持しながら、既存のソースアノテーションが引き続き使用できることを保証する。
既存のアノテーションを用いたスタイル合成画像は、注釈のないターゲットデータに適用するためのジェネリストセグメンテーションモデルの微調整を可能にする。
我々は,CellStyleが,スタイル変換データ上で複数のセグメンテーションモデルを微調整することにより,多様なデータセット間のゼロショットセルセグメンテーション性能を著しく向上することを示した。
コードは公開されます。
関連論文リスト
- CellViT++: Energy-Efficient and Adaptive Cell Segmentation and Classification Using Foundation Models [1.7674154313605157]
$textCellViTscriptstyle ++$は、デジタル病理学における一般化された細胞セグメンテーションのためのフレームワークである。
$textCellViTscriptstyle ++$は、ユーザフレンドリで、ビジュアライゼーションとアノテーションのためのWebベースのインターフェースを備えたオープンソースのフレームワークである。
論文 参考訳(メタデータ) (2025-01-09T14:26:50Z) - Low-Biased General Annotated Dataset Generation [62.04202037186855]
低バイアスの一般アノテーション付きデータセット生成フレームワーク(lbGen)を提案する。
高価な手作業による収集ではなく,カテゴリアノテーションを用いた低バイアス画像を直接生成することを目的としている。
実験結果から,手動ラベル付きデータセットや他の合成データセットと比較して,生成した低バイアスデータセットの利用により,一般化能力の安定が図られた。
論文 参考訳(メタデータ) (2024-12-14T13:28:40Z) - Diffusion Models as Data Mining Tools [87.77999285241219]
本稿では、画像合成のために訓練された生成モデルを視覚データマイニングのツールとして利用する方法について述べる。
特定のデータセットから画像を合成するために条件拡散モデルを微調整した後、これらのモデルを用いて典型性尺度を定義することができることを示す。
この尺度は、地理的位置、タイムスタンプ、セマンティックラベル、さらには病気の存在など、異なるデータラベルに対する典型的な視覚的要素がどのように存在するかを評価する。
論文 参考訳(メタデータ) (2024-07-20T17:14:31Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - CellMixer: Annotation-free Semantic Cell Segmentation of Heterogeneous
Cell Populations [9.335273591976648]
異種細胞集団のセマンティックセグメンテーションのための革新的なアノテーションのないアプローチであるCellMixerを提案する。
以上の結果から,CellMixerは複数のセルタイプにまたがる競合セグメンテーション性能と画像モダリティを実現することができることがわかった。
論文 参考訳(メタデータ) (2023-12-01T15:50:20Z) - GELDA: A generative language annotation framework to reveal visual
biases in datasets [7.3146656260578276]
バイアス分析は、コンピュータビジョンモデルのトレーニングと評価のための公正なデータセットを作成するプロセスにおける重要なステップである。
本稿では,GELDAを提案する。GELDAは大規模生成言語モデルを利用して,ドメインに対する様々な属性の提案とラベル付けを行うフレームワークである。
実際のデータセットの結果から、GELDAは正確で多様な視覚的属性の提案を生成し、クラスラベルと背景特徴の一致などのバイアスを明らかにすることができる。
論文 参考訳(メタデータ) (2023-11-29T20:27:58Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - Improving CT Image Segmentation Accuracy Using StyleGAN Driven Data
Augmentation [42.034896915716374]
本稿では,公開可能な大規模医療データセットをセグメント化するためのStyleGANによるアプローチを提案する。
スタイル転送はトレーニングデータセットを拡張し、新しい解剖学的音声画像を生成するために使用される。
次に、拡張データセットを使用してU-Netセグメンテーションネットワークをトレーニングし、セグメンテーション精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-02-07T06:34:10Z) - Personalized Image Semantic Segmentation [58.980245748434]
ラベルのないパーソナライズされた画像に対して、データのパーソナライズされた特徴を調査することにより、より正確なセグメンテーション結果を生成する。
画像のセグメント化時に画像間コンテキストを組み込んだベースライン手法を提案する。
コードとPSSデータセットは公開されます。
論文 参考訳(メタデータ) (2021-07-24T04:03:11Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Few-Shot Microscopy Image Cell Segmentation [15.510258960276083]
顕微鏡画像におけるセルの自動セグメンテーションは、完全な監視で訓練されたディープニューラルネットワークのサポートとうまく機能する。
本稿では,細胞を分割し,セグメント化結果を分類境界から切り離すための3つの目的関数の組み合わせを提案する。
5つの公開データベースに対する実験は、1ショットから10ショットのメタラーニングによる有望な結果を示している。
論文 参考訳(メタデータ) (2020-06-29T12:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。