論文の概要: HistoStarGAN: A Unified Approach to Stain Normalisation, Stain Transfer
and Stain Invariant Segmentation in Renal Histopathology
- arxiv url: http://arxiv.org/abs/2210.09798v1
- Date: Tue, 18 Oct 2022 12:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 13:29:03.236611
- Title: HistoStarGAN: A Unified Approach to Stain Normalisation, Stain Transfer
and Stain Invariant Segmentation in Renal Histopathology
- Title(参考訳): HistoStarGAN : 腎病理組織における正常化・転移・不変分画の統一的アプローチ
- Authors: Jelica Vasiljevi\'c, Friedrich Feuerhake, C\'edric Wemmert, Thomas
Lampert
- Abstract要約: HistoStarGANは、複数の染色間での染色を行う統一されたフレームワークである。
合成データジェネレータとして機能し、完全に注釈付けされた合成画像データの使用方法を舗装する。
- 参考スコア(独自算出の注目度): 0.5505634045241288
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Virtual stain transfer is a promising area of research in Computational
Pathology, which has a great potential to alleviate important limitations when
applying deeplearningbased solutions such as lack of annotations and
sensitivity to a domain shift. However, in the literature, the majority of
virtual staining approaches are trained for a specific staining or stain
combination, and their extension to unseen stainings requires the acquisition
of additional data and training. In this paper, we propose HistoStarGAN, a
unified framework that performs stain transfer between multiple stainings,
stain normalisation and stain invariant segmentation, all in one inference of
the model. We demonstrate the generalisation abilities of the proposed solution
to perform diverse stain transfer and accurate stain invariant segmentation
over numerous unseen stainings, which is the first such demonstration in the
field. Moreover, the pre-trained HistoStar-GAN model can serve as a synthetic
data generator, which paves the way for the use of fully annotated synthetic
image data to improve the training of deep learning-based algorithms. To
illustrate the capabilities of our approach, as well as the potential risks in
the microscopy domain, inspired by applications in natural images, we generated
KidneyArtPathology, a fully annotated artificial image dataset for renal
pathology.
- Abstract(参考訳): 仮想染色は計算病理学において有望な研究領域であり、アノテーションの欠如やドメインシフトに対する感受性といったディープラーニングベースのソリューションを適用する際の重要な制限を緩和する大きな可能性を秘めている。
しかし、文献では、仮想染色のアプローチの大半は特定の染色または染色の組み合わせのために訓練されており、見えない染色への拡張には追加のデータと訓練が必要である。
本稿では,複数の染色,染色正規化,染色不変セグメンテーション間の染色転送を行う一元的なフレームワークであるhistostarganを提案する。
提案法では, 多数の未発見の染色に対して, 多様な染色移動と正確な染色不変セグメンテーションを行うため, 提案法を一般化する能力を示す。
さらに、事前学習されたHistoStar-GANモデルは、完全に注釈付けされた合成画像データを使用することで、ディープラーニングベースのアルゴリズムのトレーニングを改善する合成データジェネレータとして機能する。
自然画像の応用に触発された我々のアプローチの能力と顕微鏡領域の潜在的なリスクを説明するため、腎病理のための完全に注釈付き人工画像データセットであるKidneyArtPathologyを作成した。
関連論文リスト
- Stain-Invariant Representation for Tissue Classification in Histology Images [1.1624569521079424]
染色摂動行列を用いたトレーニング画像の染色増分版を生成するフレームワークを提案する。
大腸癌画像のクロスドメイン多クラス組織型分類における提案モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-11-21T23:50:30Z) - Unsupervised Latent Stain Adaptation for Computational Pathology [2.483372684394528]
スタン適応は、ターゲットの染色を一般化するソース染色のモデルをトレーニングすることで、異なる染色間の一般化誤差を低減することを目的としている。
我々は,Unsupervised Latent Stain Adaptation (ULSA) と呼ばれる,すべてのステンド画像を含む人工ラベル付きと非ラベル付きデータの共同トレーニングを提案する。
本手法では, 教師付き信号の増大のために, ラベル付きソース画像に合成対象画像を付加するために, ステンドトランスフォーメーションを用いる。
論文 参考訳(メタデータ) (2024-06-27T11:08:42Z) - Synthetic optical coherence tomography angiographs for detailed retinal
vessel segmentation without human annotations [12.571349114534597]
本稿では,より高速でリアルなOCTA合成のために,空間コロニー化に基づく網膜血管網の軽量なシミュレーションを行う。
本研究では,3つの公開データセットに対する定量的および定性的実験において,提案手法の優れたセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-06-19T14:01:47Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Stain-Adaptive Self-Supervised Learning for Histopathology Image
Analysis [3.8073142980733]
病理画像解析のためのSASSL法を提案する。
当社のSASSLはSSLフレームワークにドメイン・アドバイザリ・トレーニング・モジュールを統合して,さまざまな変換やスタイラスのバリエーションに対して堅牢な特徴を学習しています。
実験結果から,提案手法はモデルの特徴抽出能力を頑健に向上できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:54:46Z) - RandStainNA: Learning Stain-Agnostic Features from Histology Slides by
Bridging Stain Augmentation and Normalization [45.81689497433507]
ステン正規化(SN)とステン強化(SA)という2つの提案が一般化誤差を低減するために注目されている。
この問題に対処するため、SNとSAを新しいRandStainNAスキームで統一する。
RandStainNAは、ステンレスに依存しないディープラーニングモデルをトレーニングするために、実行可能な範囲で可変ステンスタイルを制約する。
論文 参考訳(メタデータ) (2022-06-25T16:43:59Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Towards Histopathological Stain Invariance by Unsupervised Domain
Augmentation using Generative Adversarial Networks [0.7340845393655052]
対比画像から画像への変換に基づく教師なし増分手法を提案する。
ネットワークを一般的な染色モダリティでトレーニングし、それに対応するが異なる染色組織構造を含む画像に適用することにより、提案手法は大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2020-12-22T23:32:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。