論文の概要: Region-guided CycleGANs for Stain Transfer in Whole Slide Images
- arxiv url: http://arxiv.org/abs/2208.12847v1
- Date: Fri, 26 Aug 2022 19:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:36:01.864127
- Title: Region-guided CycleGANs for Stain Transfer in Whole Slide Images
- Title(参考訳): 全スライド画像におけるステン転送のための領域誘導サイクルGAN
- Authors: Joseph Boyd, Ir\`ene Villa, Marie-Christine Mathieu, Eric Deutsch,
Nikos Paragios, Maria Vakalopoulou, Stergios Christodoulidis
- Abstract要約: そこで本研究では,CycleGANを関心差別の領域として拡張する手法を提案する。
我々は,IHC染色が転移細胞に対して実験的に発生する信号を提供するスライド画像全体に対するユースケースを提案する。
- 参考スコア(独自算出の注目度): 6.704730171977661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In whole slide imaging, commonly used staining techniques based on
hematoxylin and eosin (H&E) and immunohistochemistry (IHC) stains accentuate
different aspects of the tissue landscape. In the case of detecting metastases,
IHC provides a distinct readout that is readily interpretable by pathologists.
IHC, however, is a more expensive approach and not available at all medical
centers. Virtually generating IHC images from H&E using deep neural networks
thus becomes an attractive alternative. Deep generative models such as
CycleGANs learn a semantically-consistent mapping between two image domains,
while emulating the textural properties of each domain. They are therefore a
suitable choice for stain transfer applications. However, they remain fully
unsupervised, and possess no mechanism for enforcing biological consistency in
stain transfer. In this paper, we propose an extension to CycleGANs in the form
of a region of interest discriminator. This allows the CycleGAN to learn from
unpaired datasets where, in addition, there is a partial annotation of objects
for which one wishes to enforce consistency. We present a use case on whole
slide images, where an IHC stain provides an experimentally generated signal
for metastatic cells. We demonstrate the superiority of our approach over prior
art in stain transfer on histopathology tiles over two datasets. Our code and
model are available at https://github.com/jcboyd/miccai2022-roigan.
- Abstract(参考訳): 全スライド画像では、ヘマトキシリンとエオシン(H&E)をベースとした染色技術と免疫組織化学(IHC)染色が組織景観の異なる側面をアクセントする。
転移を検出する場合、IHCは病理学者によって容易に解釈できる独自の読み出しを提供する。
しかし、IHCはより高価なアプローチであり、すべての医療センターで利用できない。
ディープニューラルネットワークを使用してH&EからIHCイメージを仮想的に生成することで、魅力的な代替手段となる。
サイクルガンのような深い生成モデルは、各ドメインのテクスチャ特性をエミュレートしながら、2つのイメージドメイン間の意味的に一貫性のあるマッピングを学ぶ。
したがって、これらは染色転移応用に適した選択である。
しかし、完全に管理されていないままであり、染色における生物学的一貫性を強制するメカニズムを持たない。
本稿では,CycleGANを関心差別の領域として拡張する手法を提案する。
これによりcycleganは、一貫性を強制したいオブジェクトの部分的なアノテーションがある非ペアデータセットから学習することができる。
我々は,IHC染色が転移細胞に対して実験的に発生する信号を提供するスライド画像全体に対するユースケースを提案する。
2つのデータセット上の病理組織学タイルの染色転移における先行技術に対するアプローチの優位性を実証する。
私たちのコードとモデルはhttps://github.com/jcboyd/miccai2022-roiganで利用可能です。
関連論文リスト
- StainDiffuser: MultiTask Dual Diffusion Model for Virtual Staining [1.9029890402585894]
ヘマトキシリンとエオシン(H&E)染色は、疾患の診断や腫瘍再発追跡に最もよく用いられる。
ディープラーニングモデルは、画像から画像への変換(I2I)を重要な研究領域とし、高価な物理的染色プロセスの必要性を減らす。
StainDiffuserは、仮想染色のための新しい二重拡散アーキテクチャであり、限られたトレーニング予算の下で収束する。
論文 参考訳(メタデータ) (2024-03-17T20:47:52Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - Structural Cycle GAN for Virtual Immunohistochemistry Staining of Gland
Markers in the Colon [1.741980945827445]
ヘマトキシリンとエオシン(H&E)染色は疾患解析、診断、グレーディングにおいて最も頻繁に用いられる染色の一つである。
病理学者は、特定の構造や細胞を分析するために異種化学染色(IHC)を必要とする。
ヘマトキシリンとエオシン(H&E)染色は疾患解析、診断、グレーディングにおいて最も頻繁に用いられる染色の一つである。
論文 参考訳(メタデータ) (2023-08-25T05:24:23Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - HistoStarGAN: A Unified Approach to Stain Normalisation, Stain Transfer
and Stain Invariant Segmentation in Renal Histopathology [0.5505634045241288]
HistoStarGANは、複数の染色間での染色を行う統一されたフレームワークである。
合成データジェネレータとして機能し、完全に注釈付けされた合成画像データの使用方法を舗装する。
論文 参考訳(メタデータ) (2022-10-18T12:22:26Z) - Virtual stain transfer in histology via cascaded deep neural networks [2.309018557701645]
ケースドディープニューラルネットワーク(C-DNN)による仮想染色伝達フレームワークの実証を行った。
C-DNNは、入力として1つの染色タイプのみを取り込んで別の染色タイプの画像をデジタル出力する単一のニューラルネットワーク構造とは異なり、まず仮想染色を使用して、自己蛍光顕微鏡画像をH&Eに変換する。
我々は,H&E染色組織像を仮想PAS( periodic acid-Schiff)染色に変換することに成功した。
論文 参考訳(メタデータ) (2022-07-14T00:43:18Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - What Can Be Transferred: Unsupervised Domain Adaptation for Endoscopic
Lesions Segmentation [51.7837386041158]
内視鏡的病変分割のための2つの相補的モジュールを含む新しい教師なしセマンティックトランスファーモデルを開発した。
特に、T_Dは、残留転写可能性を認識するボトルネックを介して、医療病変の伝達可能な視覚情報を翻訳する場所に焦点を当てている。
T_Fは、さまざまな病変のトランスファー可能なセマンティック機能を拡張し、自動的に非トランスファー可能な表現を無視する方法を強調している。
論文 参考訳(メタデータ) (2020-04-24T00:57:05Z) - Pix2Pix-based Stain-to-Stain Translation: A Solution for Robust Stain
Normalization in Histopathology Images Analysis [5.33024001730262]
Stain-to-Stain Translation (STST) はヘマトキシリンおよびエオシン染色組織像の正常化に用いられている。
条件付きジェネレータ対向ネットワーク(cGAN)を用いたピクス2ピクセルフレームワークに基づく翻訳処理を行う。
論文 参考訳(メタデータ) (2020-02-03T11:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。