論文の概要: Adaptive Supervised PatchNCE Loss for Learning H&E-to-IHC Stain
Translation with Inconsistent Groundtruth Image Pairs
- arxiv url: http://arxiv.org/abs/2303.06193v1
- Date: Fri, 10 Mar 2023 19:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 20:33:12.648266
- Title: Adaptive Supervised PatchNCE Loss for Learning H&E-to-IHC Stain
Translation with Inconsistent Groundtruth Image Pairs
- Title(参考訳): 不整合基底画像ペアを用いたH&E-IHCスタン翻訳学習のための適応的PatchNCE損失
- Authors: Fangda Li, Zhiqiang Hu, Wen Chen and Avinash Kak
- Abstract要約: 本稿では,新たな損失関数であるAdaptive Supervised PatchNCE(ASP)を提案する。
提案手法は, 既存の画像から画像への変換手法より, 複数のICH染色への染色の変換に優れることを示した。
- 参考スコア(独自算出の注目度): 5.841841666625825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Immunohistochemical (IHC) staining highlights the molecular information
critical to diagnostics in tissue samples. However, compared to H&E staining,
IHC staining can be much more expensive in terms of both labor and the
laboratory equipment required. This motivates recent research that demonstrates
that the correlations between the morphological information present in the
H&E-stained slides and the molecular information in the IHC-stained slides can
be used for H&E-to-IHC stain translation. However, due to a lack of
pixel-perfect H&E-IHC groundtruth pairs, most existing methods have resorted to
relying on expert annotations. To remedy this situation, we present a new loss
function, Adaptive Supervised PatchNCE (ASP), to directly deal with the input
to target inconsistencies in a proposed H&E-to-IHC image-to-image translation
framework. The ASP loss is built upon a patch-based contrastive learning
criterion, named Supervised PatchNCE (SP), and augments it further with weight
scheduling to mitigate the negative impact of noisy supervision. Lastly, we
introduce the Multi-IHC Stain Translation (MIST) dataset, which contains
aligned H&E-IHC patches for 4 different IHC stains critical to breast cancer
diagnosis. In our experiment, we demonstrate that our proposed method
outperforms existing image-to-image translation methods for stain translation
to multiple IHC stains. All of our code and datasets are available at
https://github.com/lifangda01/AdaptiveSupervisedPatchNCE.
- Abstract(参考訳): 免疫組織化学(IHC)染色は、組織サンプルの診断に不可欠な分子情報を強調する。
しかし、H&E染色と比較して、IHC染色は労働力と実験機器の両方においてはるかに高価である。
このことは、H&Eスライディングスライドに存在する形態情報とIHCスライディングスライドに含まれる分子情報との相関が、H&E-to-IHCスライディング翻訳に利用できることを示す最近の研究を動機付けている。
しかし、ピクセル完全H&E-IHC基底構造対が不足しているため、既存の手法の多くは専門家のアノテーションに頼っている。
この状況を改善するために,提案するH&E-to-IHC画像-画像変換フレームワークにおいて,ターゲット不整合に対する入力を直接処理する新たな損失関数であるAdaptive Supervised PatchNCE(ASP)を提案する。
ASPの損失は、Supervised PatchNCE(SP)と名付けられたパッチベースのコントラスト学習基準に基づいて構築され、重み付けスケジューリングにより、ノイズの多い監視の影響を緩和する。
最後に,乳がん診断に欠かせない4種類のIHC染色のH&E-IHCパッチを含むMulti-IHC Stain Translation (MIST)データセットを紹介する。
本実験では,提案手法が既存の画像から画像への変換手法よりも優れていることを実証する。
コードとデータセットはすべてhttps://github.com/lifangda01/AdaptiveSupervisedPatchNCEで公開されています。
関連論文リスト
- Improving Vision Anomaly Detection with the Guidance of Language
Modality [64.53005837237754]
本稿では,マルチモーダルの観点から視覚モダリティの課題に取り組む。
本稿では,冗長な情報問題とスパース空間問題に対処するために,クロスモーダルガイダンス(CMG)を提案する。
視覚異常検出のためのよりコンパクトな潜在空間を学習するために、CMLEは言語モダリティから相関構造行列を学習する。
論文 参考訳(メタデータ) (2023-10-04T13:44:56Z) - Structural Cycle GAN for Virtual Immunohistochemistry Staining of Gland
Markers in the Colon [1.741980945827445]
ヘマトキシリンとエオシン(H&E)染色は疾患解析、診断、グレーディングにおいて最も頻繁に用いられる染色の一つである。
病理学者は、特定の構造や細胞を分析するために異種化学染色(IHC)を必要とする。
ヘマトキシリンとエオシン(H&E)染色は疾患解析、診断、グレーディングにおいて最も頻繁に用いられる染色の一つである。
論文 参考訳(メタデータ) (2023-08-25T05:24:23Z) - Immunohistochemistry Biomarkers-Guided Image Search for Histopathology [0.4383205675898942]
我々は、複数のIHCバイオマーカー画像から得られる情報を用いて、病理医のワークフローにインスパイアされた画像検索手法を提案する。
IHC誘導画像検索エンジンは、IHC誘導のない従来の(H&Eのみ)検索エンジンよりも正確な関連データを検索することができる。
論文 参考訳(メタデータ) (2023-04-24T20:08:48Z) - Composite Biomarker Image for Advanced Visualization in Histopathology [0.37399138244928143]
複合バイオマーカー画像(CBI)は、異なるフィルタIHCバイオマーカー画像を用いて合成された単一の画像である。
CBIは、病理学者が被疑組織の同定をより容易にし、同一の被疑領域における実際のWSIを調べることでさらに評価することができる。
論文 参考訳(メタデータ) (2023-04-24T20:07:42Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Region-guided CycleGANs for Stain Transfer in Whole Slide Images [6.704730171977661]
そこで本研究では,CycleGANを関心差別の領域として拡張する手法を提案する。
我々は,IHC染色が転移細胞に対して実験的に発生する信号を提供するスライド画像全体に対するユースケースを提案する。
論文 参考訳(メタデータ) (2022-08-26T19:12:49Z) - Breast Cancer Molecular Subtypes Prediction on Pathological Images with
Discriminative Patch Selecting and Multi-Instance Learning [10.297389245429173]
本稿では,識別的パッチ選択とマルチインスタンス学習に基づく弱教師付き学習フレームワークを提案する。
我々のモデルは、臨床におけるICCのパラフィンブロックのプリスクリーン化を支援するために、高齢者の病理学者よりも優れていた。
論文 参考訳(メタデータ) (2022-03-15T05:40:03Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Categorical Relation-Preserving Contrastive Knowledge Distillation for
Medical Image Classification [75.27973258196934]
そこで本研究では,一般的な平均教師モデルであるCRCKD(Categorical Relation-Reserving Contrastive Knowledge Distillation)アルゴリズムを提案する。
この正規化により、学生モデルの特徴分布はクラス内類似度が高く、クラス間分散を示す。
CCDとCRPの貢献により、我々のCRCKDアルゴリズムはより包括的に関係知識を蒸留することができる。
論文 参考訳(メタデータ) (2021-07-07T13:56:38Z) - Dual-Consistency Semi-Supervised Learning with Uncertainty
Quantification for COVID-19 Lesion Segmentation from CT Images [49.1861463923357]
CT画像を用いた半監視型COVID-19病変分割のための不確実性誘導型二重一貫性学習ネットワーク(UDC-Net)を提案する。
提案した UDC-Net は,Dice の完全教師方式を 6.3% 向上させ,他の競合的半監督方式を有意なマージンで上回っている。
論文 参考訳(メタデータ) (2021-04-07T16:23:35Z) - Alleviating the Incompatibility between Cross Entropy Loss and Episode
Training for Few-shot Skin Disease Classification [76.89093364969253]
そこで本研究では,皮膚疾患の診断にFew-Shot Learningを応用し,トレーニングサンプル問題の極端な不足に対処することを提案する。
本稿では, エピソード学習において, クロスエントロピー(CE)よりも優れたクエリ-相対的損失(QR)を提案する。
さらに,新しい適応型ハードマージン戦略により,提案したQR損失をさらに強化する。
論文 参考訳(メタデータ) (2020-04-21T00:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。