論文の概要: RandStainNA: Learning Stain-Agnostic Features from Histology Slides by
Bridging Stain Augmentation and Normalization
- arxiv url: http://arxiv.org/abs/2206.12694v1
- Date: Sat, 25 Jun 2022 16:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:14:56.834465
- Title: RandStainNA: Learning Stain-Agnostic Features from Histology Slides by
Bridging Stain Augmentation and Normalization
- Title(参考訳): RandStainNA: ブリジングステイン増強と正規化による組織スライドからのステイン非依存的特徴の学習
- Authors: Yiqing Shen, Yulin Luo, Dinggang Shen, Jing Ke
- Abstract要約: ステン正規化(SN)とステン強化(SA)という2つの提案が一般化誤差を低減するために注目されている。
この問題に対処するため、SNとSAを新しいRandStainNAスキームで統一する。
RandStainNAは、ステンレスに依存しないディープラーニングモデルをトレーニングするために、実行可能な範囲で可変ステンスタイルを制約する。
- 参考スコア(独自算出の注目度): 45.81689497433507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stain variations often decrease the generalization ability of deep learning
based approaches in digital histopathology analysis. Two separate proposals,
namely stain normalization (SN) and stain augmentation (SA), have been
spotlighted to reduce the generalization error, where the former alleviates the
stain shift across different medical centers using template image and the
latter enriches the accessible stain styles by the simulation of more stain
variations. However, their applications are bounded by the selection of
template images and the construction of unrealistic styles. To address the
problems, we unify SN and SA with a novel RandStainNA scheme, which constrains
variable stain styles in a practicable range to train a stain agnostic deep
learning model. The RandStainNA is applicable to stain normalization in a
collection of color spaces i.e. HED, HSV, LAB. Additionally, we propose a
random color space selection scheme to gain extra performance improvement. We
evaluate our method by two diagnostic tasks i.e. tissue subtype classification
and nuclei segmentation, with various network backbones. The performance
superiority over both SA and SN yields that the proposed RandStainNA can
consistently improve the generalization ability, that our models can cope with
more incoming clinical datasets with unpredicted stain styles. The codes is
available at https://github.com/yiqings/RandStainNA.
- Abstract(参考訳): デジタル病理学解析における深層学習に基づくアプローチの一般化能力の低下がしばしば起こる。
ステンドノーマイゼーション (sn) とステンド増補 (sa) という2つの異なる提案がスポットライトを浴びて一般化誤差を減少させ、前者はテンプレート画像を用いて異なる医療センターを横断するステンドシフトを緩和し、後者はより多くの染色変異のシミュレーションによりアクセス可能なステンドスタイルを豊かにする。
しかし、それらの応用はテンプレート画像の選択と非現実的なスタイルの構築によって制限される。
この問題に対処するために、我々はsnとsaを新しいランドステナスキームで統一し、可変染色スタイルを実用可能な範囲に制限し、ステンド非依存なディープラーニングモデルを訓練する。
RandStainNAは、HED、HSV、LABといった色空間の集合における染色正規化に適用できる。
さらに,さらなる性能向上を実現するために,ランダムな色空間選択方式を提案する。
組織サブタイプ分類と核セグメンテーションの2つの診断課題により,様々なネットワークバックボーンを用いた評価を行った。
SAとSNの性能上の優位性は、提案したRandStainNAが常に一般化能力を向上し、我々のモデルが予測できないステンレススタイルでより多くの臨床データセットに対処できることを意味している。
コードはhttps://github.com/yiqings/randstainnaで入手できる。
関連論文リスト
- Unsupervised Latent Stain Adaptation for Computational Pathology [2.483372684394528]
スタン適応は、ターゲットの染色を一般化するソース染色のモデルをトレーニングすることで、異なる染色間の一般化誤差を低減することを目的としている。
我々は,Unsupervised Latent Stain Adaptation (ULSA) と呼ばれる,すべてのステンド画像を含む人工ラベル付きと非ラベル付きデータの共同トレーニングを提案する。
本手法では, 教師付き信号の増大のために, ラベル付きソース画像に合成対象画像を付加するために, ステンドトランスフォーメーションを用いる。
論文 参考訳(メタデータ) (2024-06-27T11:08:42Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - A Laplacian Pyramid Based Generative H&E Stain Augmentation Network [5.841841666625825]
Generative Stain Augmentation Network (G-SAN)は、GANベースのフレームワークで、シミュレーションされた染色のバリエーションでセルイメージのコレクションを増強する。
G-SAN強化トレーニングデータを使用することで、平均15.7%のF1スコアの改善、7.3%の汎光学品質向上が達成される。
論文 参考訳(メタデータ) (2023-05-23T17:43:18Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - HistoStarGAN: A Unified Approach to Stain Normalisation, Stain Transfer
and Stain Invariant Segmentation in Renal Histopathology [0.5505634045241288]
HistoStarGANは、複数の染色間での染色を行う統一されたフレームワークである。
合成データジェネレータとして機能し、完全に注釈付けされた合成画像データの使用方法を舗装する。
論文 参考訳(メタデータ) (2022-10-18T12:22:26Z) - Stain-Adaptive Self-Supervised Learning for Histopathology Image
Analysis [3.8073142980733]
病理画像解析のためのSASSL法を提案する。
当社のSASSLはSSLフレームワークにドメイン・アドバイザリ・トレーニング・モジュールを統合して,さまざまな変換やスタイラスのバリエーションに対して堅牢な特徴を学習しています。
実験結果から,提案手法はモデルの特徴抽出能力を頑健に向上できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:54:46Z) - Structure-Preserving Multi-Domain Stain Color Augmentation using
Style-Transfer with Disentangled Representations [0.9051352746190446]
HistAuGANは、様々な現実的な組織学の染色色をシミュレートできるため、トレーニング中にニューラルネットワークの染色が不変になる。
画像から画像への変換のためのGAN(generative adversarial network)に基づいて,画像の内容,すなわち形態的組織構造を染色色属性から切り離す。
複数のドメインでトレーニングすることができるため、スライド作成および撮像プロセスで導入された他のドメイン固有のバリエーションと同様に、異なる染色色をカバーできることを学ぶことができる。
論文 参考訳(メタデータ) (2021-07-26T17:52:39Z) - Black-Box Diagnosis and Calibration on GAN Intra-Mode Collapse: A Pilot
Study [116.05514467222544]
現在、GAN(Generative Adversarial Network)は驚くべきリアリズムの画像を生成することができる。
懸念の1つは、最先端のGANの学習分布が依然としてモード崩壊に悩まされているかどうかである。
本稿では,GANのモード内崩壊を診断し,新たなブラックボックス設定でそれを校正する方法について検討する。
論文 参考訳(メタデータ) (2021-07-23T06:03:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。