論文の概要: A Laplacian Pyramid Based Generative H&E Stain Augmentation Network
- arxiv url: http://arxiv.org/abs/2305.14301v2
- Date: Fri, 14 Jul 2023 18:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 22:20:33.068675
- Title: A Laplacian Pyramid Based Generative H&E Stain Augmentation Network
- Title(参考訳): ラプラシアンピラミッドを用いた生成H&Eステイン拡張ネットワーク
- Authors: Fangda Li, Zhiqiang Hu, Wen Chen, Avinash Kak
- Abstract要約: Generative Stain Augmentation Network (G-SAN)は、GANベースのフレームワークで、シミュレーションされた染色のバリエーションでセルイメージのコレクションを増強する。
G-SAN強化トレーニングデータを使用することで、平均15.7%のF1スコアの改善、7.3%の汎光学品質向上が達成される。
- 参考スコア(独自算出の注目度): 5.841841666625825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hematoxylin and Eosin (H&E) staining is a widely used sample preparation
procedure for enhancing the saturation of tissue sections and the contrast
between nuclei and cytoplasm in histology images for medical diagnostics.
However, various factors, such as the differences in the reagents used, result
in high variability in the colors of the stains actually recorded. This
variability poses a challenge in achieving generalization for machine-learning
based computer-aided diagnostic tools. To desensitize the learned models to
stain variations, we propose the Generative Stain Augmentation Network (G-SAN)
-- a GAN-based framework that augments a collection of cell images with
simulated yet realistic stain variations. At its core, G-SAN uses a novel and
highly computationally efficient Laplacian Pyramid (LP) based generator
architecture, that is capable of disentangling stain from cell morphology.
Through the task of patch classification and nucleus segmentation, we show that
using G-SAN-augmented training data provides on average 15.7% improvement in F1
score and 7.3% improvement in panoptic quality, respectively. Our code is
available at https://github.com/lifangda01/GSAN-Demo.
- Abstract(参考訳): ヘマトキシリンおよびエオシン染色(ヘマトキシリンとエオシン、H&E)は、組織部位の飽和度と核と細胞質のコントラストを高めるために広く用いられている試料調製法である。
しかし、使用中の試薬の違いなど様々な要因により、実際に記録された染料の色が変化しやすい。
この可変性は、機械学習ベースのコンピュータ支援診断ツールの一般化を達成する上で課題となる。
GANベースのフレームワークであるGenerative Stain Augmentation Network (G-SAN)を提案する。
その核となるg-sanは、細胞の形態から染色を分離できる新しい計算効率の高いラプラシアンピラミッド(lp)ベースのジェネレータアーキテクチャを使用している。
パッチ分類と核分割の課題を通じて,G-SANによるトレーニングデータを用いることで,F1スコアの平均15.7%,汎視的品質7.3%の向上が得られた。
私たちのコードはhttps://github.com/lifangda01/gsan-demoで利用可能です。
関連論文リスト
- Stain Consistency Learning: Handling Stain Variation for Automatic
Digital Pathology Segmentation [3.2386272343130127]
染色色不変の特徴を学習するために,染色特異的増色と染色一貫性損失関数を組み合わせた新しいフレームワークを提案する。
マソンのトリクロマトクロムとH&E染色細胞と核データセットの10つの手法を比較した。
その結果,染色法は同等あるいは悪い性能を示したが,染色法や染色法では性能が向上した。
論文 参考訳(メタデータ) (2023-11-11T12:00:44Z) - Synthetic DOmain-Targeted Augmentation (S-DOTA) Improves Model
Generalization in Digital Pathology [1.488519799639108]
機械学習アルゴリズムは、デジタル病理学における患者の結果を改善する可能性がある。
一般化は、組織製剤、染色手順、走査装置の変化に対する感受性によって制限される。
合成DOmain-Targeted Augmentation (S-DOTA) 法,すなわち CycleGAN 対応 Scanner Transform (ST) と Stain Vector Augmentation (SVA) の有効性を検討した。
我々は,これらの手法が様々なタスクや設定に対するモデル一般化を改善する能力を評価した。
論文 参考訳(メタデータ) (2023-05-03T19:53:30Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - RandStainNA: Learning Stain-Agnostic Features from Histology Slides by
Bridging Stain Augmentation and Normalization [45.81689497433507]
ステン正規化(SN)とステン強化(SA)という2つの提案が一般化誤差を低減するために注目されている。
この問題に対処するため、SNとSAを新しいRandStainNAスキームで統一する。
RandStainNAは、ステンレスに依存しないディープラーニングモデルをトレーニングするために、実行可能な範囲で可変ステンスタイルを制約する。
論文 参考訳(メタデータ) (2022-06-25T16:43:59Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Deep learning-based bias transfer for overcoming laboratory differences
of microscopic images [0.0]
免疫蛍光(IF)およびヘマトキシリンおよびエオシン(H&E)染色顕微鏡画像の領域シフトを克服するために,既存の生成モデルアーキテクチャを評価し,比較し,改良する。
前立腺生検では,ヒト腎糸球体およびポドサイトに対するピクセルレベルのセグメンテーションが有意に向上し,分類精度が最大14%向上した。
論文 参考訳(メタデータ) (2021-05-25T09:02:30Z) - StyPath: Style-Transfer Data Augmentation For Robust Histology Image
Classification [6.690876060631452]
我々は,StyPathに基づくAMR分類のための,堅牢なディープニューラルネットワークを構築するための新しいパイプラインを提案する。
それぞれの画像は、1GTX V TITANとpytorchを使って1.84 + 0.03秒で生成された。
以上の結果から,本手法は組織学的分類性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2020-07-09T18:02:49Z) - LeafGAN: An Effective Data Augmentation Method for Practical Plant
Disease Diagnosis [2.449909275410288]
LeafGANは、健康な画像からの変換によって、さまざまな病気の画像を生成する。
注意機構により、我々のモデルは様々な背景を持つ画像から関連領域のみを変換できる。
論文 参考訳(メタデータ) (2020-02-24T07:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。