論文の概要: Improving Stain Invariance of CNNs for Segmentation by Fusing Channel
Attention and Domain-Adversarial Training
- arxiv url: http://arxiv.org/abs/2304.11445v1
- Date: Sat, 22 Apr 2023 16:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:19:16.053505
- Title: Improving Stain Invariance of CNNs for Segmentation by Fusing Channel
Attention and Domain-Adversarial Training
- Title(参考訳): チャネル・アテンションとドメイン・adversarial trainingを用いたセグメンテーションのためのcnnの染色不分散の改善
- Authors: Kudaibergen Abutalip, Numan Saeed, Mustaqeem Khan, Abdulmotaleb El
Saddik
- Abstract要約: 異なるスライド作成技術、化学物質、スキャナ構成などの染色プロトコルのばらつきは、スライド画像全体(WSI)の多様なセットをもたらす可能性がある。
この分布シフトは、見えないサンプルに対するディープラーニングモデルの性能に悪影響を及ぼす可能性がある。
セマンティックセグメンテーションのための単一ソース設定における変化を染色するために,畳み込みニューラルネットワーク(CNN)の一般化性を改善する手法を提案する。
- 参考スコア(独自算出の注目度): 5.501810688265425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variability in staining protocols, such as different slide preparation
techniques, chemicals, and scanner configurations, can result in a diverse set
of whole slide images (WSIs). This distribution shift can negatively impact the
performance of deep learning models on unseen samples, presenting a significant
challenge for developing new computational pathology applications. In this
study, we propose a method for improving the generalizability of convolutional
neural networks (CNNs) to stain changes in a single-source setting for semantic
segmentation. Recent studies indicate that style features mainly exist as
covariances in earlier network layers. We design a channel attention mechanism
based on these findings that detects stain-specific features and modify the
previously proposed stain-invariant training scheme. We reweigh the outputs of
earlier layers and pass them to the stain-adversarial training branch. We
evaluate our method on multi-center, multi-stain datasets and demonstrate its
effectiveness through interpretability analysis. Our approach achieves
substantial improvements over baselines and competitive performance compared to
other methods, as measured by various evaluation metrics. We also show that
combining our method with stain augmentation leads to mutually beneficial
results and outperforms other techniques. Overall, our study makes significant
contributions to the field of computational pathology.
- Abstract(参考訳): 異なるスライド合成技術、化学薬品、スキャナ構成などの染色プロトコルの変動性は、スライド画像全体(wsis)の多様なセットをもたらす可能性がある。
この分布シフトは、未知のサンプルに対するディープラーニングモデルの性能に悪影響を及ぼし、新しい計算病理学アプリケーションを開発する上で大きな課題となる。
本研究では,セマンティックセグメンテーションのための単一ソース設定における変化を染色するために,畳み込みニューラルネットワーク(CNN)の一般化性を向上させる手法を提案する。
最近の研究では、スタイルの特徴は主に以前のネットワーク層における共分散として存在することが示されている。
本研究は,これらの特徴を検出できるチャネルアテンション機構の設計と,提案するステンドインバリアントトレーニング方式の修正を行う。
我々は、以前のレイヤの出力を再検討し、それらをステンド-逆行訓練ブランチに渡す。
本稿では,マルチセンタ・マルチステインデータセットの手法を評価し,解釈可能性解析によりその効果を示す。
提案手法は, 各種評価指標を用いて, 他の手法と比較して, ベースラインと競争性能を大幅に改善する。
また,本法と染色増強法を組み合わせると,相互に有益な結果が得られ,他の手法よりも優れることを示した。
全体として,我々の研究は計算病理学の分野に大きく貢献している。
関連論文リスト
- Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Demystify Transformers & Convolutions in Modern Image Deep Networks [82.32018252867277]
本稿では,一般のコンボリューションとアテンション演算子の真の利益を,詳細な研究により同定することを目的とする。
注意や畳み込みのようなこれらの特徴変換モジュールの主な違いは、それらの空間的特徴集約アプローチにある。
各種課題の実験と帰納的バイアスの解析により,ネットワークレベルとブロックレベルの高度な設計により,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-10T18:59:43Z) - Stain-Adaptive Self-Supervised Learning for Histopathology Image
Analysis [3.8073142980733]
病理画像解析のためのSASSL法を提案する。
当社のSASSLはSSLフレームワークにドメイン・アドバイザリ・トレーニング・モジュールを統合して,さまざまな変換やスタイラスのバリエーションに対して堅牢な特徴を学習しています。
実験結果から,提案手法はモデルの特徴抽出能力を頑健に向上できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:54:46Z) - Unsupervised Domain Adaptation Using Feature Disentanglement And GCNs
For Medical Image Classification [5.6512908295414]
本稿では,グラフニューラルネットワークを用いた教師なし領域適応手法を提案する。
分布シフトを伴う2つの挑戦的医用画像データセットの分類法について検討した。
実験により,本手法は他の領域適応法と比較して最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2022-06-27T09:02:16Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。