論文の概要: ContriMix: Scalable stain color augmentation for domain generalization
without domain labels in digital pathology
- arxiv url: http://arxiv.org/abs/2306.04527v4
- Date: Fri, 8 Mar 2024 17:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 23:35:12.877670
- Title: ContriMix: Scalable stain color augmentation for domain generalization
without domain labels in digital pathology
- Title(参考訳): ContriMix: デジタル病理学におけるドメインラベルなしのドメイン一般化のためのスケーラブルな染色色増強
- Authors: Tan H. Nguyen, Dinkar Juyal, Jin Li, Aaditya Prakash, Shima Nofallah,
Chintan Shah, Sai Chowdary Gullapally, Limin Yu, Michael Griffin, Anand
Sampat, John Abel, Justin Lee, Amaro Taylor-Weiner
- Abstract要約: ContriMix(コントリミクス)は、DRIT++をベースとした無料の染色色増色法である。
トレーニング用ミニバッチとランダムミキシングのサンプル染色色変化を利用して、病理画像からコンテンツや属性情報を抽出する。
その性能は、病理画像中の希少物質からの色変化に頑健でありながら、テストセット内の異なるスライド間で一貫性がある。
- 参考スコア(独自算出の注目度): 7.649593612014923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differences in staining and imaging procedures can cause significant color
variations in histopathology images, leading to poor generalization when
deploying deep-learning models trained from a different data source. Various
color augmentation methods have been proposed to generate synthetic images
during training to make models more robust, eliminating the need for stain
normalization during test time. Many color augmentation methods leverage domain
labels to generate synthetic images. This approach causes three significant
challenges to scaling such a model. Firstly, incorporating data from a new
domain into deep-learning models trained on existing domain labels is not
straightforward. Secondly, dependency on domain labels prevents the use of
pathology images without domain labels to improve model performance. Finally,
implementation of these methods becomes complicated when multiple domain labels
(e.g., patient identification, medical center, etc) are associated with a
single image. We introduce ContriMix, a novel domain label free stain color
augmentation method based on DRIT++, a style-transfer method. Contrimix
leverages sample stain color variation within a training minibatch and random
mixing to extract content and attribute information from pathology images. This
information can be used by a trained ContriMix model to create synthetic images
to improve the performance of existing classifiers. ContriMix outperforms
competing methods on the Camelyon17-WILDS dataset. Its performance is
consistent across different slides in the test set while being robust to the
color variation from rare substances in pathology images. We make our code and
trained ContriMix models available for research use. The code for ContriMix can
be found at https://gitlab.com/huutan86/contrimix
- Abstract(参考訳): 染色法とイメージング法の違いは、病理組織像に有意な色変化をもたらし、異なるデータソースからトレーニングされたディープラーニングモデルをデプロイする際の一般化を損なう。
モデルをより堅牢にするために、トレーニング中に合成画像を生成するために様々な色増色法が提案されている。
多くのカラー増色法はドメインラベルを利用して合成画像を生成する。
このアプローチは、そのようなモデルのスケーリングに3つの大きな課題を引き起こす。
まず、新しいドメインからのデータを既存のドメインラベルでトレーニングされたディープラーニングモデルに組み込むことは簡単ではない。
第二に、ドメインラベルへの依存は、モデルパフォーマンスを改善するためにドメインラベルなしで病理画像を使用するのを防ぐ。
最後に、複数のドメインラベル(患者識別、医療センターなど)が単一の画像に関連付けられると、これらの方法の実装が複雑になる。
本稿では,DRIT++に基づく新しいドメインラベルフリーの染色色拡張手法であるContriMixを紹介する。
Contrimixはトレーニング用ミニバッチとランダムミキシングのサンプル染色色変化を利用して、病理画像からコンテンツや属性情報を抽出する。
この情報は、トレーニングされたContriMixモデルによって、既存の分類器のパフォーマンスを改善するために合成画像を作成するために使用できる。
ContriMixはCamelyon17-WILDSデータセットの競合メソッドよりも優れています。
その性能はテストセットの異なるスライドにまたがって一貫しており、病理画像における希少物質の色変化に頑健である。
コードとトレーニングされたcontrimixモデルを研究用に提供しています。
contrimixのコードはhttps://gitlab.com/huutan86/contrimixにある。
関連論文リスト
- Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - SynCDR : Training Cross Domain Retrieval Models with Synthetic Data [90.52089050926057]
クロスドメイン検索では、同じ意味圏から2つの視覚領域にまたがるイメージを識別するためにモデルが必要である。
本稿では、これらの欠落したカテゴリの例をドメイン間で補うために合成データを生成するための簡単な解を提案する。
我々は、この翻訳のために訓練された2つのドメインと、プロンプトを介して大規模に訓練されたテキストから画像への拡散モデルを使用するドメインを比較した。
論文 参考訳(メタデータ) (2023-12-31T08:06:53Z) - SPDGAN: A Generative Adversarial Network based on SPD Manifold Learning
for Automatic Image Colorization [1.220743263007369]
生成逆ネットワーク(SPDGAN)を用いたSymmetric Positive Definite (SPD) Manifold Learningに基づく完全自動カラー化手法を提案する。
本モデルは,2つの識別器とジェネレータの対角ゲームを確立する。その目標は,残差接続により層間の色情報を失うことなく,偽のカラー化画像を生成することである。
論文 参考訳(メタデータ) (2023-12-21T00:52:01Z) - Learned representation-guided diffusion models for large-image
generation [60.698616089211505]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Structure-Preserving Multi-Domain Stain Color Augmentation using
Style-Transfer with Disentangled Representations [0.9051352746190446]
HistAuGANは、様々な現実的な組織学の染色色をシミュレートできるため、トレーニング中にニューラルネットワークの染色が不変になる。
画像から画像への変換のためのGAN(generative adversarial network)に基づいて,画像の内容,すなわち形態的組織構造を染色色属性から切り離す。
複数のドメインでトレーニングすることができるため、スライド作成および撮像プロセスで導入された他のドメイン固有のバリエーションと同様に、異なる染色色をカバーできることを学ぶことができる。
論文 参考訳(メタデータ) (2021-07-26T17:52:39Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Bridging the gap between Natural and Medical Images through Deep
Colorization [15.585095421320922]
自然画像収集からの伝達学習は、形状、テクスチャ、色の違いに対処しようとする標準的な実践である。
本研究では,これらの課題を解消し,色適応に着目した専用ネットワークモジュールの設計を提案する。
カラーモジュールのスクラッチからの学習と異なる分類バックボーンの伝達学習を組み合わせることで、画像認識のためのエンドツーエンドで簡単にトレーニングできるアーキテクチャを得る。
論文 参考訳(メタデータ) (2020-05-21T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。