論文の概要: ContriMix: Scalable stain color augmentation for domain generalization
without domain labels in digital pathology
- arxiv url: http://arxiv.org/abs/2306.04527v4
- Date: Fri, 8 Mar 2024 17:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 23:35:12.877670
- Title: ContriMix: Scalable stain color augmentation for domain generalization
without domain labels in digital pathology
- Title(参考訳): ContriMix: デジタル病理学におけるドメインラベルなしのドメイン一般化のためのスケーラブルな染色色増強
- Authors: Tan H. Nguyen, Dinkar Juyal, Jin Li, Aaditya Prakash, Shima Nofallah,
Chintan Shah, Sai Chowdary Gullapally, Limin Yu, Michael Griffin, Anand
Sampat, John Abel, Justin Lee, Amaro Taylor-Weiner
- Abstract要約: ContriMix(コントリミクス)は、DRIT++をベースとした無料の染色色増色法である。
トレーニング用ミニバッチとランダムミキシングのサンプル染色色変化を利用して、病理画像からコンテンツや属性情報を抽出する。
その性能は、病理画像中の希少物質からの色変化に頑健でありながら、テストセット内の異なるスライド間で一貫性がある。
- 参考スコア(独自算出の注目度): 7.649593612014923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differences in staining and imaging procedures can cause significant color
variations in histopathology images, leading to poor generalization when
deploying deep-learning models trained from a different data source. Various
color augmentation methods have been proposed to generate synthetic images
during training to make models more robust, eliminating the need for stain
normalization during test time. Many color augmentation methods leverage domain
labels to generate synthetic images. This approach causes three significant
challenges to scaling such a model. Firstly, incorporating data from a new
domain into deep-learning models trained on existing domain labels is not
straightforward. Secondly, dependency on domain labels prevents the use of
pathology images without domain labels to improve model performance. Finally,
implementation of these methods becomes complicated when multiple domain labels
(e.g., patient identification, medical center, etc) are associated with a
single image. We introduce ContriMix, a novel domain label free stain color
augmentation method based on DRIT++, a style-transfer method. Contrimix
leverages sample stain color variation within a training minibatch and random
mixing to extract content and attribute information from pathology images. This
information can be used by a trained ContriMix model to create synthetic images
to improve the performance of existing classifiers. ContriMix outperforms
competing methods on the Camelyon17-WILDS dataset. Its performance is
consistent across different slides in the test set while being robust to the
color variation from rare substances in pathology images. We make our code and
trained ContriMix models available for research use. The code for ContriMix can
be found at https://gitlab.com/huutan86/contrimix
- Abstract(参考訳): 染色法とイメージング法の違いは、病理組織像に有意な色変化をもたらし、異なるデータソースからトレーニングされたディープラーニングモデルをデプロイする際の一般化を損なう。
モデルをより堅牢にするために、トレーニング中に合成画像を生成するために様々な色増色法が提案されている。
多くのカラー増色法はドメインラベルを利用して合成画像を生成する。
このアプローチは、そのようなモデルのスケーリングに3つの大きな課題を引き起こす。
まず、新しいドメインからのデータを既存のドメインラベルでトレーニングされたディープラーニングモデルに組み込むことは簡単ではない。
第二に、ドメインラベルへの依存は、モデルパフォーマンスを改善するためにドメインラベルなしで病理画像を使用するのを防ぐ。
最後に、複数のドメインラベル(患者識別、医療センターなど)が単一の画像に関連付けられると、これらの方法の実装が複雑になる。
本稿では,DRIT++に基づく新しいドメインラベルフリーの染色色拡張手法であるContriMixを紹介する。
Contrimixはトレーニング用ミニバッチとランダムミキシングのサンプル染色色変化を利用して、病理画像からコンテンツや属性情報を抽出する。
この情報は、トレーニングされたContriMixモデルによって、既存の分類器のパフォーマンスを改善するために合成画像を作成するために使用できる。
ContriMixはCamelyon17-WILDSデータセットの競合メソッドよりも優れています。
その性能はテストセットの異なるスライドにまたがって一貫しており、病理画像における希少物質の色変化に頑健である。
コードとトレーニングされたcontrimixモデルを研究用に提供しています。
contrimixのコードはhttps://gitlab.com/huutan86/contrimixにある。
関連論文リスト
- Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - DiffuseMix: Label-Preserving Data Augmentation with Diffusion Models [18.44432223381586]
近年、ディープニューラルネットワークの一般化を改善するために、画像混合に基づく拡張技術が数多く導入されている。
これらの手法では、2つ以上のランダムに選択された自然画像が混合され、拡張画像を生成する。
DiffuseMixを提案する。DiffuseMixは、拡散モデルを利用してトレーニング画像を再構成する新しいデータ拡張手法である。
論文 参考訳(メタデータ) (2024-04-05T05:31:02Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - SynCDR : Training Cross Domain Retrieval Models with Synthetic Data [69.26882668598587]
クロスドメイン検索では、同じ意味圏から2つの視覚領域にまたがるイメージを識別するためにモデルが必要である。
我々は、これらの欠落したカテゴリの例を満たすために、ドメイン間で合成データを生成する方法を示す。
最高のSynCDRモデルは、先行技術よりも最大15%パフォーマンスが向上します。
論文 参考訳(メタデータ) (2023-12-31T08:06:53Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Structure-Preserving Multi-Domain Stain Color Augmentation using
Style-Transfer with Disentangled Representations [0.9051352746190446]
HistAuGANは、様々な現実的な組織学の染色色をシミュレートできるため、トレーニング中にニューラルネットワークの染色が不変になる。
画像から画像への変換のためのGAN(generative adversarial network)に基づいて,画像の内容,すなわち形態的組織構造を染色色属性から切り離す。
複数のドメインでトレーニングすることができるため、スライド作成および撮像プロセスで導入された他のドメイン固有のバリエーションと同様に、異なる染色色をカバーできることを学ぶことができる。
論文 参考訳(メタデータ) (2021-07-26T17:52:39Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Bridging the gap between Natural and Medical Images through Deep
Colorization [15.585095421320922]
自然画像収集からの伝達学習は、形状、テクスチャ、色の違いに対処しようとする標準的な実践である。
本研究では,これらの課題を解消し,色適応に着目した専用ネットワークモジュールの設計を提案する。
カラーモジュールのスクラッチからの学習と異なる分類バックボーンの伝達学習を組み合わせることで、画像認識のためのエンドツーエンドで簡単にトレーニングできるアーキテクチャを得る。
論文 参考訳(メタデータ) (2020-05-21T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。