論文の概要: ContriMix: Unsupervised disentanglement of content and attribute for
domain generalization in microscopy image analysis
- arxiv url: http://arxiv.org/abs/2306.04527v1
- Date: Wed, 7 Jun 2023 15:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 13:42:06.444249
- Title: ContriMix: Unsupervised disentanglement of content and attribute for
domain generalization in microscopy image analysis
- Title(参考訳): contrimix: 顕微鏡画像解析における領域一般化のためのコンテンツと属性の教師なし乱れ
- Authors: Tan H. Nguyen, Dinkar Juyal, Jin Li, Aaditya Prakash, Shima Nofallah,
Chintan Shah, Sai Chowdary Gullapally, Michael Griffin, Anand Sampat, John
Abel, Justin Lee, Amaro Taylor-Weiner
- Abstract要約: ドメインの一般化は、顕微鏡画像への機械学習モデルの現実的な応用に不可欠である。
ContriMix(コントリミクス、ContriMix)は、生物学的内容の分離・置換によって合成画像の生成を学習するドメイン一般化手法である。
本研究では,ContriMixの2つの病態データセットと1つの蛍光顕微鏡データセットの性能評価を行った。
- 参考スコア(独自算出の注目度): 4.224388282778588
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain generalization is critical for real-world applications of machine
learning models to microscopy images, including histopathology and fluorescence
imaging. Artifacts in histopathology arise through a complex combination of
factors relating to tissue collection and laboratory processing, as well as
factors intrinsic to patient samples. In fluorescence imaging, these artifacts
stem from variations across experimental batches. The complexity and subtlety
of these artifacts make the enumeration of data domains intractable. Therefore,
augmentation-based methods of domain generalization that require domain
identifiers and manual fine-tuning are inadequate in this setting. To overcome
this challenge, we introduce ContriMix, a domain generalization technique that
learns to generate synthetic images by disentangling and permuting the
biological content ("content") and technical variations ("attributes") in
microscopy images. ContriMix does not rely on domain identifiers or handcrafted
augmentations and makes no assumptions about the input characteristics of
images. We assess the performance of ContriMix on two pathology datasets
(Camelyon17-WILDS and a prostate cell classification dataset) and one
fluorescence microscopy dataset (RxRx1-WILDS). ContriMix outperforms current
state-of-the-art methods in all datasets, motivating its usage for microscopy
image analysis in real-world settings where domain information is hard to come
by.
- Abstract(参考訳): ドメインの一般化は、病理組織学や蛍光イメージングを含む顕微鏡画像への機械学習モデルの現実世界への応用に不可欠である。
病理組織学におけるアーティファクトは、組織収集と実験室処理に関連する因子と、患者サンプルに固有の因子の複雑な組み合わせによって生じる。
蛍光イメージングでは、これらのアーティファクトは実験バッチ間のバリエーションに由来する。
これらのアーティファクトの複雑さと微妙さは、データ領域の列挙を難なくする。
したがって、ドメイン識別子と手動微調整を必要とする拡張型ドメイン一般化法は、この設定では不十分である。
この課題を克服するために,コントリミックス(contrimix)というドメイン一般化手法を導入する。顕微鏡画像における生体コンテンツ(コンテンツ)と技術的なバリエーション(属性)を分離・置換することで合成画像を生成する。
contrimixはドメイン識別子や手作りの補足には依存せず、画像の入力特性についての仮定もしない。
本研究では2つの病理データセット(Camelyon17-WILDSと前立腺細胞分類データセット)と1つの蛍光顕微鏡データセット(RxRx1-WILDS)を用いてContriMixの性能を評価する。
contrimixは、現在の最先端の手法を全データセットで上回っており、ドメイン情報が行き渡らない現実の環境で顕微鏡画像解析に使用する動機付けになっている。
関連論文リスト
- Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - DiffuseMix: Label-Preserving Data Augmentation with Diffusion Models [18.44432223381586]
近年、ディープニューラルネットワークの一般化を改善するために、画像混合に基づく拡張技術が数多く導入されている。
これらの手法では、2つ以上のランダムに選択された自然画像が混合され、拡張画像を生成する。
DiffuseMixを提案する。DiffuseMixは、拡散モデルを利用してトレーニング画像を再構成する新しいデータ拡張手法である。
論文 参考訳(メタデータ) (2024-04-05T05:31:02Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - SynCDR : Training Cross Domain Retrieval Models with Synthetic Data [69.26882668598587]
クロスドメイン検索では、同じ意味圏から2つの視覚領域にまたがるイメージを識別するためにモデルが必要である。
我々は、これらの欠落したカテゴリの例を満たすために、ドメイン間で合成データを生成する方法を示す。
最高のSynCDRモデルは、先行技術よりも最大15%パフォーマンスが向上します。
論文 参考訳(メタデータ) (2023-12-31T08:06:53Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Structure-Preserving Multi-Domain Stain Color Augmentation using
Style-Transfer with Disentangled Representations [0.9051352746190446]
HistAuGANは、様々な現実的な組織学の染色色をシミュレートできるため、トレーニング中にニューラルネットワークの染色が不変になる。
画像から画像への変換のためのGAN(generative adversarial network)に基づいて,画像の内容,すなわち形態的組織構造を染色色属性から切り離す。
複数のドメインでトレーニングすることができるため、スライド作成および撮像プロセスで導入された他のドメイン固有のバリエーションと同様に、異なる染色色をカバーできることを学ぶことができる。
論文 参考訳(メタデータ) (2021-07-26T17:52:39Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Bridging the gap between Natural and Medical Images through Deep
Colorization [15.585095421320922]
自然画像収集からの伝達学習は、形状、テクスチャ、色の違いに対処しようとする標準的な実践である。
本研究では,これらの課題を解消し,色適応に着目した専用ネットワークモジュールの設計を提案する。
カラーモジュールのスクラッチからの学習と異なる分類バックボーンの伝達学習を組み合わせることで、画像認識のためのエンドツーエンドで簡単にトレーニングできるアーキテクチャを得る。
論文 参考訳(メタデータ) (2020-05-21T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。