論文の概要: Reducing Domain Gap with Diffusion-Based Domain Adaptation for Cell Counting
- arxiv url: http://arxiv.org/abs/2512.11763v1
- Date: Fri, 12 Dec 2025 18:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.86764
- Title: Reducing Domain Gap with Diffusion-Based Domain Adaptation for Cell Counting
- Title(参考訳): 拡散に基づく細胞カウントのための領域適応による領域ギャップの低減
- Authors: Mohammad Dehghanmanshadi, Wallapak Tavanapong,
- Abstract要約: 本研究では,Inversion-based Style Transferフレームワークを用いて,合成顕微鏡画像を生成する。
提案手法は,遅延空間適応型インスタンス正規化と拡散モデルの逆変換を組み合わせることで,実際の顕微鏡画像から合成画像へスタイルを変換する。
InST合成画像で訓練されたモデルは、ハードコードされた合成データで訓練されたモデルと比較して平均絶対誤差(MAE)が最大37%低い。
- 参考スコア(独自算出の注目度): 1.9766522384767224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating realistic synthetic microscopy images is critical for training deep learning models in label-scarce environments, such as cell counting with many cells per image. However, traditional domain adaptation methods often struggle to bridge the domain gap when synthetic images lack the complex textures and visual patterns of real samples. In this work, we adapt the Inversion-Based Style Transfer (InST) framework originally designed for artistic style transfer to biomedical microscopy images. Our method combines latent-space Adaptive Instance Normalization with stochastic inversion in a diffusion model to transfer the style from real fluorescence microscopy images to synthetic ones, while weakly preserving content structure. We evaluate the effectiveness of our InST-based synthetic dataset for downstream cell counting by pre-training and fine-tuning EfficientNet-B0 models on various data sources, including real data, hard-coded synthetic data, and the public Cell200-s dataset. Models trained with our InST-synthesized images achieve up to 37\% lower Mean Absolute Error (MAE) compared to models trained on hard-coded synthetic data, and a 52\% reduction in MAE compared to models trained on Cell200-s (from 53.70 to 25.95 MAE). Notably, our approach also outperforms models trained on real data alone (25.95 vs. 27.74 MAE). Further improvements are achieved when combining InST-synthesized data with lightweight domain adaptation techniques such as DACS with CutMix. These findings demonstrate that InST-based style transfer most effectively reduces the domain gap between synthetic and real microscopy data. Our approach offers a scalable path for enhancing cell counting performance while minimizing manual labeling effort. The source code and resources are publicly available at: https://github.com/MohammadDehghan/InST-Microscopy.
- Abstract(参考訳): リアルな合成顕微鏡画像の生成は、ラベル/スカース環境での深層学習モデルの訓練に不可欠である。
しかし、従来の領域適応法は、合成画像が実際のサンプルの複雑なテクスチャや視覚パターンを欠いている場合、しばしばドメインギャップを埋めるのに苦労する。
Inversion-Based Style Transfer (InST) フレームワークを応用し, バイオメディカル・顕微鏡画像への芸術的スタイル転送を実現する。
提案手法は,遅延空間適応型インスタンス正規化と拡散モデルにおける確率的逆転とを組み合わせて,実際の蛍光顕微鏡画像から合成画像へスタイルを変換し,コンテンツ構造を弱めながら保存する。
我々は、実データ、ハードコード合成データ、公開Cell200-sデータセットを含む様々なデータソース上で、事前学習および微調整による下流セルカウントのためのInSTベースの合成データセットの有効性を評価する。
InST合成画像でトレーニングされたモデルは、ハードコードされた合成データでトレーニングされたモデルと比較して最大37 %低い平均絶対誤差(MAE)を達成し、Cell200-s(53.70から25.95 MAE)でトレーニングされたモデルと比較して、MaEを52 %削減した。
特に、我々のアプローチは、実際のデータだけで訓練されたモデル(25.95対27.74 MAE)よりも優れています。
InST合成データとDACSやCutMixのような軽量なドメイン適応技術を組み合わせることで、さらなる改善が達成される。
これらの結果から,InSTをベースとしたスタイル転送は,合成と実の顕微鏡データ間の領域ギャップを最も効果的に減少させることが示された。
提案手法は,手動ラベリングを最小化しつつ,セルカウント性能を向上させるスケーラブルな経路を提供する。
ソースコードとリソースは、https://github.com/MohammadDehghan/InST-Microscopyで公開されている。
関連論文リスト
- Diffusion-Based Synthetic Brightfield Microscopy Images for Enhanced Single Cell Detection [0.0]
本研究では,無条件モデルを用いた合成光電場顕微鏡画像の生成について検討する。
U-Netベースの拡散モデルをトレーニングし、合成画像と実画像の比率の異なるデータセットを作成するために使用した。
YOLOv8, YOLOv9, RT-DETRを用いた実験では, 合成データによるトレーニングにより検出精度が向上することが示された。
論文 参考訳(メタデータ) (2025-11-25T08:57:23Z) - Efficient Cell Painting Image Representation Learning via Cross-Well Aligned Masked Siamese Network [21.126506900168398]
本稿では,CWA-MSN(Cross-Well Aligned Masked Siamese Network)について紹介する。
CWA-MSNは、異なる井戸で同じ摂動を受ける細胞の埋め込みを調整し、バッチ効果にもかかわらずセマンティック一貫性を強制する。
遺伝子関係検索ベンチマークでは、CWA-MSNは最先端の公開自己教師(OpenPhenom)およびコントラスト学習(CellCLIP)メソッドより優れている。
論文 参考訳(メタデータ) (2025-09-24T08:48:29Z) - Style Transfer with Diffusion Models for Synthetic-to-Real Domain Adaptation [3.7051961231919393]
拡散モデルを用いた意味論的一貫したスタイル伝達のための2つの新しい手法を提案する。
GTA5をソースとして,Cityscapes/ACDCをターゲットドメインとして実験したところ,FIDスコアが低く,コンテンツ保存性が向上した高品質な画像が得られた。
論文 参考訳(メタデータ) (2025-05-22T08:11:10Z) - Generative AI-based Pipeline Architecture for Increasing Training Efficiency in Intelligent Weed Control Systems [0.0]
本研究は,知的雑草制御のための深層学習に基づく物体検出モデルを改善するために,合成画像を生成する新しいアプローチを提案する。
我々のGenAIベースの画像生成パイプラインは、ゼロショットドメイン適応のためのSegment Anything Model(SAM)と、テキストから画像への安定拡散モデルを統合する。
我々は、これらの合成データセットを軽量YOLOモデルを用いて評価し、mAP50とmAP50-95スコアを用いてデータ効率を測定した。
論文 参考訳(メタデータ) (2024-11-01T12:58:27Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。