論文の概要: High-Throughput Low-Cost Segmentation of Brightfield Microscopy Live Cell Images
- arxiv url: http://arxiv.org/abs/2508.14106v1
- Date: Sun, 17 Aug 2025 22:05:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.191169
- Title: High-Throughput Low-Cost Segmentation of Brightfield Microscopy Live Cell Images
- Title(参考訳): Brightfield Microscopy Live Cell Images の高出力低コスト分画
- Authors: Surajit Das, Gourav Roy, Pavel Zun,
- Abstract要約: 本研究は,光電場顕微鏡で観察した無残な生細胞のセグメンテーションに焦点を当てた。
冷凍エンコーダの比較分析を取り入れた低コストCNNパイプラインを開発した。
このモデルは、多様な生きた細胞変異を特徴とする公開データセットで検証された。
- 参考スコア(独自算出の注目度): 0.17016039288177057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Live cell culture is crucial in biomedical studies for analyzing cell properties and dynamics in vitro. This study focuses on segmenting unstained live cells imaged with bright-field microscopy. While many segmentation approaches exist for microscopic images, none consistently address the challenges of bright-field live-cell imaging with high throughput, where temporal phenotype changes, low contrast, noise, and motion-induced blur from cellular movement remain major obstacles. We developed a low-cost CNN-based pipeline incorporating comparative analysis of frozen encoders within a unified U-Net architecture enhanced with attention mechanisms, instance-aware systems, adaptive loss functions, hard instance retraining, dynamic learning rates, progressive mechanisms to mitigate overfitting, and an ensemble technique. The model was validated on a public dataset featuring diverse live cell variants, showing consistent competitiveness with state-of-the-art methods, achieving 93% test accuracy and an average F1-score of 89% (std. 0.07) on low-contrast, noisy, and blurry images. Notably, the model was trained primarily on bright-field images with limited exposure to phase-contrast microscopy (<10%), yet it generalized effectively to the phase-contrast LIVECell dataset, demonstrating modality, robustness and strong performance. This highlights its potential for real-world laboratory deployment across imaging conditions. The model requires minimal compute power and is adaptable using basic deep learning setups such as Google Colab, making it practical for training on other cell variants. Our pipeline outperforms existing methods in robustness and precision for bright-field microscopy segmentation. The code and dataset are available for reproducibility
- Abstract(参考訳): 細胞培養は、生体内における細胞の性質や動態を分析するために、生物医学的な研究において重要である。
本研究は,光電場顕微鏡で観察した無残な生細胞のセグメンテーションに焦点を当てた。
顕微鏡画像には多くのセグメンテーションアプローチが存在するが、時間的表現型の変化、低コントラスト、ノイズ、および運動によって引き起こされる細胞運動からのぼかしが大きな障害となるような、高スループットの明るいフィールドライブセルイメージングの課題には、常に対処していない。
我々は、注目機構、インスタンス認識システム、適応的損失関数、ハードインスタンス再訓練、動的学習率、過度な適合を緩和する進行機構、アンサンブル技術により強化された統合U-Netアーキテクチャにおいて、凍結エンコーダの比較分析を組み込んだ低コストCNNベースのパイプラインを開発した。
このモデルは、さまざまなライブセルの変種を特徴とする公開データセットで検証され、最先端の手法と一貫した競争力を示し、93%のテスト精度と、低コントラスト、ノイズ、ぼやけた画像上でのF1スコアの平均89%(0.07)を達成した。
特に、このモデルは位相コントラスト顕微鏡(10%)への露出が限られている明るい視野画像に基づいて訓練されたが、位相コントラストのLIVECellデータセットに効果的に一般化し、モダリティ、ロバスト性、強靭性を示した。
これは、撮像条件を越えて実際の実験室を配置する可能性を強調している。
このモデルは最小限の計算能力を必要とし、Google Colabのような基本的なディープラーニングのセットアップを使って適応できるため、他のセルの変種をトレーニングするのに実用的である。
我々のパイプラインは、光電場顕微鏡のセグメンテーションにおいて、ロバスト性や精度で既存の手法より優れています。
コードとデータセットは再現性のために利用可能
関連論文リスト
- Adaptive Attention Residual U-Net for curvilinear structure segmentation in fluorescence microscopy and biomedical images [0.0]
蛍光標識した微小管の合成画像数百枚からなるデータセットを細胞内に生成する。
これらのデータセットは正確にアノテートされ、リアルなノイズを含む実際の顕微鏡画像に忠実に模倣される。
第2のデータセットは、セグメンテーションを複雑にするフィラメントに沿って様々な蛍光強度をシミュレートする追加の課題を示す。
本稿では,新しいアーキテクチャであるAdaptive Squeeze-and-Excitation Residual U-Netを開発する。
論文 参考訳(メタデータ) (2025-07-10T14:26:50Z) - PixCell: A generative foundation model for digital histopathology images [49.00921097924924]
PixCellは,病理組織学における最初の拡散ベース生成基盤モデルである。
われわれはPanCan-30MでPixCellをトレーニングした。
論文 参考訳(メタデータ) (2025-06-05T15:14:32Z) - Practical Guidelines for Cell Segmentation Models Under Optical Aberrations in Microscopy [14.042884268397058]
本研究は,光収差下でのセル画像のセグメンテーションモデルについて,蛍光顕微鏡と光電場顕微鏡を用いて評価する。
ネットワークヘッドの異なるOstoしきい値法やMask R-CNNなどのセグメンテーションモデルをトレーニングし,テストする。
対照的に、Cellpose 2.0は同様の条件下で複雑な細胞画像に有効であることが証明されている。
論文 参考訳(メタデータ) (2024-04-12T15:45:26Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - CellCycleGAN: Spatiotemporal Microscopy Image Synthesis of Cell
Populations using Statistical Shape Models and Conditional GANs [0.07117593004982078]
蛍光標識細胞核の合成2D+t画像データを生成する新しい方法を開発した。
GANコンディショニングの効果を示し、セルセグメンテーションやトラッキングアプローチの訓練に容易に使用できる合成画像のセットを作成する。
論文 参考訳(メタデータ) (2020-10-22T20:02:41Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。