論文の概要: CHAMMI-75: pre-training multi-channel models with heterogeneous microscopy images
- arxiv url: http://arxiv.org/abs/2512.20833v1
- Date: Tue, 23 Dec 2025 23:15:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.630609
- Title: CHAMMI-75: pre-training multi-channel models with heterogeneous microscopy images
- Title(参考訳): CHAMMI-75:ヘテロジニアス顕微鏡画像を用いた事前学習型マルチチャネルモデル
- Authors: Vidit Agrawal, John Peters, Tyler N. Thompson, Mohammad Vali Sanian, Chau Pham, Nikita Moshkov, Arshad Kazi, Aditya Pillai, Jack Freeman, Byunguk Kang, Samouil L. Farhi, Ernest Fraenkel, Ron Stewart, Lassi Paavolainen, Bryan A. Plummer, Juan C. Caicedo,
- Abstract要約: 我々は75種類の生物学的研究から得られた異種多チャンネル顕微鏡画像のオープンアクセスデータセットCHAMMI-75を提案する。
実験の結果,CHAMMI-75を用いたトレーニングにより,マルチチャネルバイオイメージングタスクの性能向上が期待できることがわかった。
- 参考スコア(独自算出の注目度): 17.19661386207827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantifying cell morphology using images and machine learning has proven to be a powerful tool to study the response of cells to treatments. However, models used to quantify cellular morphology are typically trained with a single microscopy imaging type. This results in specialized models that cannot be reused across biological studies because the technical specifications do not match (e.g., different number of channels), or because the target experimental conditions are out of distribution. Here, we present CHAMMI-75, an open access dataset of heterogeneous, multi-channel microscopy images from 75 diverse biological studies. We curated this resource from publicly available sources to investigate cellular morphology models that are channel-adaptive and can process any microscopy image type. Our experiments show that training with CHAMMI-75 can improve performance in multi-channel bioimaging tasks primarily because of its high diversity in microscopy modalities. This work paves the way to create the next generation of cellular morphology models for biological studies.
- Abstract(参考訳): 画像と機械学習を用いた細胞形態の定量化は、治療に対する細胞の反応を研究する強力なツールであることが証明されている。
しかし、細胞形態を定量化するモデルは通常、単一の顕微鏡イメージングタイプで訓練される。
この結果、技術的仕様が一致しないため(例えば、異なるチャネル数)、あるいは対象の実験的条件が分散していないため、生物学的研究で再利用できない特殊なモデルが得られる。
本稿では,75種類の生物学的研究から得られた異種多チャンネル顕微鏡画像のオープンアクセスデータセットCHAMMI-75を提案する。
我々は、この資源を利用可能なソースからキュレートし、チャネル適応性があり、あらゆる顕微鏡画像タイプを処理できる細胞形態モデルを調査した。
実験の結果,CHAMMI-75を用いたトレーニングは多チャンネルバイオイメージングタスクの性能向上に寄与することが示唆された。
この研究は、生物研究のための次世代の細胞形態学モデルを作成するための道を開いた。
関連論文リスト
- MorphGen: Controllable and Morphologically Plausible Generative Cell-Imaging [31.990445585569688]
MorphGenは、蛍光顕微鏡のための最先端拡散ベースの生成モデルである。
蛍光チャネルの完全なセットを共同で生成し、構造体ごとに保存する。
MorphGenは、以前の最先端のMorphoDiffよりも35%低いFIDスコアを獲得している。
論文 参考訳(メタデータ) (2025-10-01T13:34:29Z) - PixCell: A generative foundation model for digital histopathology images [49.00921097924924]
PixCellは,病理組織学における最初の拡散ベース生成基盤モデルである。
われわれはPanCan-30MでPixCellをトレーニングした。
論文 参考訳(メタデータ) (2025-06-05T15:14:32Z) - ViTally Consistent: Scaling Biological Representation Learning for Cell Microscopy [3.432992120614117]
細胞顕微鏡データの基盤モデルとしては,これまでで最大である。
従来のViT-L/8 MAEと比較して, 遺伝的摂動の線形分離性は60%向上した。
論文 参考訳(メタデータ) (2024-11-04T20:09:51Z) - μ-Bench: A Vision-Language Benchmark for Microscopy Understanding [43.27182445778988]
視覚言語モデル(VLM)は、大規模生物学的画像解析に有望なソリューションを提供する。
VLMを評価するための、標準化された、多様な、そして大規模なビジョンベンチマークが欠如している。
mu-Benchは22のバイオメディカルタスクを含む専門家によるベンチマークである。
論文 参考訳(メタデータ) (2024-07-01T20:30:26Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via Generative Adversarial Network in small sample size settings [45.62331048595689]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・ディベサール・ネットワーク(cGAN)アーキテクチャを用いて,ヒト・コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - BiomedCLIP: a multimodal biomedical foundation model pretrained from fifteen million scientific image-text pairs [46.87322157229728]
PMC-15Mは,既存のバイオメディカル・マルチモーダル・データセットよりも2桁大きい新しいデータセットである。
PMC-15Mは440万の科学論文から収集された1500万のバイオメディカル画像テキスト対を含んでいる。
PMC-15Mに基づいて,生物医学的視覚言語処理に適したドメイン固有適応を備えた多モーダル基礎モデルであるBiomedCLIPを事前訓練した。
論文 参考訳(メタデータ) (2023-03-02T02:20:04Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。