論文の概要: Efficient Cell Painting Image Representation Learning via Cross-Well Aligned Masked Siamese Network
- arxiv url: http://arxiv.org/abs/2509.19896v1
- Date: Wed, 24 Sep 2025 08:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.746271
- Title: Efficient Cell Painting Image Representation Learning via Cross-Well Aligned Masked Siamese Network
- Title(参考訳): クロスウェル配向型マスケシームスネットワークによる効率的なセルペイント画像表現学習
- Authors: Pin-Jui Huang, Yu-Hsuan Liao, SooHeon Kim, NoSeong Park, JongBae Park, DongMyung Shin,
- Abstract要約: 本稿では,CWA-MSN(Cross-Well Aligned Masked Siamese Network)について紹介する。
CWA-MSNは、異なる井戸で同じ摂動を受ける細胞の埋め込みを調整し、バッチ効果にもかかわらずセマンティック一貫性を強制する。
遺伝子関係検索ベンチマークでは、CWA-MSNは最先端の公開自己教師(OpenPhenom)およびコントラスト学習(CellCLIP)メソッドより優れている。
- 参考スコア(独自算出の注目度): 21.126506900168398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational models that predict cellular phenotypic responses to chemical and genetic perturbations can accelerate drug discovery by prioritizing therapeutic hypotheses and reducing costly wet-lab iteration. However, extracting biologically meaningful and batch-robust cell painting representations remains challenging. Conventional self-supervised and contrastive learning approaches often require a large-scale model and/or a huge amount of carefully curated data, still struggling with batch effects. We present Cross-Well Aligned Masked Siamese Network (CWA-MSN), a novel representation learning framework that aligns embeddings of cells subjected to the same perturbation across different wells, enforcing semantic consistency despite batch effects. Integrated into a masked siamese architecture, this alignment yields features that capture fine-grained morphology while remaining data- and parameter-efficient. For instance, in a gene-gene relationship retrieval benchmark, CWA-MSN outperforms the state-of-the-art publicly available self-supervised (OpenPhenom) and contrastive learning (CellCLIP) methods, improving the benchmark scores by +29\% and +9\%, respectively, while training on substantially fewer data (e.g., 0.2M images for CWA-MSN vs. 2.2M images for OpenPhenom) or smaller model size (e.g., 22M parameters for CWA-MSN vs. 1.48B parameters for CellCLIP). Extensive experiments demonstrate that CWA-MSN is a simple and effective way to learn cell image representation, enabling efficient phenotype modeling even under limited data and parameter budgets.
- Abstract(参考訳): 化学的および遺伝的摂動に対する細胞性表現型応答を予測する計算モデルは、治療仮説の優先順位付けとコストのかかるウェットラブ反復の低減によって、薬物発見を加速することができる。
しかし, 生物学的に有意かつバッチローバストな細胞絵画表現の抽出はいまだに困難である。
従来型の自己監督的かつ対照的な学習アプローチでは、大規模なモデルと/または大量の慎重にキュレートされたデータを必要としますが、バッチ効果に苦慮しています。
そこで我々はCWA-MSN(Cross-Well Aligned Masked Siamese Network)を提案する。
このアライメントはマスク付きシアムアーキテクチャに統合され、データとパラメータ効率を保ちながらきめ細かな形態を捉えることができる。
例えば、遺伝子関係検索のベンチマークでは、CWA-MSNは最先端の公開自己教師(OpenPhenom)とコントラスト学習(CellCLIP)メソッドを上回り、ベンチマークスコアを+29\%と+9\%に改善する一方、CWA-MSNとOpenPhenomの2.2M画像の0.2M画像やモデルサイズ(CWA-MSNとCellCLIPの1.48Bパラメータの22Mパラメータなど)をトレーニングする。
大規模な実験により、CWA-MSNは細胞像の表現をシンプルかつ効果的に学習し、限られたデータやパラメータの予算の下でも効率的な表現型モデリングを可能にすることが示されている。
関連論文リスト
- CellCLIP -- Learning Perturbation Effects in Cell Painting via Text-Guided Contrastive Learning [23.521800791670938]
本稿では,HCSデータのためのクロスモーダルコントラスト学習フレームワークであるCellCLIPを紹介する。
我々のフレームワークは、現在のオープンソースモデルよりも優れており、クロスモーダル検索と生物学的に意味のある下流タスクの両方において、最高のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-05-16T23:07:51Z) - scMEDAL for the interpretable analysis of single-cell transcriptomics data with batch effect visualization using a deep mixed effects autoencoder [6.596656267996196]
scMEDALはシングルセルミックスエフェクトディープオートエンコーダ学習のためのフレームワークである。
scMEDALはバッチ固有のバリエーションをモデル化しながら、バッチ効果を抑制する。
病気の状態、ドナー群、細胞型のより正確な予測を可能にする。
論文 参考訳(メタデータ) (2024-11-11T00:10:48Z) - Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - DiffBoost: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model [3.890243179348094]
医療応用のための堅牢で成功したディープラーニングモデルを開発するためには、大規模で大きな変動のある高品質なデータが不可欠である。
本稿では,DiffBoostと呼ばれる医用画像合成のための制御可能な拡散モデルを提案する。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。