論文の概要: MAD: Microenvironment-Aware Distillation -- A Pretraining Strategy for Virtual Spatial Omics from Microscopy
- arxiv url: http://arxiv.org/abs/2603.13401v1
- Date: Wed, 11 Mar 2026 22:06:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.167926
- Title: MAD: Microenvironment-Aware Distillation -- A Pretraining Strategy for Virtual Spatial Omics from Microscopy
- Title(参考訳): MAD:マイクロ環境に配慮した蒸留-顕微鏡による仮想空間オミクスの事前学習戦略
- Authors: Jiashu Han, Kunzan Liu, Yeojin Kim, Saurabh Sinha, Sixian You,
- Abstract要約: 細胞中心の埋め込みを学習する事前学習戦略であるMAD(microenvironment-aware distillation)を導入する。
MADは、セルサブタイプ、転写予測、バイオインフォマティック推論を含む下流タスクで最先端の予測性能を達成する。
- 参考スコア(独自算出の注目度): 6.991792373060689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bridging microscopy and omics would allow us to read molecular states from images-at single-cell resolution and tissue scale-without the cost and throughput limits of omics technologies. Self-supervised pretraining offers a scalable approach with minimal labels, yet how to encode single-cell identity within tissue environments-and the extent of biological information such models can capture-remains an open question. Here, we introduce MAD (microenvironment-aware distillation), a pretraining strategy that learns cell-centric embeddings by jointly self-distilling the morphology view and the microenvironment view of the same indexed cell into a unified embedding space. Across diverse tissues and imaging modalities, MAD achieves state-of-the-art prediction performance on downstream tasks including cell subtyping, transcriptomic prediction, and bioinformatic inference. MAD even outperforms foundation models with a similar number of model parameters that have been trained on substantially larger datasets. These results demonstrate that MAD's dual-view joint self-distillation effectively captures the complexity and diversity of cells within tissues. Together, this establishes MAD as a general tool for representation learning in microscopy, enabling virtual spatial omics and biological insights from vast microscopy datasets.
- Abstract(参考訳): ブリジング顕微鏡とオミクスは、オミクス技術のコストとスループットの制限なしに、単細胞解像度と組織スケールの画像から分子状態を読み取ることができる。
自己監督型プレトレーニングは、最小限のラベルを持つスケーラブルなアプローチを提供するが、組織環境内の単一細胞アイデンティティをエンコードする方法は、そのようなモデルが持つ生物学的情報の範囲は、オープンな疑問に残る可能性がある。
そこで我々は,形態学的な視点と同一のインデックス化された細胞の微小環境観を融合した埋め込み空間に組み込むことで,細胞中心の埋め込みを学習する事前学習戦略であるMAD(microenvironment-aware distillation)を紹介する。
様々な組織や画像のモダリティにまたがって、MADは、細胞置換、転写予測、バイオインフォマティック推論を含む下流タスクにおける最先端の予測性能を達成する。
MADは、かなり大きなデータセットでトレーニングされた同様の数のモデルパラメータで基礎モデルよりも優れています。
これらの結果は、MADの二重ビューの自己蒸留は、組織内の細胞の複雑さと多様性を効果的に捉えていることを示している。
これにより、MADは顕微鏡における表現学習の一般的なツールとして確立され、膨大な顕微鏡データセットからの仮想空間オミクスと生物学的洞察を可能にする。
関連論文リスト
- Big Data, Tiny Targets: An Exploratory Study in Machine Learning-enhanced Detection of Microplastic from Filters [0.6489352828665196]
マイクロプラスチック(MP)はユビキタス汚染物質であり、生態系や人間の健康に影響を及ぼす可能性がある。
機械学習(ML)は、マイクロプラスチック検出を前進させる強力なツールとして登場した。
論文 参考訳(メタデータ) (2025-10-20T20:35:50Z) - Interpretable deep learning illuminates multiple structures fluorescence imaging: a path toward trustworthy artificial intelligence in microscopy [10.395551533758358]
本稿では,単一画像から2つの細胞構造を同時予測可能なディープラーニングフレームワークであるAdaptive Explainable Multi-Structure Network (AEMS-Net)を提案する。
AEMS-Netはミトコンドリアと微小管の相互作用をリアルタイムに記録することができ、従来のシーケンシャルチャネルイメージングの手順の半分しか必要としないことを示した。
論文 参考訳(メタデータ) (2025-01-09T07:36:28Z) - CryoFM: A Flow-based Foundation Model for Cryo-EM Densities [50.291974465864364]
生成モデルとして設計された基礎モデルであるCryoFMについて,高品質密度マップの分布を学習する。
フローマッチングに基づいて構築されたCryoFMは、生物分子密度マップの以前の分布を正確に捉えるために訓練されている。
論文 参考訳(メタデータ) (2024-10-11T08:53:58Z) - Masked Autoencoders for Microscopy are Scalable Learners of Cellular Biology [2.7280901660033643]
本研究は、弱教師付き分類器と自己教師付きマスク付きオートエンコーダ(MAE)のスケーリング特性について検討する。
以上の結果から,ViTをベースとしたMAEは,様々なタスクにおいて弱い教師付き分類器よりも優れており,公的なデータベースから得られた既知の生物学的関係を思い出すと,11.5%の相対的な改善が達成されることがわかった。
我々は、異なる数のチャネルと順序の画像を推論時に入力できる新しいチャネルに依存しないMAEアーキテクチャ(CA-MAE)を開発した。
論文 参考訳(メタデータ) (2024-04-16T02:42:06Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via Generative Adversarial Network in small sample size settings [45.62331048595689]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・ディベサール・ネットワーク(cGAN)アーキテクチャを用いて,ヒト・コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - A novel framework employing deep multi-attention channels network for
the autonomous detection of metastasizing cells through fluorescence
microscopy [0.20999222360659603]
正常細胞と転移細胞を区別できる計算フレームワークを開発した。
この方法は、正常で転移する単細胞においてアクチンとビメンチンフィラメントの空間的構造を示す蛍光顕微鏡画像に依存する。
論文 参考訳(メタデータ) (2023-09-02T11:20:10Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。