論文の概要: HEIST: A Graph Foundation Model for Spatial Transcriptomics and Proteomics Data
- arxiv url: http://arxiv.org/abs/2506.11152v1
- Date: Wed, 11 Jun 2025 12:29:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.517436
- Title: HEIST: A Graph Foundation Model for Spatial Transcriptomics and Proteomics Data
- Title(参考訳): HEIST:空間転写学とプロテオミクスデータのためのグラフ基礎モデル
- Authors: Hiren Madhu, João Felipe Rocha, Tinglin Huang, Siddharth Viswanath, Smita Krishnaswamy, Rex Ying,
- Abstract要約: 本稿では,空間転写学データのための階層型グラフトランスフォーマーモデルHEISTを紹介する。
HEISTは15の臓器にまたがる124の組織から22.3M細胞で事前訓練されている。
細胞埋め込みにおける微小環境の影響を効果的にコードし、空間的にインフォームドされたサブ集団の発見を可能にする。
- 参考スコア(独自算出の注目度): 13.66950862644406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-cell transcriptomics has become a great source for data-driven insights into biology, enabling the use of advanced deep learning methods to understand cellular heterogeneity and transcriptional regulation at the single-cell level. With the advent of spatial transcriptomics data we have the promise of learning about cells within a tissue context as it provides both spatial coordinates and transcriptomic readouts. However, existing models either ignore spatial resolution or the gene regulatory information. Gene regulation in cells can change depending on microenvironmental cues from neighboring cells, but existing models neglect gene regulatory patterns with hierarchical dependencies across levels of abstraction. In order to create contextualized representations of cells and genes from spatial transcriptomics data, we introduce HEIST, a hierarchical graph transformer-based foundation model for spatial transcriptomics and proteomics data. HEIST models tissue as spatial cellular neighborhood graphs, and each cell is, in turn, modeled as a gene regulatory network graph. The framework includes a hierarchical graph transformer that performs cross-level message passing and message passing within levels. HEIST is pre-trained on 22.3M cells from 124 tissues across 15 organs using spatially-aware contrastive learning and masked auto-encoding objectives. Unsupervised analysis of HEIST representations of cells, shows that it effectively encodes the microenvironmental influences in cell embeddings, enabling the discovery of spatially-informed subpopulations that prior models fail to differentiate. Further, HEIST achieves state-of-the-art results on four downstream task such as clinical outcome prediction, cell type annotation, gene imputation, and spatially-informed cell clustering across multiple technologies, highlighting the importance of hierarchical modeling and GRN-based representations.
- Abstract(参考訳): 単細胞転写学は、単細胞レベルでの細胞不均一性と転写調節を理解するための高度な深層学習手法を使用することによって、生物学におけるデータ駆動的な洞察の源となっている。
空間転写学データの出現により、空間座標と転写学的読み出しの両方を提供するため、組織コンテキスト内の細胞について学ぶことが約束される。
しかし、既存のモデルは空間分解能や遺伝子制御情報を無視する。
細胞内の遺伝子制御は、隣接する細胞からの微小環境の手がかりによって変化するが、既存のモデルでは、抽象レベルの階層的な依存関係を持つ遺伝子制御パターンを無視している。
空間転写学データから細胞と遺伝子の文脈的表現を作成するために,空間転写学およびプロテオミクスデータのための階層型グラフトランスフォーマーベース基盤モデルであるHEISTを導入する。
HEISTは組織を空間細胞近傍グラフとしてモデル化し、各細胞は遺伝子制御ネットワークグラフとしてモデル化される。
このフレームワークには階層的なグラフトランスフォーマーが含まれており、レベル内でクロスレベルメッセージパッシングとメッセージパッシングを行う。
HEISTは、空間的に認識されたコントラスト学習とマスクされた自己コード目的を用いて、15の臓器にまたがる124の組織から22.3M細胞で事前訓練されている。
細胞のHEIST発現の教師なし解析は、細胞埋め込みにおける微小環境の影響を効果的にコードし、以前のモデルが分化しなかった空間的にインフォームドされたサブ集団の発見を可能にすることを示している。
さらに、HEISTは、臨床結果予測、細胞型アノテーション、遺伝子インプット、空間的インフォームド細胞クラスタリングなどの4つの下流課題における最先端の成果を達成し、階層的モデリングとGRNに基づく表現の重要性を強調している。
関連論文リスト
- OmniCellTOSG: The First Cell Text-Omic Signaling Graphs Dataset for Joint LLM and GNN Modeling [14.455616582960557]
OmniCellTOSGは、セルテキスト・オミリック・シグナリンググラフ(TOSG)の最初のデータセットである。
各TOSGは、個人またはメタセルのシグナルネットワークを表し、臓器、疾患、性別、年齢、細胞サブタイプなどの情報でラベル付けされる。
データセットは継続的に拡張され、定期的に更新される。
論文 参考訳(メタデータ) (2025-04-02T21:47:58Z) - A scalable gene network model of regulatory dynamics in single cells [88.48246132084441]
本稿では,遺伝子ネットワーク構造を結合微分方程式に組み込んで,遺伝子制御関数をモデル化する機能的学習可能モデルFLeCSを提案する。
FLeCS は (pseudo) 時系列の単一セルデータから, セルの動態を正確に推定する。
論文 参考訳(メタデータ) (2025-03-25T19:19:21Z) - HistoSmith: Single-Stage Histology Image-Label Generation via Conditional Latent Diffusion for Enhanced Cell Segmentation and Classification [0.19791587637442667]
本研究は, 画像ラベルペア生成のための新しい単一ステージアプローチを導入し, 組織学データセットを増強する。
ラベル生成と画像生成を分離した拡散モデルを用いる最先端の手法とは異なり,本手法では遅延拡散モデルを用いる。
このモデルは、細胞タイプ、量、組織タイプなどのユーザ定義パラメータを条件付けすることで、データ生成の調整を可能にする。
論文 参考訳(メタデータ) (2025-02-12T19:51:41Z) - Cell-ontology guided transcriptome foundation model [18.51941953027685]
オープンバイオロジー・バイオメディカルオントロジーファウンデーションの細胞オントロジーグラフにマッピングされた細胞型ラベルを利用して,CellxGeneデータベースから2200万の細胞上でscCelloを事前訓練した。
我々のTFMは、生物学的に重要なタスクにおいて、既存のTFMよりも競合的な一般化と伝達性性能を示す。
論文 参考訳(メタデータ) (2024-08-22T13:15:49Z) - scBiGNN: Bilevel Graph Representation Learning for Cell Type
Classification from Single-cell RNA Sequencing Data [62.87454293046843]
グラフニューラルネットワーク(GNN)は、セルタイプの自動分類に広く利用されている。
scBiGNNは2つのGNNモジュールから構成され、細胞型を識別する。
scBiGNNは、scRNA-seqデータから細胞型分類のための様々な方法より優れている。
論文 参考訳(メタデータ) (2023-12-16T03:54:26Z) - Single-Cell Deep Clustering Method Assisted by Exogenous Gene
Information: A Novel Approach to Identifying Cell Types [50.55583697209676]
我々は,細胞間のトポロジ的特徴を効率的に捉えるために,注目度の高いグラフオートエンコーダを開発した。
クラスタリング過程において,両情報の集合を統合し,細胞と遺伝子の特徴を再構成し,識別的表現を生成する。
本研究は、細胞の特徴と分布に関する知見を高め、疾患の早期診断と治療の基礎となる。
論文 参考訳(メタデータ) (2023-11-28T09:14:55Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - Topology-Guided Multi-Class Cell Context Generation for Digital
Pathology [28.43244574309888]
空間統計学とトポロジカルデータ解析の数学的ツールをいくつか紹介する。
高品質なマルチクラスセルレイアウトを初めて生成する。
トポロジに富んだセルレイアウトは,データ拡張やセル分類などの下流タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-05T07:01:34Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。