論文の概要: ST-Prompt Guided Histological Hypergraph Learning for Spatial Gene Expression Prediction
- arxiv url: http://arxiv.org/abs/2503.16816v1
- Date: Fri, 21 Mar 2025 03:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:57.601097
- Title: ST-Prompt Guided Histological Hypergraph Learning for Spatial Gene Expression Prediction
- Title(参考訳): 空間的遺伝子発現予測のためのST-prompt Guided Histological Hypergraph Learning
- Authors: Yi Niu, Jiashuai Liu, Yingkang Zhan, Jiangbo Shi, Di Zhang, Ines Machado, Mireia Crispin-Ortuzar, Chen Li, Zeyu Gao,
- Abstract要約: 本稿では,ST-promptガイドによる組織学的ハイパーグラフ学習フレームワークPHG2STを提案する。
本フレームワークは, マスク付きST-promptエンコーディング機構を用いて, 複数スケールの組織学的ハイパーグラフ表現を融合する。
これらの結果は、スケーラブルで費用対効果の高い空間的遺伝子発現マッピングに、疎局所STデータを活用する可能性を示している。
- 参考スコア(独自算出の注目度): 9.559278128855036
- License:
- Abstract: Spatial Transcriptomics (ST) reveals the spatial distribution of gene expression in tissues, offering critical insights into biological processes and disease mechanisms. However, predicting ST from H\&E-stained histology images is challenging due to the heterogeneous relationship between histomorphology and gene expression, which arises from substantial variability across different patients and tissue sections. A more practical and valuable approach is to utilize ST data from a few local regions to predict the spatial transcriptomic landscape across the remaining regions in H&E slides. In response, we propose PHG2ST, an ST-prompt guided histological hypergraph learning framework, which leverages sparse ST signals as prompts to guide histological hypergraph learning for global spatial gene expression prediction. Our framework fuses histological hypergraph representations at multiple scales through a masked ST-prompt encoding mechanism, improving robustness and generalizability. Benchmark evaluations on two public ST datasets demonstrate that PHG2ST outperforms the existing state-of-the-art methods and closely aligns with the ground truth. These results underscore the potential of leveraging sparse local ST data for scalable and cost-effective spatial gene expression mapping in real-world biomedical applications.
- Abstract(参考訳): 空間転写学(Spatial Transcriptomics, ST)は、組織における遺伝子発現の空間的分布を明らかにし、生物学的プロセスや疾患のメカニズムに関する重要な洞察を提供する。
しかし, 組織像からSTを予測することは, 組織形態と遺伝子発現の不均一な関係から困難である。
より実用的で価値のあるアプローチは、いくつかの局所領域からのSTデータを用いて、H&Eスライドの残りの領域にわたる空間的記述的景観を予測することである。
そこで本研究では,ST-prompt 誘導型組織学的ハイパーグラフ学習フレームワーク PHG2ST を提案する。
本フレームワークは, マスク付きST-prompt符号化機構により複数スケールの組織学的ハイパーグラフ表現を融合し, 堅牢性と一般化性を向上させる。
2つのパブリックSTデータセットのベンチマーク評価は、PHG2STが既存の最先端手法よりも優れ、基礎的な真実と密接に一致していることを示している。
これらの結果は、実世界のバイオメディカル応用における、スケーラブルで費用対効果の高い空間的遺伝子発現マッピングに、スパースローカルSTデータを活用する可能性を示している。
関連論文リスト
- GENERator: A Long-Context Generative Genomic Foundation Model [66.46537421135996]
本稿では,98k塩基対 (bp) と1.2Bパラメータからなるゲノム基盤モデル GENERator を提案する。
DNAの386Bbpからなる拡張データセットに基づいて、GENERatorは、確立されたベンチマークと新しく提案されたベンチマークの両方で最先端のパフォーマンスを実証する。
また、特に特定のアクティビティプロファイルを持つエンハンサーシーケンスを即応的に生成することで、シーケンス最適化において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2025-02-11T05:39:49Z) - RankByGene: Gene-Guided Histopathology Representation Learning Through Cross-Modal Ranking Consistency [11.813883157319381]
ランク付けに基づくアライメント損失を用いて、遺伝子と画像の特徴を整列する新しいフレームワークを提案する。
そこで我々は,教師と学生のネットワークアーキテクチャを用いた自己指導型知識蒸留を用いて,アライメントの安定性をさらに向上させる。
論文 参考訳(メタデータ) (2024-11-22T17:08:28Z) - Multi-modal Spatial Clustering for Spatial Transcriptomics Utilizing High-resolution Histology Images [1.3124513975412255]
空間転写学(spatial transcriptomics, ST)は、空間的文脈を保ちながら、転写産物全体の遺伝子発現プロファイリングを可能にする。
現在の空間クラスタリング法では、高解像度の組織像と遺伝子発現データを完全に統合することができない。
本稿では、遺伝子発現データと組織像の特徴を融合した、新しいコントラスト学習に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T00:32:24Z) - Multimodal contrastive learning for spatial gene expression prediction using histology images [13.47034080678041]
空間的トランスクリプトミクス表現予測のための Transformer と Densenet-121 エンコーダを用いたマルチモーダルコントラスト学習である textbfmclSTExp を提案する。
textbfmclSTExpは空間的遺伝子発現を予測するのに優れた性能を持つ。
がん特異的な過剰発現遺伝子を解釈し、免疫関連遺伝子を解明し、病理学者によって注釈された特別な空間領域を特定することには、有望であることが示されている。
論文 参考訳(メタデータ) (2024-07-11T06:33:38Z) - Spatially Resolved Gene Expression Prediction from Histology via Multi-view Graph Contrastive Learning with HSIC-bottleneck Regularization [18.554968935341236]
本稿では,HSIC-bottleneck Regularization (ST-GCHB) を用いたマルチビューグラフ比較学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-18T03:07:25Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - SEPAL: Spatial Gene Expression Prediction from Local Graphs [1.4523812806185954]
視覚組織の外観から遺伝子プロファイルを予測する新しいモデルであるSEPALを提案する。
本手法は, 平均表現に対する相対差を直接観察することにより, 問題の生物学的バイアスを生かしている。
そこで本研究では,転写学における現在のベストプラクティスに従うことにより,タスクをより適切に定義することを目的とした新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-09-02T23:24:02Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。