論文の概要: MultiST: A Cross-Attention-Based Multimodal Model for Spatial Transcriptomic
- arxiv url: http://arxiv.org/abs/2601.13331v1
- Date: Mon, 19 Jan 2026 19:11:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.030687
- Title: MultiST: A Cross-Attention-Based Multimodal Model for Spatial Transcriptomic
- Title(参考訳): MultiST:空間トランスクリプトのためのクロスアテンションに基づくマルチモーダルモデル
- Authors: Wei Wang, Quoc-Toan Ly, Chong Yu, Jun Bai,
- Abstract要約: 空間トポロジ、遺伝子発現、組織形態を相互注意に基づく融合によってモデル化する統合フレームワークであるMultiSTを提案する。
提案手法をヒト大脳皮質と乳癌組織を含む2臓器にまたがる13種類のSTデータセットで評価した。
- 参考スコア(独自算出の注目度): 21.236918431473466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial transcriptomics (ST) enables transcriptome-wide profiling while preserving the spatial context of tissues, offering unprecedented opportunities to study tissue organization and cell-cell interactions in situ. Despite recent advances, existing methods often lack effective integration of histological morphology with molecular profiles, relying on shallow fusion strategies or omitting tissue images altogether, which limits their ability to resolve ambiguous spatial domain boundaries. To address this challenge, we propose MultiST, a unified multimodal framework that jointly models spatial topology, gene expression, and tissue morphology through cross-attention-based fusion. MultiST employs graph-based gene encoders with adversarial alignment to learn robust spatial representations, while integrating color-normalized histological features to capture molecular-morphological dependencies and refine domain boundaries. We evaluated the proposed method on 13 diverse ST datasets spanning two organs, including human brain cortex and breast cancer tissue. MultiST yields spatial domains with clearer and more coherent boundaries than existing methods, leading to more stable pseudotime trajectories and more biologically interpretable cell-cell interaction patterns. The MultiST framework and source code are available at https://github.com/LabJunBMI/MultiST.git.
- Abstract(参考訳): 空間転写学 (Spatial transcriptomics, ST) は、組織における組織組織と細胞間相互作用を研究する前例のない機会を提供しながら、組織全体のプロファイリングを可能にする。
近年の進歩にもかかわらず、既存の手法は分子プロファイルと組織形態学の効果的な統合を欠いていることが多く、浅い融合戦略や組織像の省略に頼っているため、あいまいな空間領域の境界を解決できる能力は限られている。
この課題に対処するため,MultiSTは空間トポロジー,遺伝子発現,組織形態を共同でモデル化する統合マルチモーダルフレームワークである。
MultiSTは、グラフベースの遺伝子エンコーダを用いて、堅牢な空間表現を学習し、カラー正規化組織学的特徴を統合し、分子形態的依存関係を捉え、ドメイン境界を洗練させる。
提案手法をヒト大脳皮質と乳癌組織を含む2臓器にまたがる13種類のSTデータセットで評価した。
MultiSTは、既存の方法よりも明確でコヒーレントな境界を持つ空間ドメインを生成し、より安定した擬似時間軌道とより生物学的に解釈可能な細胞-細胞相互作用パターンをもたらす。
MultiSTフレームワークとソースコードはhttps://github.com/LabJunBMI/MultiST.gitで入手できる。
関連論文リスト
- Fusing Pixels and Genes: Spatially-Aware Learning in Computational Pathology [46.83014413674925]
STAMPは空間的トランスクリプトミクスを付加したマルチモーダルな病理表現学習フレームワークである。
本研究は、自己教師型遺伝子誘導訓練が、病理画像表現の学習に堅牢でタスクに依存しない信号を提供することを示す。
6つのデータセットと4つの下流タスクにまたがってSTAMPを検証する。
論文 参考訳(メタデータ) (2026-02-15T00:59:13Z) - Uncovering spatial tissue domains and cell types in spatial omics through cross-scale profiling of cellular and genomic interactions [26.7111709393529]
本稿では,高速空間転写学解析の限界を克服するディープラーニングフレームワークであるCellScapeを提案する。
CellScapeは、組織空間における細胞間相互作用と細胞間のゲノム関係をモデル化し、包括的な表現を生成する。
この技術は、空間領域のセグメンテーションを改善する生物学的に有意義なパターンを明らかにする。
論文 参考訳(メタデータ) (2026-02-13T06:22:43Z) - Multi-label Classification with Panoptic Context Aggregation Networks [61.82285737410154]
本稿では,多次幾何学的文脈を階層的に統合する新しいアプローチであるDeep Panoptic Context Aggregation Network(PanCAN)を紹介する。
PanCANは、ランダムウォークとアテンションメカニズムを組み合わせることで、各スケールで複数階の近傍関係を学習する。
NUS-WIDE、PASCAL VOC、2007、MS-COCOベンチマークの実験は、PanCANが一貫して競争結果を達成することを示した。
論文 参考訳(メタデータ) (2025-12-29T14:16:21Z) - A Multi-scale Fused Graph Neural Network with Inter-view Contrastive Learning for Spatial Transcriptomics Data Clustering [7.214595408714774]
畳み込み後の空間的特徴と遺伝子的特徴を動的に統合するために,階層的に相互に注目するマルチスケールな相互融合グラフネットワークstMFGを提案する。
最先端の手法よりも優れており、特定のスライスで最大14%のARI改善を実現している。
論文 参考訳(メタデータ) (2025-12-18T05:13:55Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - HiFusion: Hierarchical Intra-Spot Alignment and Regional Context Fusion for Spatial Gene Expression Prediction from Histopathology [7.982889842329205]
HiFusionは、2つの補完的なコンポーネントを統合する新しいディープラーニングフレームワークである。
HiFusionは,2次元のスライドワイドクロスバリデーションと,より困難な3次元サンプル固有シナリオの両面において,最先端のパフォーマンスを実現する。
これらの結果は、定期的な病理組織学からのST推論の堅牢で正確でスケーラブルな解としてのHiFusionの可能性を裏付けるものである。
論文 参考訳(メタデータ) (2025-11-17T04:47:39Z) - scMRDR: A scalable and flexible framework for unpaired single-cell multi-omics data integration [53.683726781791385]
単一セルマルチオミクス(ScMRDR)と呼ばれるスケーラブルでフレキシブルな生成フレームワークを導入する。
本手法は, バッチ補正, モダリティアライメント, 生体信号保存の観点から, ベンチマークデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2025-10-28T21:28:39Z) - SemanticST: Spatially Informed Semantic Graph Learning for Clustering, Integration, and Scalable Analysis of Spatial Transcriptomics [3.1403380447856426]
本稿では,空間転写学解析のためのグラフベースのディープラーニングフレームワークSemanticSTを提案する。
ミニバッチトレーニングをサポートしており、Xenium(50,000セル)のような大規模データセットにスケーラブルなグラフニューラルネットワークとしては初めてのものだ。
論文 参考訳(メタデータ) (2025-06-13T06:30:48Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Multi-modal Spatial Clustering for Spatial Transcriptomics Utilizing High-resolution Histology Images [1.3124513975412255]
空間転写学(spatial transcriptomics, ST)は、空間的文脈を保ちながら、転写産物全体の遺伝子発現プロファイリングを可能にする。
現在の空間クラスタリング法では、高解像度の組織像と遺伝子発現データを完全に統合することができない。
本稿では、遺伝子発現データと組織像の特徴を融合した、新しいコントラスト学習に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T00:32:24Z) - Revisiting Adaptive Cellular Recognition Under Domain Shifts: A Contextual Correspondence View [49.03501451546763]
生物学的文脈における暗黙の対応の重要性を明らかにする。
モデル構成成分間のインスタンス認識トレードオフを確保するために, 自己適応型動的蒸留を提案する。
論文 参考訳(メタデータ) (2024-07-14T04:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。