論文の概要: C3-Diff: Super-resolving Spatial Transcriptomics via Cross-modal Cross-content Contrastive Diffusion Modelling
- arxiv url: http://arxiv.org/abs/2511.05571v1
- Date: Tue, 04 Nov 2025 13:12:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.455768
- Title: C3-Diff: Super-resolving Spatial Transcriptomics via Cross-modal Cross-content Contrastive Diffusion Modelling
- Title(参考訳): C3-Diff:クロスモーダルクロスコンテントコントラスト拡散モデルによる超解像空間転写学
- Authors: Xiaofei Wang, Stephen Price, Chao Li,
- Abstract要約: 本研究は, 組織像をガイダンスとしてST強調のために, C3-Diffと呼ばれるクロスモーダルクロスコントラスト拡散フレームワークを提案する。
STマップにおける低シークエンシング感度の問題を克服するため,特徴単位超球面上でノイズに基づく情報拡張を行う。
本稿では,STデータ不足を軽減するための動的クロスモーダル計算に基づくトレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 5.986183062217602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of spatial transcriptomics (ST), i.e., spatial gene expressions, has made it possible to measure gene expression within original tissue, enabling us to discover molecular mechanisms. However, current ST platforms frequently suffer from low resolution, limiting the in-depth understanding of spatial gene expression. Super-resolution approaches promise to enhance ST maps by integrating histology images with gene expressions of profiled tissue spots. However, it remains a challenge to model the interactions between histology images and gene expressions for effective ST enhancement. This study presents a cross-modal cross-content contrastive diffusion framework, called C3-Diff, for ST enhancement with histology images as guidance. In C3-Diff, we firstly analyze the deficiency of traditional contrastive learning paradigm, which is then refined to extract both modal-invariant and content-invariant features of ST maps and histology images. Further, to overcome the problem of low sequencing sensitivity in ST maps, we perform nosing-based information augmentation on the surface of feature unit hypersphere. Finally, we propose a dynamic cross-modal imputation-based training strategy to mitigate ST data scarcity. We tested C3-Diff by benchmarking its performance on four public datasets, where it achieves significant improvements over competing methods. Moreover, we evaluate C3-Diff on downstream tasks of cell type localization, gene expression correlation and single-cell-level gene expression prediction, promoting AI-enhanced biotechnology for biomedical research and clinical applications. Codes are available at https://github.com/XiaofeiWang2018/C3-Diff.
- Abstract(参考訳): 空間転写学(ST)の急速な進歩、すなわち空間遺伝子発現は、原組織内での遺伝子発現の測定を可能にし、分子機構の発見を可能にした。
しかし、現在のSTプラットフォームは解像度が低く、空間的遺伝子発現の深い理解が制限されることが多い。
超高分解能アプローチは、組織像とプロファイルされた組織スポットの遺伝子発現を統合することでSTマップを強化することを約束する。
しかし,ST増強のための組織像と遺伝子発現の相互作用をモデル化することは依然として困難である。
本研究は, 組織像をガイダンスとしてST強調のために, C3-Diffと呼ばれるクロスモーダルクロスコントラスト拡散フレームワークを提案する。
C3-Diffでは、まず従来のコントラスト学習パラダイムの欠如を分析し、STマップと組織像のモーダル不変特徴と内容不変特徴の両方を抽出する。
さらに,STマップにおける低シークエンシング感度の問題を克服するために,特徴単位超球面上でノイズに基づく情報拡張を行う。
最後に,STデータ不足を軽減するための動的クロスモーダル計算に基づくトレーニング戦略を提案する。
C3-Diffを4つの公開データセットでベンチマークすることでテストしました。
さらに, 細胞型局在化, 遺伝子発現相関, 単細胞レベルの遺伝子発現予測の下流タスクにおけるC3-Diffの評価を行い, バイオメディカル研究および臨床応用のためのAI強化バイオテクノロジーを推進した。
コードはhttps://github.com/XiaofeiWang2018/C3-Diffで公開されている。
関連論文リスト
- HaDM-ST: Histology-Assisted Differential Modeling for Spatial Transcriptomics Generation [3.0708458805558347]
本稿では,H&E画像と低分解能STを条件とした高分解能ST生成フレームワークであるHaDM-STを提案する。
様々な組織や種にまたがる200の遺伝子に対する実験では、HDM-STは従来法よりも一貫して優れており、高分解能ST予測における空間的忠実度と遺伝子レベルのコヒーレンスを高めている。
論文 参考訳(メタデータ) (2025-08-10T08:09:06Z) - Towards Unified and Lossless Latent Space for 3D Molecular Latent Diffusion Modeling [90.23688195918432]
3次元分子生成は、薬物発見と物質科学に不可欠である。
既存のアプローチは、典型的には不変かつ同変なモジュラリティに対して別々のラテント空間を保持する。
我々は,3次元分子を潜在空間から潜在配列に圧縮するマルチモーダルVAEである textbfUAE-3D を提案する。
論文 参考訳(メタデータ) (2025-03-19T08:56:13Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Cross-modal Diffusion Modelling for Super-resolved Spatial Transcriptomics [5.904688354944791]
空間転写学は、発見研究のための組織内の空間遺伝子発現を特徴づけることができる。
超高分解能アプローチは、組織像とプロファイルされた組織スポットの遺伝子発現を統合することでSTマップを強化することを約束する。
本稿では, 組織像の誘導による超解像STマップのクロスモーダル拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-04-19T16:01:00Z) - Accurate Spatial Gene Expression Prediction by integrating Multi-resolution features [0.0]
TRIPLEXは全スライド画像(WSI)から空間的遺伝子発現を予測するための新しいディープラーニングフレームワーク
3つのパブリックSTデータセットを用いて行ったベンチマーク研究により、TRIPLEXはMean Squared Error(MSE)、Mean Absolute Error(MAE)、Pearson correlation Coefficient(PCC)において、現在の最先端モデルよりも優れていることが示された。
このモデルの予測は、がんの診断と治療の進歩におけるTRIPLEXのポテンシャルを裏付ける、基底真理遺伝子発現プロファイルや腫瘍アノテーションと密接に一致している。
論文 参考訳(メタデータ) (2024-03-12T12:25:38Z) - Genetic InfoMax: Exploring Mutual Information Maximization in
High-Dimensional Imaging Genetics Studies [50.11449968854487]
遺伝子ワイド・アソシエーション(GWAS)は、遺伝的変異と特定の形質の関係を同定するために用いられる。
画像遺伝学の表現学習は、GWASによって引き起こされる固有の課題により、ほとんど探索されていない。
本稿では,GWAS の具体的な課題に対処するために,トランスモーダル学習フレームワーク Genetic InfoMax (GIM) を提案する。
論文 参考訳(メタデータ) (2023-09-26T03:59:21Z) - Unsupervised ensemble-based phenotyping helps enhance the
discoverability of genes related to heart morphology [57.25098075813054]
我々はUn Phenotype Ensemblesという名の遺伝子発見のための新しいフレームワークを提案する。
教師なしの方法で学習された表現型のセットをプールすることで、冗長だが非常に表現性の高い表現を構築する。
これらの表現型は、(GWAS)を介して分析され、高い自信と安定した関連のみを保持する。
論文 参考訳(メタデータ) (2023-01-07T18:36:44Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。