論文の概要: Img2ST-Net: Efficient High-Resolution Spatial Omics Prediction from Whole Slide Histology Images via Fully Convolutional Image-to-Image Learning
- arxiv url: http://arxiv.org/abs/2508.14393v1
- Date: Wed, 20 Aug 2025 03:41:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.329239
- Title: Img2ST-Net: Efficient High-Resolution Spatial Omics Prediction from Whole Slide Histology Images via Fully Convolutional Image-to-Image Learning
- Title(参考訳): Img2ST-Net:完全畳み込み画像-画像学習による全スライス組織像からの高分解能空間オミクス予測
- Authors: Junchao Zhu, Ruining Deng, Junlin Guo, Tianyuan Yao, Juming Xiong, Chongyu Qu, Mengmeng Yin, Yu Wang, Shilin Zhao, Haichun Yang, Daguang Xu, Yucheng Tang, Yuankai Huo,
- Abstract要約: Img2ST-Netは効率的な高分解能ST予測のための新しい組織学からST生成フレームワークである。
Img2ST-Netは完全な畳み込みアーキテクチャを用いて高密度のHD遺伝子発現マップを並列に生成する。
我々は高分解能ST予測のためのスケーラブルで生物学的に一貫性のあるフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.64586325986379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in multi-modal AI have demonstrated promising potential for generating the currently expensive spatial transcriptomics (ST) data directly from routine histology images, offering a means to reduce the high cost and time-intensive nature of ST data acquisition. However, the increasing resolution of ST, particularly with platforms such as Visium HD achieving 8um or finer, introduces significant computational and modeling challenges. Conventional spot-by-spot sequential regression frameworks become inefficient and unstable at this scale, while the inherent extreme sparsity and low expression levels of high-resolution ST further complicate both prediction and evaluation. To address these limitations, we propose Img2ST-Net, a novel histology-to-ST generation framework for efficient and parallel high-resolution ST prediction. Unlike conventional spot-by-spot inference methods, Img2ST-Net employs a fully convolutional architecture to generate dense, HD gene expression maps in a parallelized manner. By modeling HD ST data as super-pixel representations, the task is reformulated from image-to-omics inference into a super-content image generation problem with hundreds or thousands of output channels. This design not only improves computational efficiency but also better preserves the spatial organization intrinsic to spatial omics data. To enhance robustness under sparse expression patterns, we further introduce SSIM-ST, a structural-similarity-based evaluation metric tailored for high-resolution ST analysis. We present a scalable, biologically coherent framework for high-resolution ST prediction. Img2ST-Net offers a principled solution for efficient and accurate ST inference at scale. Our contributions lay the groundwork for next-generation ST modeling that is robust and resolution-aware. The source code has been made publicly available at https://github.com/hrlblab/Img2ST-Net.
- Abstract(参考訳): マルチモーダルAIの最近の進歩は、日常的な組織像から直接、現在高価な空間転写学(ST)データを生成する有望な可能性を示し、STデータ取得のコストと時間集約性を低減する手段を提供している。
しかし、特にVisium HDのような8um以上のプラットフォームでSTの解像度が増大すると、計算とモデリングに大きな課題がもたらされる。
従来のスポット・バイ・スポット・シーケンシャル・レグレッション・フレームワークは、このスケールでは非効率で不安定になり、一方、高分解能STの極端な間隔と低発現レベルは、予測と評価の両方をさらに複雑にする。
これらの制約に対処するため,高速かつ並列な高分解能ST予測のための新しい組織学からST生成フレームワークであるImg2ST-Netを提案する。
従来のスポット・バイ・スポット推定法とは異なり、Img2ST-Netは完全に畳み込みアーキテクチャを用いて高密度のHD遺伝子発現マップを並列に生成する。
HD STデータをスーパーピクセル表現としてモデル化することにより、このタスクを画像からオミクスの推論から、数百から数千の出力チャネルを持つ超コンテンツ画像生成問題に再構成する。
この設計は計算効率を向上するだけでなく、空間オミクスデータに固有の空間構造を良く保存する。
高分解能ST解析に適した構造相似性に基づく評価指標であるSSIM-STを導入する。
我々は高分解能ST予測のためのスケーラブルで生物学的に一貫性のあるフレームワークを提案する。
Img2ST-Netは、大規模なST推論を効率的かつ正確に行うための原理的なソリューションを提供する。
我々の貢献は、堅牢で解像度に配慮した次世代STモデリングの基礎を築いた。
ソースコードはhttps://github.com/hrlblab/Img2ST-Netで公開されている。
関連論文リスト
- Visual Autoregressive Modeling for Image Super-Resolution [14.935662351654601]
次世代の予測モデルとして, ISRフレームワークの視覚的自己回帰モデルを提案する。
大規模データを収集し、ロバストな生成先行情報を得るためのトレーニングプロセスを設計する。
論文 参考訳(メタデータ) (2025-01-31T09:53:47Z) - Parallel Sequence Modeling via Generalized Spatial Propagation Network [80.66202109995726]
Generalized Spatial Propagation Network (GSPN)は、2次元空間構造を本質的にキャプチャする最適化された視覚タスクのための新しいアテンションメカニズムである。
GSPNは、空間的コヒーレントな画像データを直接操作し、ラインスキャンアプローチを通じて高密度なペアワイズ接続を形成することにより、制限を克服する。
GSPNは、ImageNet分類、クラス誘導画像生成、テキスト・ツー・イメージ生成などの視覚タスクにおいて、より優れた空間忠実性と最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T18:56:19Z) - SUICA: Learning Super-high Dimensional Sparse Implicit Neural Representations for Spatial Transcriptomics [23.396154129613528]
空間トランスクリプトミクス(Spatial Transcriptomics、ST)は、空間座標に整列した遺伝子発現プロファイルをキャプチャする手法である。
本稿では,提案ツールSUICAを用いて,STを連続的かつコンパクトにモデル化する。
グラフ拡張オートエンコーダを組み込んで,非構造化スポットのコンテキスト情報を効果的にモデル化する。
論文 参考訳(メタデータ) (2024-12-02T05:02:18Z) - High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
拡散モデルは、例外的な品質、詳細な解像度、強い文脈認識を提供することによって、テキストと画像の合成に革命をもたらした。
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - Efficient High-Resolution Visual Representation Learning with State Space Model for Human Pose Estimation [60.80423207808076]
高解像度の視覚表現を維持しながら長距離依存関係をキャプチャすることは、人間のポーズ推定のような密集した予測タスクに不可欠である。
マルチスケールの畳み込み操作で視覚状態空間モデルを拡張する動的ビジュアル状態空間(DVSS)ブロックを提案する。
HRVMambaは効率的な高分解能表現学習のための新しいモデルである。
論文 参考訳(メタデータ) (2024-10-04T06:19:29Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。