論文の概要: Spatial Transcriptomics as Images for Large-Scale Pretraining
- arxiv url: http://arxiv.org/abs/2603.13432v1
- Date: Fri, 13 Mar 2026 05:12:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.199976
- Title: Spatial Transcriptomics as Images for Large-Scale Pretraining
- Title(参考訳): 大規模事前学習のための画像としての空間転写学
- Authors: Yishun Zhu, Jiaxin Qi, Jian Wang, Yuhua Zheng, Jianqiang Huang,
- Abstract要約: 空間トランスクリプトークスは、組織部分の正確な座標で、個別の場所で数千の遺伝子発現値をプロファイルする。
シークエンシングスループットの上昇とプログレッシブプラットフォームにより、拡張データボリュームは大規模なST事前トレーニングを動機付けている。
既存の選択は,(1)空間依存を排除し,STを単細胞転写学に分解する独立したサンプルとして,(2)スライド全体を単一サンプルとして扱うことにより,極めて大きな入力を発生させ,トレーニング例を劇的に少なくする。
我々は,空間転写学を収穫可能な画像として扱うことを提案する。具体的には,収穫パッチによる固定空間サイズの多チャンネル画像表現を定義する。
- 参考スコア(独自算出の注目度): 18.7187666986181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial Transcriptomics (ST) profiles thousands of gene expression values at discrete spots with precise coordinates on tissue sections, preserving spatial context essential for clinical and pathological studies. With rising sequencing throughput and advancing platforms, the expanding data volumes motivate large-scale ST pretraining. However, the fundamental unit for pretraining, i.e., what constitutes a single training sample, remains ill-posed. Existing choices fall into two camps: (1) treating each spot as an independent sample, which discards spatial dependencies and collapses ST into single-cell transcriptomics; and (2) treating an entire slide as a single sample, which produces prohibitively large inputs and drastically fewer training examples, undermining effective pretraining. To address this gap, we propose treating spatial transcriptomics as croppable images. Specifically, we define a multi-channel image representation with fixed spatial size by cropping patches from raw slides, thereby preserving spatial context while substantially increasing the number of training samples. Along the channel dimension, we define gene subset selection rules to control input dimensionality and improve pretraining stability. Extensive experiments show that the proposed image-like dataset construction for ST pretraining consistently improves downstream performance, outperforming conventional pretraining schemes. Ablation studies verify that both spatial patching and channel design are necessary, establishing a unified, practical paradigm for organizing ST data and enabling large-scale pretraining.
- Abstract(参考訳): 空間転写学 (Spatial Transcriptomics, ST) は、臨床および病理研究に欠かせない空間的文脈を保存し、組織部位の正確な座標で数千の遺伝子発現値を示す。
シークエンシングスループットの上昇とプログレッシブプラットフォームにより、拡張データボリュームは大規模なST事前トレーニングを動機付けている。
しかし、予備訓練の基本単位、すなわち、単一のトレーニングサンプルを構成するものは、いまだに不十分なままである。
既存の選択は,(1)空間依存を排除し,STを単細胞転写学に分解する独立したサンプルとして,(2)スライド全体を単一のサンプルとして扱うことにより,極めて大きな入力を発生させ,トレーニング例を劇的に減らし,効果的な事前訓練を損なう。
このギャップに対処するために,空間転写学を収穫可能な画像として扱うことを提案する。
具体的には、原スライドからパッチを収穫し、トレーニングサンプル数を著しく増加させながら、空間的コンテキストを保存することにより、固定空間サイズの多チャンネル画像表現を定義する。
チャネル次元に沿って、入力次元を制御し、事前学習安定性を向上させるために、遺伝子サブセット選択ルールを定義する。
大規模な実験により,ST事前学習のための画像ライクなデータセット構築がダウンストリーム性能を継続的に改善し,従来の事前学習方式よりも優れた結果が得られた。
アブレーション研究は、空間的パッチングとチャネル設計の両方が必要であることを検証し、STデータを整理し、大規模な事前訓練を可能にする統一的で実践的なパラダイムを確立する。
関連論文リスト
- Fake It Right: Injecting Anatomical Logic into Synthetic Supervised Pre-training for Medical Segmentation [21.75204301463342]
ビジョントランスフォーマー(ViT)は3次元の医療セグメンテーションで優れるが、大量のデータセットを必要とする。
Formula-Driven Supervised Learning (F)は、合成数学的プリミティブを事前学習することで、プライバシ保護の代替手段を提供する。
本稿では,Fの無限拡張性と解剖学的リアリズムを一体化するための注釈付きインフォームド・シンセティック・アナトロジー・プレトレーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-01T08:15:18Z) - Efficient Conformal Volumetry for Template-Based Segmentation [23.593891761167374]
本稿では,効率的なボリューム不確実性定量化を実現するフレームワークであるConVOLTを紹介する。
ConVOLTは、変形空間の特徴から学習されたボリュームスケーリング係数を校正する。
我々の研究は、医用画像パイプラインにおける効率的なUQのための登録プロセスを活用する方法である。
論文 参考訳(メタデータ) (2026-02-28T20:16:15Z) - Learning to Factorize and Adapt: A Versatile Approach Toward Universal Spatio-Temporal Foundation Models [42.152122602443164]
FactoST-v2は時空間学習のための拡張された因子化フレームワークである。
FactoST-v2は線形効率で最先端の精度を実現する。
この分解パラダイムは、真に普遍的なSTFMへの実践的でスケーラブルなパスを提供する。
論文 参考訳(メタデータ) (2026-01-17T15:20:08Z) - Data Efficiency and Transfer Robustness in Biomedical Image Segmentation: A Study of Redundancy and Forgetting with Cellpose [2.37771211295026]
Cellposeのような一般的なバイオメディカルイメージセグメンテーションモデルは、様々な画像モダリティや細胞タイプにまたがって適用されてきている。
本研究では,Cellposeをケーススタディとして,課題の体系的実証分析を行う。
データ冗長性を評価するため、コンパクトで多様なトレーニングサブセットを構築するための単純なデータセット量子化(DQ)戦略を提案する。
破滅的な忘れ物を調べるため、クロスドメイン微調整実験を行い、ソースドメインの性能の著しい劣化を観察する。
論文 参考訳(メタデータ) (2025-11-06T20:45:56Z) - ST-DAI: Single-shot 2.5D Spatial Transcriptomics with Intra-Sample Domain Adaptive Imputation for Cost-efficient 3D Reconstruction [1.7603474309877931]
コスト効率のよい2.5Dサンプリングスキームをサンプル内ドメイン適応型計算フレームワークと組み合わせた,3D transcriptomics用単ショットフレームワークST-DAIを紹介する。
まず、コスト効率2.5Dサンプリング段階において、1つの基準部(中央部)を完全にサンプリングし、他の部(隣接部)を疎サンプリングする。
第2に、このコスト効率のよい2.5D STスキームから完全な3D STを生成できる単発3D計算学習法を提案する。
論文 参考訳(メタデータ) (2025-07-29T05:46:37Z) - A Partial Initialization Strategy to Mitigate the Overfitting Problem in CATE Estimation with Hidden Confounding [44.874826691991565]
観察データから条件平均治療効果(CATE)を推定することは、電子商取引、医療、経済などの分野において重要な役割を果たす。
既存の研究は主に、隠れた共同設立者がいないという強い無知の仮定に依存している。
ランダム化制御試験 (RCT) から収集されたデータは、共起に苦しむことはないが、通常は小さなサンプルサイズによって制限される。
論文 参考訳(メタデータ) (2025-01-15T15:58:16Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Prior Knowledge-Guided Attention in Self-Supervised Vision Transformers [79.60022233109397]
本研究では、未ラベル画像データセットにおける一貫した空間的・意味的構造を利用するフレームワークである空間的事前注意(SPAN)を提案する。
SPANは、アテンションマスクを別個のトランスフォーマーヘッドから正規化し、セマンティック領域の様々な先導に従う。
その結果,アテンションマスクは,ドメインに依存しない事前学習から得られるマスクよりも解釈可能であることが判明した。
論文 参考訳(メタデータ) (2022-09-07T02:30:36Z) - On the Viability of Monocular Depth Pre-training for Semantic Segmentation [48.29060171161375]
本研究は,意味的タスクへの下流移動において,幾何学的タスクの事前学習が有効かどうかを考察する。
単分子深度は意味的セグメンテーションのための事前学習の実行可能な形式であり、共通ベースラインの改善によって検証される。
論文 参考訳(メタデータ) (2022-03-26T04:27:28Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Context-self contrastive pretraining for crop type semantic segmentation [39.81074867563505]
提案したContext-Self Contrastive Loss (CSCL)は、セマンティックバウンダリをポップアップさせる埋め込み空間を学習する。
衛星画像時系列(SITS)からの作物型セマンティックセマンティックセグメンテーションでは,サテライト境界における性能が重要なボトルネックとなる。
より粒度の高い作物のクラスを得るための超解像における意味的セグメンテーションのプロセスを提案する。
論文 参考訳(メタデータ) (2021-04-09T11:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。