論文の概要: Single Cells Are Spatial Tokens: Transformers for Spatial Transcriptomic
Data Imputation
- arxiv url: http://arxiv.org/abs/2302.03038v2
- Date: Fri, 16 Feb 2024 17:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 21:19:58.710575
- Title: Single Cells Are Spatial Tokens: Transformers for Spatial Transcriptomic
Data Imputation
- Title(参考訳): 単一細胞は空間トークンである:空間転写データインプテーションのためのトランスフォーマー
- Authors: Hongzhi Wen, Wenzhuo Tang, Wei Jin, Jiayuan Ding, Renming Liu, Xinnan
Dai, Feng Shi, Lulu Shang, Hui Liu, Yuying Xie
- Abstract要約: 本稿では, セルレベル空間転写データのためのトランスフォーマーベースの計算フレームワークであるSpaFormerを提案する。
SpaFormerは3つの大規模データセット上で既存の最先端の計算アルゴリズムより優れていることを示す。
- 参考スコア(独自算出の注目度): 12.276966573615013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatially resolved transcriptomics brings exciting breakthroughs to
single-cell analysis by providing physical locations along with gene
expression. However, as a cost of the extremely high spatial resolution, the
cellular level spatial transcriptomic data suffer significantly from missing
values. While a standard solution is to perform imputation on the missing
values, most existing methods either overlook spatial information or only
incorporate localized spatial context without the ability to capture long-range
spatial information. Using multi-head self-attention mechanisms and positional
encoding, transformer models can readily grasp the relationship between tokens
and encode location information. In this paper, by treating single cells as
spatial tokens, we study how to leverage transformers to facilitate spatial
tanscriptomics imputation. In particular, investigate the following two key
questions: (1) $\textit{how to encode spatial information of cells in
transformers}$, and (2) $\textit{ how to train a transformer for transcriptomic
imputation}$. By answering these two questions, we present a transformer-based
imputation framework, SpaFormer, for cellular-level spatial transcriptomic
data. Extensive experiments demonstrate that SpaFormer outperforms existing
state-of-the-art imputation algorithms on three large-scale datasets while
maintaining superior computational efficiency.
- Abstract(参考訳): 空間的に解決された転写学は、遺伝子発現とともに物理的な位置を提供することによって、単細胞解析にエキサイティングなブレークスルーをもたらす。
しかし, 空間分解能が極めて高いため, 細胞レベルでの空間転写学的データは欠落した値に大きく影響する。
標準的な解決策は、不足している値にインプテーションを行うことであるが、既存の方法の多くは、空間情報を見逃したり、長距離の空間情報をキャプチャする能力を持たずに、局所化された空間コンテキストだけを取り込んだりしている。
マルチヘッド自己アテンション機構と位置エンコーディングを用いて、トランスフォーマーモデルはトークン間の関係を容易に把握し、位置情報をエンコードする。
本稿では, 単一細胞を空間トークンとして扱うことにより, トランスフォーマを用いて空間的タンプトミクスのインプテーションを促進する方法について検討する。
特に、(1) $\textit{how to encode in cells in transformers}$, (2) $\textit{ how to training a transformer for transcriptomic imputation}$。
これら2つの質問に答えることで、細胞内レベルの空間転写データに対するトランスフォーマーベースの計算フレームワークであるSpaFormerを提案する。
大規模な実験により、SpaFormerは3つの大規模データセット上で既存の最先端の計算アルゴリズムよりも優れた計算効率を維持しながら性能を発揮している。
関連論文リスト
- stEnTrans: Transformer-based deep learning for spatial transcriptomics enhancement [1.3124513975412255]
本研究では,トランスフォーマーアーキテクチャに基づくディープラーニング手法であるstEnTransを提案する。
stEnTransを6つのデータセット上で評価した結果, スポット分解能の向上と未測定領域での遺伝子発現の予測において, 優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-11T06:50:34Z) - stMCDI: Masked Conditional Diffusion Model with Graph Neural Network for Spatial Transcriptomics Data Imputation [8.211887623977214]
空間転写学データ計算のための新しい条件拡散モデルである textbfstMCDI を導入する。
ランダムにマスキングされたデータ部分を使ってトレーニングされたデノベーションネットワークをガイダンスとして使用し、非マスキングされたデータは条件として機能する。
空間転写学データセットから得られた結果は,既存の手法と比較して,本手法の性能を解明するものである。
論文 参考訳(メタデータ) (2024-03-16T09:06:38Z) - Latent Space Inference For Spatial Transcriptomics [0.196629787330046]
組織サンプルの完全な遺伝子発現情報を得るための確率論的機械学習手法について検討する。
これは、変動機械学習手法を用いて、両方のデータセットを共同潜在空間表現にマッピングすることで実現される。
ここから、完全な遺伝学的および空間的情報をデコードし、細胞プロセスや経路の理解についてより深い洞察を与えることができる。
論文 参考訳(メタデータ) (2023-11-01T06:50:00Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Sub-token ViT Embedding via Stochastic Resonance Transformers [51.12001699637727]
Vision Transformer (ViT) アーキテクチャは、画像を高次元のベクトル化トークンの集合として表現し、それぞれが長方形の非重複パッチに対応する。
我々は「確率共鳴」にインスパイアされた無訓練法を提案する。
結果として得られるSRT(Stochastic Resonance Transformer)は、元の表現のリッチな意味情報を保持するが、空間的トークン化の粗い効果を軽減し、より微細な空間領域に基盤を置いている。
論文 参考訳(メタデータ) (2023-10-06T01:53:27Z) - FactoFormer: Factorized Hyperspectral Transformers with Self-Supervised
Pretraining [36.44039681893334]
ハイパースペクトル画像(HSI)は、豊富なスペクトルと空間情報を含む。
現在の最先端ハイパースペクトル変換器は、入力されたHSIサンプルをスペクトル次元に沿ってトークン化するのみである。
本稿では、自己教師付き事前学習手順を取り入れた新しい分解スペクトル空間変換器を提案する。
論文 参考訳(メタデータ) (2023-09-18T02:05:52Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Towards Data-Efficient Detection Transformers [77.43470797296906]
我々は、ほとんどの検出トランスフォーマーが、小さなデータセットで大きなパフォーマンス低下に悩まされていることを示す。
我々はデータ効率に影響を与える要因を、データ効率のRCNNから代表DETRへのステップバイステップ遷移によって実証的に分析する。
本稿では,よりリッチな監視とデータ効率向上を目的とした,シンプルながら効果的なラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:56:34Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - A Volumetric Transformer for Accurate 3D Tumor Segmentation [25.961484035609672]
本稿では,医療画像セグメンテーションのためのトランスフォーマーアーキテクチャを提案する。
TransformerはU字型のボリュームエンコーダデコーダ設計で、入力ボクセル全体を処理している。
モデルがデータセット間でより良い表現を転送し、データの破損に対して堅牢であることを示します。
論文 参考訳(メタデータ) (2021-11-26T02:49:51Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。