論文の概要: Exemplar Guided Deep Neural Network for Spatial Transcriptomics Analysis
of Gene Expression Prediction
- arxiv url: http://arxiv.org/abs/2210.16721v1
- Date: Sun, 30 Oct 2022 02:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:25:17.285184
- Title: Exemplar Guided Deep Neural Network for Spatial Transcriptomics Analysis
of Gene Expression Prediction
- Title(参考訳): 遺伝子発現予測の空間転写学解析のための経験的ガイド付きディープニューラルネットワーク
- Authors: Yan Yang and Md Zakir Hossain and Eric A Stone and Shafin Rahman
- Abstract要約: 本稿では,組織スライド画像の各ウィンドウから直接,遺伝子発現を高精度かつ効率的に予測するExemplar Guided Network(EGN)を提案する。
我々のEGNフレームワークは,(1)教師なし検索のための表現空間を構成する抽出器,(2)入力ウィンドウの表現を段階的に抽出する視覚変換器(ViT)バックボーン,(3)中間の例を用いて中間のViT表現を適応的に修正するExemplar Bridging(EB)ブロックの3つの主要コンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 9.192169460752805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial transcriptomics (ST) is essential for understanding diseases and
developing novel treatments. It measures gene expression of each fine-grained
area (i.e., different windows) in the tissue slide with low throughput. This
paper proposes an Exemplar Guided Network (EGN) to accurately and efficiently
predict gene expression directly from each window of a tissue slide image. We
apply exemplar learning to dynamically boost gene expression prediction from
nearest/similar exemplars of a given tissue slide image window. Our EGN
framework composes of three main components: 1) an extractor to structure a
representation space for unsupervised exemplar retrievals; 2) a vision
transformer (ViT) backbone to progressively extract representations of the
input window; and 3) an Exemplar Bridging (EB) block to adaptively revise the
intermediate ViT representations by using the nearest exemplars. Finally, we
complete the gene expression prediction task with a simple attention-based
prediction block. Experiments on standard benchmark datasets indicate the
superiority of our approach when comparing with the past state-of-the-art
(SOTA) methods.
- Abstract(参考訳): 空間転写学(ST)は疾患の理解と新しい治療法の開発に不可欠である。
低スループットで組織スライド内の各きめ細かい領域(つまり異なる窓)の遺伝子発現を測定する。
本稿では,組織スライド画像の各ウィンドウから直接,遺伝子発現を高精度かつ効率的に予測するExemplar Guided Network(EGN)を提案する。
本研究では,組織スライド画像ウィンドウの近傍/類似画像からの遺伝子発現予測を動的に向上するために,模範学習を適用した。
私たちのEGNフレームワークは3つの主要コンポーネントで構成されています。
1) 教師なし検索のための表現空間を構成する抽出装置
2) 入力ウィンドウの表現を段階的に抽出する視覚変換器(ViT)バックボーン
3) 中間 ViT 表現を最寄りの例を用いて適応的に修正する Exemplar Bridging (EB) ブロック。
最後に、簡単な注意に基づく予測ブロックで遺伝子発現予測タスクを完了させる。
標準ベンチマークデータセットの実験は、過去のSOTA(State-of-the-art)手法と比較した場合、アプローチの優位性を示している。
関連論文リスト
- SpaRED benchmark: Enhancing Gene Expression Prediction from Histology Images with Spatial Transcriptomics Completion [2.032350440475489]
我々は,26の公開資料から収集した体系的にキュレートされ,処理されたデータベースについて述べる。
また、欠落した遺伝子発現を推測する技術として、最先端のトランスフォーマーベースの補完手法を提案する。
我々の貢献は、これまででもっとも包括的な組織像からの遺伝子発現予測のベンチマークとなっている。
論文 参考訳(メタデータ) (2024-07-17T21:28:20Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Spatial Transcriptomics Analysis of Zero-shot Gene Expression Prediction [7.8979634764500455]
スライド画像ウィンドウから遺伝子発現を予測するゼロショットフレームワークを提案する。
遺伝子型は機能や表現型によって記述できるので、動的にベクターに遺伝子型を埋め込む。
このベクトルを用いてスライド画像ウィンドウを投影し、特徴空間における遺伝子発現を投影し、未知の遺伝子型に対するゼロショット表現予測を解き放つ。
論文 参考訳(メタデータ) (2024-01-26T10:53:21Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Leveraging Graph Diffusion Models for Network Refinement Tasks [72.54590628084178]
本稿では,グラフ拡散に基づく新しいグラフ生成フレームワークSGDMを提案する。
我々のフレームワークはグラフ拡散モデルのスケーラビリティと忠実度を向上するだけでなく、逆プロセスを利用して新しい条件付き生成タスクを実行する。
論文 参考訳(メタデータ) (2023-11-29T18:02:29Z) - SEPAL: Spatial Gene Expression Prediction from Local Graphs [1.4523812806185954]
視覚組織の外観から遺伝子プロファイルを予測する新しいモデルであるSEPALを提案する。
本手法は, 平均表現に対する相対差を直接観察することにより, 問題の生物学的バイアスを生かしている。
そこで本研究では,転写学における現在のベストプラクティスに従うことにより,タスクをより適切に定義することを目的とした新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-09-02T23:24:02Z) - Text Enriched Sparse Hyperbolic Graph Convolutional Networks [21.83127488157701]
グラフニューラルネットワーク(GNN)とその双曲型は、そのようなネットワークを低次元の潜在空間でエンコードするための有望なアプローチを提供する。
本稿では,グラフのメタパス構造を意味信号を用いて捉えるために,テキスト強化スパースハイパーボリックグラフ畳み込みネットワーク(TESH-GCN)を提案する。
我々のモデルは,リンク予測のタスクにおいて,最先端のアプローチよりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-06T00:23:35Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Adaptive Bi-directional Attention: Exploring Multi-Granularity
Representations for Machine Reading Comprehension [29.717816161964105]
異なるレベルのソース表現を予測器に適応的に適用するAdaptive Bidirectional Attentionと呼ばれる新しいアプローチを提案する。
結果は、2.5$%$ EMと2.3$%$ F1スコアによる以前の最新モデルよりも優れています。
論文 参考訳(メタデータ) (2020-12-20T09:31:35Z) - Select, Extract and Generate: Neural Keyphrase Generation with
Layer-wise Coverage Attention [75.44523978180317]
本稿では,2つの主要成分からなるニューラルキーフレーズ生成モデルであるemphSEG-Netを提案する。
科学的およびWeb文書から得られた7つのキーフレーズ生成ベンチマークの実験結果は、SEG-Netが最先端のニューラル生成手法よりも大きなマージンで優れていることを示している。
論文 参考訳(メタデータ) (2020-08-04T18:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。