論文の概要: MagNet: Multi-Level Attention Graph Network for Predicting High-Resolution Spatial Transcriptomics
- arxiv url: http://arxiv.org/abs/2502.21011v1
- Date: Fri, 28 Feb 2025 12:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:41:48.356366
- Title: MagNet: Multi-Level Attention Graph Network for Predicting High-Resolution Spatial Transcriptomics
- Title(参考訳): MagNet:高分解能空間トランスクリプトークス予測のためのマルチレベル注意グラフネットワーク
- Authors: Junchao Zhu, Ruining Deng, Tianyuan Yao, Juming Xiong, Chongyu Qu, Junlin Guo, Siqi Lu, Yucheng Tang, Daguang Xu, Mengmeng Yin, Yu Wang, Shilin Zhao, Yaohong Wang, Haichun Yang, Yuankai Huo,
- Abstract要約: MagNetは高解像度HDデータの正確な予測のために設計されたマルチレベルアテンショングラフネットワークである。
マルチレベル機能を統合することで、MagNetは高解像度の遺伝子発現を予測する際に、低解像度の入力によって生じる制限を克服する。
- 参考スコア(独自算出の注目度): 11.160628593295893
- License:
- Abstract: The rapid development of spatial transcriptomics (ST) offers new opportunities to explore the gene expression patterns within the spatial microenvironment. Current research integrates pathological images to infer gene expression, addressing the high costs and time-consuming processes to generate spatial transcriptomics data. However, as spatial transcriptomics resolution continues to improve, existing methods remain primarily focused on gene expression prediction at low-resolution spot levels. These methods face significant challenges, especially the information bottleneck, when they are applied to high-resolution HD data. To bridge this gap, this paper introduces MagNet, a multi-level attention graph network designed for accurate prediction of high-resolution HD data. MagNet employs cross-attention layers to integrate features from multi-resolution image patches hierarchically and utilizes a GAT-Transformer module to aggregate neighborhood information. By integrating multilevel features, MagNet overcomes the limitations posed by low-resolution inputs in predicting high-resolution gene expression. We systematically evaluated MagNet and existing ST prediction models on both a private spatial transcriptomics dataset and a public dataset at three different resolution levels. The results demonstrate that MagNet achieves state-of-the-art performance at both spot level and high-resolution bin levels, providing a novel methodology and benchmark for future research and applications in high-resolution HD-level spatial transcriptomics. Code is available at https://github.com/Junchao-Zhu/MagNet.
- Abstract(参考訳): 空間転写学(ST)の急速な発展は、空間マイクロ環境における遺伝子発現パターンを探索する新たな機会を提供する。
現在の研究は、病的画像を統合して遺伝子発現を推論し、高コストと時間を要するプロセスに対処し、空間転写学データを生成する。
しかし、空間転写学の解像度は改善され続けており、既存の手法は主に低解像度スポットレベルでの遺伝子発現予測に重点を置いている。
これらの手法は、高解像度HDデータに適用された場合、特に情報のボトルネックなど重要な課題に直面している。
このギャップを埋めるために,高解像度HDデータの正確な予測を目的としたマルチレベルアテンショングラフネットワークMagNetを紹介する。
MagNetは、マルチレゾリューションイメージパッチの機能を階層的に統合するために、クロスアテンションレイヤを採用し、近隣情報を集約するためにGAT-Transformerモジュールを使用している。
マルチレベル機能を統合することで、MagNetは高解像度の遺伝子発現を予測する際に、低解像度の入力によって生じる制限を克服する。
我々は,MagNetと既存のST予測モデルを,プライベートな空間転写学データセットとパブリックなデータセットの両方で3つの解像度レベルで体系的に評価した。
以上の結果から,MagNetはスポットレベルと高分解能ビンレベルの両方で最先端の性能を達成し,高分解能HDレベルの空間転写学における将来の研究および応用のための新しい方法論とベンチマークを提供する。
コードはhttps://github.com/Junchao-Zhu/MagNet.comで入手できる。
関連論文リスト
- DeltaGNN: Graph Neural Network with Information Flow Control [5.563171090433323]
グラフニューラルネットワーク(GNN)は、メッセージパッシングプロセスの近傍集約を通じてグラフ構造化データを処理するように設計されている。
メッセージパッシングにより、GNNは短距離空間的相互作用を理解できるだけでなく、過度なスムーシングや過度なスカッシングに悩まされる。
本稿では,線形計算オーバーヘッドを伴うオーバー・スムーシングとオーバー・スキャッシングに対処するための,emph情報フロー制御機構を提案する。
さまざまなサイズ、トポロジ、密度、ホモフィリック比のグラフを含む10の実世界のデータセットを対象に、我々のモデルをベンチマークし、優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-10T14:34:20Z) - Graph Mixture of Experts and Memory-augmented Routers for Multivariate Time Series Anomaly Detection [28.57277614615255]
本稿では,多変量時系列異常検出のためのGraph Mixture of Experts (Graph-MoE)ネットワークを提案する。
我々のGraph-MoEは、プラグイン・アンド・プレイ方式で任意のGNNベースのMSS異常検出手法に統合できる。
さらに,MTSのグローバルな歴史的特徴から時間的相関情報を捉えるために,メモリ拡張ルータを提案する。
論文 参考訳(メタデータ) (2024-12-26T07:49:51Z) - High-Resolution Spatial Transcriptomics from Histology Images using HisToSGE [1.3124513975412255]
HisToSGEは、組織像から高分解能な遺伝子発現プロファイルを生成する。
HisToSGEは高解像度の遺伝子発現プロファイルを生成し、下流タスクを実行するのに優れている。
論文 参考訳(メタデータ) (2024-07-30T03:29:57Z) - GraphMamba: An Efficient Graph Structure Learning Vision Mamba for Hyperspectral Image Classification [19.740333867168108]
GraphMambaは、深部空間スペクトル情報マイニングを実現するための効率的なグラフ構造学習ビジョンMamba分類フレームワークである。
GraphMambaのコアコンポーネントには、計算効率を改善するHyperMambaモジュールと、適応的な空間コンテキスト認識のためのSpectralGCNモジュールが含まれている。
論文 参考訳(メタデータ) (2024-07-11T07:56:08Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。