論文の概要: PanFoMa: A Lightweight Foundation Model and Benchmark for Pan-Cancer
- arxiv url: http://arxiv.org/abs/2512.03111v1
- Date: Tue, 02 Dec 2025 08:31:31 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:15:48.151508
- Title: PanFoMa: A Lightweight Foundation Model and Benchmark for Pan-Cancer
- Title(参考訳): PanFoMa: 軽量ファンデーションモデルとPan-Cancerのベンチマーク
- Authors: Xiaoshui Huang, Tianlin Zhu, Yifan Zuo, Xue Xia, Zonghan Wu, Jiebin Yan, Dingli Hua, Zongyi Xu, Yuming Fang, Jian Zhang,
- Abstract要約: トランスフォーマーと状態空間モデルの強みを組み合わせた軽量ハイブリッドニューラルネットワークであるPanFoMaを紹介する。
PanFoMaはフロントエンドのローカルコンテキストエンコーダと共有自己認識層から構成され、複雑で秩序に依存しない遺伝子相互作用をキャプチャする。
また,350万以上の高品質な細胞を含む大規模パンキャンサー単細胞ベンチマークPanFoMaBenchを構築した。
- 参考スコア(独自算出の注目度): 54.958921946378304
- License:
- Abstract: Single-cell RNA sequencing (scRNA-seq) is essential for decoding tumor heterogeneity. However, pan-cancer research still faces two key challenges: learning discriminative and efficient single-cell representations, and establishing a comprehensive evaluation benchmark. In this paper, we introduce PanFoMa, a lightweight hybrid neural network that combines the strengths of Transformers and state-space models to achieve a balance between performance and efficiency. PanFoMa consists of a front-end local-context encoder with shared self-attention layers to capture complex, order-independent gene interactions; and a back-end global sequential feature decoder that efficiently integrates global context using a linear-time state-space model. This modular design preserves the expressive power of Transformers while leveraging the scalability of Mamba to enable transcriptome modeling, effectively capturing both local and global regulatory signals. To enable robust evaluation, we also construct a large-scale pan-cancer single-cell benchmark, PanFoMaBench, containing over 3.5 million high-quality cells across 33 cancer subtypes, curated through a rigorous preprocessing pipeline. Experimental results show that PanFoMa outperforms state-of-the-art models on our pan-cancer benchmark (+4.0\%) and across multiple public tasks, including cell type annotation (+7.4\%), batch integration (+4.0\%) and multi-omics integration (+3.1\%). The code is available at https://github.com/Xiaoshui-Huang/PanFoMa.
- Abstract(参考訳): 単細胞RNAシークエンシング(scRNA-seq)は腫瘍の不均一性をデコードするために必須である。
しかし、パンキャンサーの研究は差別的で効率的なシングルセル表現の学習と総合的な評価ベンチマークの確立という2つの大きな課題に直面している。
本稿では,トランスフォーマーと状態空間モデルの強度を組み合わせて,性能と効率のバランスをとる軽量ハイブリッドニューラルネットワークPanFoMaを提案する。
PanFoMaは、複雑で順序に依存しない遺伝子相互作用をキャプチャするための共有の自己アテンション層を持つフロントエンドのローカルコンテキストエンコーダと、線形時間状態空間モデルを使用してグローバルコンテキストを効率的に統合するバックエンドのグローバルなシーケンシャル機能デコーダで構成されている。
このモジュラー設計はトランスフォーマーの表現力を保ちつつ、Mambaのスケーラビリティを活用してトランスクリプトームモデリングを実現し、ローカルおよびグローバルな規制信号の両方を効果的にキャプチャする。
また,33種類の癌サブタイプにわたる350万以上の高品質な細胞を含む大規模パンキャンサー単細胞ベンチマークPanFoMaBenchを構築し,厳密な前処理パイプラインでキュレートした。
実験結果から,PanFoMaは,細胞型アノテーション(+7.4\%),バッチ統合(+4.0\%),マルチオミクス統合(+3.1\%)など,複数の公開タスクにおいて,最先端モデル(+4.0\%)よりも優れていた。
コードはhttps://github.com/Xiaoshui-Huang/PanFoMaで公開されている。
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - scMRDR: A scalable and flexible framework for unpaired single-cell multi-omics data integration [53.683726781791385]
単一セルマルチオミクス(ScMRDR)と呼ばれるスケーラブルでフレキシブルな生成フレームワークを導入する。
本手法は, バッチ補正, モダリティアライメント, 生体信号保存の観点から, ベンチマークデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2025-10-28T21:28:39Z) - Multi-Scale Deep Learning for Colon Histopathology: A Hybrid Graph-Transformer Approach [0.0]
大腸癌としても知られる大腸がんは、世界で最も悪性ながんの1つである。
本研究では, カプセルネットワーク, グラフアテンション機構, トランスフォーマーモジュール, 残留学習を併用し, 大腸癌の分類を推し進めるハイブリッドマルチスケールディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-09-02T21:40:57Z) - HybridTM: Combining Transformer and Mamba for 3D Semantic Segmentation [7.663855540620183]
3次元セマンティックセグメンテーションのためにTransformerとMambaを統合した最初のハイブリッドアーキテクチャであるHybridTMを提案する。
さらに,注意とマンバをより微細な粒度で組み合わせた内層ハイブリッド戦略を提案する。
私たちのHybridTMは、ScanNet、ScanNet200、nuScenesベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-07-24T16:48:50Z) - Multi-branch of Attention Yields Accurate Results for Tabular Data [8.017123125747258]
本稿では,エンコーダ・デコーダ・トランスを用いたMAYAを提案する。
エンコーダでは、複数の並列注意枝を構成するマルチブランチ・オブ・アテンション(MBA)を設計する。
我々は、より堅牢な表現を生成するために、動的一貫性重み制約を伴う協調学習を採用する。
論文 参考訳(メタデータ) (2025-02-18T03:43:42Z) - ContextFormer: Redefining Efficiency in Semantic Segmentation [48.81126061219231]
畳み込み法は、局所的な依存関係をうまく捉えるが、長距離関係に苦慮する。
ビジョントランスフォーマー(ViT)は、グローバルなコンテキストキャプチャでは優れるが、高い計算要求によって妨げられる。
我々は,リアルタイムセマンティックセグメンテーションの効率,精度,堅牢性のバランスをとるために,CNN と ViT の強みを活用したハイブリッドフレームワーク ContextFormer を提案する。
論文 参考訳(メタデータ) (2025-01-31T16:11:04Z) - MobileUNETR: A Lightweight End-To-End Hybrid Vision Transformer For Efficient Medical Image Segmentation [0.12499537119440242]
皮膚がんのセグメンテーションは、医療画像解析において重要な課題である。
MobileUNETRは、CNNとTransformerの両方のパフォーマンス制約を克服することを目指している。
MobileUNETRは300万のパラメータと1.3 GFLOPの計算複雑性で優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-04T20:23:37Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。