論文の概要: MoRE: Batch-Robust Multi-Omics Representations from Frozen Pre-trained Transformers
- arxiv url: http://arxiv.org/abs/2511.20382v2
- Date: Wed, 26 Nov 2025 09:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 14:46:34.51866
- Title: MoRE: Batch-Robust Multi-Omics Representations from Frozen Pre-trained Transformers
- Title(参考訳): MoRE:冷凍予修変圧器によるバッチローバスト多面体表現
- Authors: Audrey Pei-Hsuan Chen,
- Abstract要約: 本稿では, 凍結事前学習型トランスフォーマーを応用し, 不均一なアッセイを共有潜在空間に整列させるフレームワークであるMoRE(Multi-Omics Representation Embedding)を提案する。
特に、MoREは軽量でモジュラリティ固有のアダプタとタスク適応型融合層を冷凍バックボーンに取り付ける。
我々は、Scrublet を用いた scGPT, scVI, Harmony など、確立されたベースラインに対して MoRE をベンチマークし、統合忠実度、希少な人口検出、モダリティ伝達を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Representation learning on multi-omics data is challenging due to extreme dimensionality, modality heterogeneity, and cohort-specific batch effects. While pre-trained transformer backbones have shown broad generalization capabilities in biological sequence modeling, their application to multi-omics integration remains underexplored. We present MoRE (Multi-Omics Representation Embedding), a framework that repurposes frozen pre-trained transformers to align heterogeneous assays into a shared latent space. Unlike purely generative approaches, MoRE employs a parameter-efficient fine-tuning (PEFT) strategy, prioritizing cross-sample and cross-modality alignment over simple sequence reconstruction. Specifically, MoRE attaches lightweight, modality-specific adapters and a task-adaptive fusion layer to the frozen backbone. It optimizes a masked modeling objective jointly with supervised contrastive and batch-invariant alignment losses, yielding structure-preserving embeddings that generalize across unseen cell types and platforms. We benchmark MoRE against established baselines, including scGPT, scVI, and Harmony with Scrublet, evaluating integration fidelity, rare population detection, and modality transfer. Our results demonstrate that MoRE achieves competitive batch robustness and biological conservation while significantly reducing trainable parameters compared to fully fine-tuned models. This work positions MoRE as a practical step toward general-purpose omics foundation models.
- Abstract(参考訳): マルチオミクスデータの表現学習は、極端次元性、モダリティの不均一性、コホート固有のバッチ効果のために困難である。
事前訓練されたトランスフォーマーバックボーンは、生物学的シーケンスモデリングにおいて広範な一般化能力を示しているが、これらのマルチオミクス統合への応用はいまだ探索されていない。
本稿では, 凍結事前学習型トランスフォーマーを応用し, 不均一なアッセイを共有潜在空間に整列させるフレームワークであるMoRE(Multi-Omics Representation Embedding)を提案する。
純粋に生成的なアプローチとは異なり、MOREはパラメータ効率の良い微調整(PEFT)戦略を採用し、単純な配列再構成よりもクロスサンプルとクロスモーダルアライメントを優先する。
特に、MoREは軽量でモジュラリティ固有のアダプタとタスク適応型融合層を冷凍バックボーンに取り付ける。
これは、教師付きコントラストとバッチ不変アライメントの損失を伴って、マスクされたモデリング目標を最適化し、未知の細胞タイプやプラットフォームをまたいで一般化する構造保存の埋め込みを生成する。
我々は,Scrublet を用いた scGPT, scVI, Harmony など,確立されたベースラインに対して MoRE をベンチマークし,統合忠実度,希少な人口検出,モダリティ移動を評価する。
以上の結果から,MoREは完全微調整モデルに比べてトレーニング可能なパラメータを著しく低減しつつ,競争力のあるバッチ堅牢性と生物保護を実現することが示された。
この研究は、MoREを汎用オミクス基礎モデルへの実践的なステップと位置づけている。
関連論文リスト
- Mixture of Ranks with Degradation-Aware Routing for One-Step Real-World Image Super-Resolution [76.66229730098759]
実世界の画像超解像(Real-ISR)では、既存のアプローチは主に微調整された事前学習拡散モデルに依存している。
単一ステップ画像超解像のためのMixture-of-Ranks (MoR)アーキテクチャを提案する。
LoRAの各ランクを独立した専門家として扱う、きめ細かい専門家分割戦略を導入する。
論文 参考訳(メタデータ) (2025-11-20T04:11:44Z) - MoETTA: Test-Time Adaptation Under Mixed Distribution Shifts with MoE-LayerNorm [13.63833424954647]
テスト時間適応(TTA)は、単一領域の分散シフト下での性能低下を軽減するのに有効であることが証明されている。
我々は,Mixture-of-Expertsアーキテクチャを統合した,新しいエントロピーベースのTTAフレームワークであるMoETTAを提案する。
論文 参考訳(メタデータ) (2025-11-14T10:24:06Z) - scMRDR: A scalable and flexible framework for unpaired single-cell multi-omics data integration [53.683726781791385]
単一セルマルチオミクス(ScMRDR)と呼ばれるスケーラブルでフレキシブルな生成フレームワークを導入する。
本手法は, バッチ補正, モダリティアライメント, 生体信号保存の観点から, ベンチマークデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2025-10-28T21:28:39Z) - UniMRSeg: Unified Modality-Relax Segmentation via Hierarchical Self-Supervised Compensation [104.59740403500132]
マルチモーダルイメージセグメンテーションは、不完全/破損したモダリティの劣化による実際のデプロイメント課題に直面している。
階層型自己教師型補償(HSSC)による統一Modality-relaxセグメンテーションネットワーク(UniMRSeg)を提案する。
我々のアプローチは、入力レベル、特徴レベル、出力レベルをまたいだ完全なモダリティと不完全なモダリティの間の表現ギャップを階層的に橋渡しします。
論文 参考訳(メタデータ) (2025-09-19T17:29:25Z) - S'MoRE: Structural Mixture of Residual Experts for Parameter-Efficient LLM Fine-tuning [19.038272193170297]
我々は,LoRAの効率とMoEの柔軟性をシームレスに統合する新しいフレームワークであるResidual Experts (S'MoRE)を提案する。
S'MoREは、残余のサブツリーを通して入力トークンをルーティングすることで、少数の低ランク行列をインスタンス化し組み立てることで、多くの専門家の能力をエミュレートする。
論文 参考訳(メタデータ) (2025-04-08T20:54:00Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - MoEUT: Mixture-of-Experts Universal Transformers [75.96744719516813]
ユニバーサルトランスフォーマー(UT)は、合成一般化の学習において標準トランスフォーマーよりも有利である。
層共有は、同じ次元を持つ非共有モデルと比較してパラメータ数を大幅に削減する。
従来の作業では、言語モデリングのようなパラメータ数の支配的なタスクと競合する共有層トランスフォーマー設計の提案に成功しなかった。
論文 参考訳(メタデータ) (2024-05-25T03:24:32Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。