論文の概要: Rigidity-Aware Geometric Pretraining for Protein Design and Conformational Ensembles
- arxiv url: http://arxiv.org/abs/2603.02406v1
- Date: Mon, 02 Mar 2026 21:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.549318
- Title: Rigidity-Aware Geometric Pretraining for Protein Design and Conformational Ensembles
- Title(参考訳): タンパク質設計とコンフォーマルアンサンブルのための剛性を考慮した幾何学的事前学習
- Authors: Zhanghan Ni, Yanjing Li, Zeju Qiu, Bernhard Schölkopf, Hongyu Guo, Weiyang Liu, Shengchao Liu,
- Abstract要約: 幾何学的事前学習フレームワークであるtextbfRigidSSL$(textitRigidity-Aware Self-Supervised Learning$)を紹介した。
フェーズI(RigidSSL-Perturb)は、AlphaFoldタンパク質構造データベースから432K構造から、シミュレートされた摂動を持つ幾何学的先行を学習する。
フェーズII(RigidSSL-MD)は、1.3K分子動力学軌道上のこれらの表現を洗練し、物理的に現実的な遷移を捉える。
- 参考スコア(独自算出の注目度): 74.32932832937618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models have recently advanced $\textit{de novo}$ protein design by learning the statistical regularities of natural structures. However, current approaches face three key limitations: (1) Existing methods cannot jointly learn protein geometry and design tasks, where pretraining can be a solution; (2) Current pretraining methods mostly rely on local, non-rigid atomic representations for property prediction downstream tasks, limiting global geometric understanding for protein generation tasks; and (3) Existing approaches have yet to effectively model the rich dynamic and conformational information of protein structures. To overcome these issues, we introduce $\textbf{RigidSSL}$ ($\textit{Rigidity-Aware Self-Supervised Learning}$), a geometric pretraining framework that front-loads geometry learning prior to generative finetuning. Phase I (RigidSSL-Perturb) learns geometric priors from 432K structures from the AlphaFold Protein Structure Database with simulated perturbations. Phase II (RigidSSL-MD) refines these representations on 1.3K molecular dynamics trajectories to capture physically realistic transitions. Underpinning both phases is a bi-directional, rigidity-aware flow matching objective that jointly optimizes translational and rotational dynamics to maximize mutual information between conformations. Empirically, RigidSSL variants improve designability by up to 43\% while enhancing novelty and diversity in unconditional generation. Furthermore, RigidSSL-Perturb improves the success rate by 5.8\% in zero-shot motif scaffolding and RigidSSL-MD captures more biophysically realistic conformational ensembles in G protein-coupled receptor modeling. The code is available at: https://github.com/ZhanghanNi/RigidSSL.git.
- Abstract(参考訳): 生成モデルは、最近、自然構造の統計正則性を学ぶことによって、タンパク質設計を進歩させた。
しかし、現状のアプローチでは、(1)事前学習が解となるタンパク質の幾何学と設計タスクを共同で学習することはできない、(2)現在の事前学習手法は、主に特性予測タスクの局所的、非厳密な原子表現に依存しており、タンパク質生成タスクのグローバルな幾何学的理解を制限している、(3)既存のアプローチは、タンパク質構造のリッチな動的およびコンフォメーション情報を効果的にモデル化していない、という3つの大きな制限に直面している。
これらの問題を克服するために、生成微調整の前に幾何学学習を前もってロードする幾何学事前学習フレームワークである$\textit{Rigidity-Aware Self-Supervised Learning}$を紹介した。
フェーズI(RigidSSL-Perturb)は、AlphaFoldタンパク質構造データベースから432K構造から、シミュレートされた摂動を持つ幾何学的先行を学習する。
フェーズII(RigidSSL-MD)は、1.3K分子動力学軌道上のこれらの表現を洗練し、物理的に現実的な遷移を捉える。
両相のアンサンピングは、コンフォーメーション間の相互情報を最大化するために、翻訳力学と回転力学を共同で最適化する、双方向で剛性を考慮したフローマッチングの目的である。
経験的に、RigidSSLの変種は、新規性と非条件生成の多様性を高めながら、設計性を最大43%向上させる。
さらに、RigidSSL-Perturbはゼロショットモチーフの足場における成功率を5.8倍に改善し、RigidSSL-MDはGタンパク質結合受容体モデリングにおけるより生物学的に現実的なコンフォメーションアンサンブルをキャプチャする。
コードは、https://github.com/ZhanghanNi/RigidSSL.git.comで入手できる。
関連論文リスト
- Protein Autoregressive Modeling via Multiscale Structure Generation [51.92004892768298]
タンパク質自己回帰モデリング(PAR)は,タンパク質のバックボーン生成のための最初のマルチスケール自己回帰フレームワークである。
ノイズの多いコンテキスト学習とスケジュールサンプリングを採用し、堅牢なバックボーン生成を実現している。
非条件生成ベンチマークでは、PARはタンパク質の分布を効果的に学習し、高い設計品質のバックボーンを生成する。
論文 参考訳(メタデータ) (2026-02-04T18:59:49Z) - Pearl: A Foundation Model for Placing Every Atom in the Right Location [52.35027831422145]
タンパク質-リガンド共フォールディングの基礎モデルであるPearlを紹介した。
パールはタンパク質-リガンド結合における新しい最先端性能を確立している。
Pearlは、パブリックなRuns N' PosesとPoseBustersベンチマークでAlphaFold 3や他のオープンソースベースラインを上回っている。
論文 参考訳(メタデータ) (2025-10-28T17:36:51Z) - AMix-1: A Pathway to Test-Time Scalable Protein Foundation Model [92.51919604882984]
本稿では,Flow Bayesian Networks上に構築された強力なタンパク質基盤モデルAMix-1を紹介する。
AMix-1は、事前学習のスケーリング法則、創発的能力分析、コンテキスト内学習機構、テスト時間スケーリングアルゴリズムを含む、体系的なトレーニング手法によって強化されている。
この基盤を基盤として、タンパク質設計を汎用フレームワークに統合するためのマルチシーケンスアライメント(MSA)ベースのコンテキスト内学習戦略を考案した。
論文 参考訳(メタデータ) (2025-07-11T17:02:25Z) - A Model-Centric Review of Deep Learning for Protein Design [0.0]
ディープラーニングはタンパク質設計を変換し、正確な構造予測、シーケンス最適化、de novoタンパク質生成を可能にした。
ProtGPT2、ProteinMPNN、RFdiffusionなどの生成モデルは、自然進化に基づく制限を超えてシーケンスとバックボーンの設計を可能にした。
最近では、ESM3を含む共同シーケンス構造共設計モデルが両方のモダリティを統一されたフレームワークに統合し、設計性が向上した。
論文 参考訳(メタデータ) (2025-02-26T14:31:21Z) - Structure Language Models for Protein Conformation Generation [66.42864253026053]
伝統的な物理学に基づくシミュレーション手法は、しばしばサンプリング平衡整合に苦しむ。
深い生成モデルは、より効率的な代替としてタンパク質のコンホメーションを生成することを約束している。
本稿では,効率的なタンパク質コンホメーション生成のための新しいフレームワークとして構造言語モデリングを紹介する。
論文 参考訳(メタデータ) (2024-10-24T03:38:51Z) - AlphaFolding: 4D Diffusion for Dynamic Protein Structure Prediction with Reference and Motion Guidance [18.90451943620277]
本研究では分子動力学(MD)シミュレーションデータを用いた動的タンパク質構造学習のための革新的4次元拡散モデルを提案する。
本モデルでは,32時間で最大256個のアミノ酸を含むタンパク質の動的3次元構造を予測できる。
論文 参考訳(メタデータ) (2024-08-22T14:12:50Z) - xTrimoPGLM: Unified 100B-Scale Pre-trained Transformer for Deciphering the Language of Protein [74.64101864289572]
本稿では,タンパク質の理解と生成を同時に行うために,統一されたタンパク質言語モデル xTrimoPGLM を提案する。
xTrimoPGLMは、4つのカテゴリにわたる18のタンパク質理解ベンチマークにおいて、他の高度なベースラインを著しく上回っている。
また、自然の原理に従ってデノボタンパク質配列を生成でき、微調整を監督した後にプログラム可能な生成を行うことができる。
論文 参考訳(メタデータ) (2024-01-11T15:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。