論文の概要: SaDiT: Efficient Protein Backbone Design via Latent Structural Tokenization and Diffusion Transformers
- arxiv url: http://arxiv.org/abs/2602.06706v1
- Date: Fri, 06 Feb 2026 13:50:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.413822
- Title: SaDiT: Efficient Protein Backbone Design via Latent Structural Tokenization and Diffusion Transformers
- Title(参考訳): SaDiT:潜在構造トークン化と拡散変換器による効率的なタンパク質バックボーン設計
- Authors: Shentong Mo, Lanqing Li,
- Abstract要約: 本稿では,SaProt TokenizationとDiffusion Transformer (DiT)アーキテクチャを統合することで,タンパク質のバックボーン生成を促進する新しいフレームワークであるSaDiTを提案する。
実験により、SaDiTはRFDiffusionやProteinaといった最先端モデルよりも計算速度と構造的生存性が優れていることが示された。
- 参考スコア(独自算出の注目度): 50.18388227899971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models for de novo protein backbone design have achieved remarkable success in creating novel protein structures. However, these diffusion-based approaches remain computationally intensive and slower than desired for large-scale structural exploration. While recent efforts like Proteina have introduced flow-matching to improve sampling efficiency, the potential of tokenization for structural compression and acceleration remains largely unexplored in the protein domain. In this work, we present SaDiT, a novel framework that accelerates protein backbone generation by integrating SaProt Tokenization with a Diffusion Transformer (DiT) architecture. SaDiT leverages a discrete latent space to represent protein geometry, significantly reducing the complexity of the generation process while maintaining theoretical SE(3) equivalence. To further enhance efficiency, we introduce an IPA Token Cache mechanism that optimizes the Invariant Point Attention (IPA) layers by reusing computed token states during iterative sampling. Experimental results demonstrate that SaDiT outperforms state-of-the-art models, including RFDiffusion and Proteina, in both computational speed and structural viability. We evaluate our model across unconditional backbone generation and fold-class conditional generation tasks, where SaDiT shows superior ability to capture complex topological features with high designability.
- Abstract(参考訳): デノボタンパク質のバックボーン設計のための生成モデルは、新規なタンパク質構造の作成において顕著な成功を収めた。
しかし、これらの拡散に基づくアプローチは、大規模構造探査において望まれるよりも計算集約的で遅いままである。
タンパク質のような最近の研究は、サンプリング効率を改善するためにフローマッチングを導入しているが、構造的圧縮と加速のためのトークン化の可能性は、タンパク質ドメインでほとんど解明されていない。
本稿では,SaProt TokenizationとDiffusion Transformer(DiT)アーキテクチャを統合することで,タンパク質のバックボーン生成を促進する新しいフレームワークであるSaDiTを提案する。
SaDiTはタンパク質の幾何学を表現するために離散潜在空間を利用し、理論SE(3)同値性を維持しながら生成過程の複雑さを著しく低減する。
さらに効率を高めるために,反復サンプリング時に計算トークン状態を再利用することにより,不変点注意層(IPA)を最適化するIPAトークンキャッシュ機構を導入する。
実験結果から,SaDiTはRFDiffusionやProteinaといった最先端モデルよりも計算速度と構造的生存性が優れていた。
そこで,SaDiTは複雑なトポロジカルな特徴を高い設計性で捉える能力に優れていた。
関連論文リスト
- Efficient Protein Optimization via Structure-aware Hamiltonian Dynamics [16.336540408998598]
HADESはハミルトニアン力学を利用したベイズ最適化法であり、構造対応の近似後部から効率的にサンプリングする。
このような連続状態系から離散的なタンパク質配列を提案するために、位置離散化手順を導入する。
実験により,本手法はシリコン内評価において最先端のベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2026-01-16T05:53:53Z) - Protein Folding with Neural Ordinary Differential Equations [9.980631693646528]
本稿では,48個の離散ブロックを,コアアテンションに基づく操作を保存したニューラルODEパラメータ化に置き換えたEvoformerの連続的な深度定式化を提案する。
The Neural ODE-based Evoformer produced structurely plausible predictions and securely captures certain secondary structure element, such as Alpha-helices。
私たちのモデルは、単一のGPUで17.5時間トレーニングしただけで、劇的に少ないリソースでこのパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-10-17T22:56:03Z) - ProteinAE: Protein Diffusion Autoencoders for Structure Encoding [64.77182442408254]
本稿では,新規かつ合理化されたタンパク質拡散オートエンコーダであるProteinAEを紹介する。
プロテインAEは、タンパク質のバックボーン座標を直接E(3)から連続的でコンパクトな潜在空間にマッピングする。
本研究では,既存のオートエンコーダよりも優れた,最先端の再構築品質を実現することを実証する。
論文 参考訳(メタデータ) (2025-10-12T14:30:32Z) - The Latent Road to Atoms: Backmapping Coarse-grained Protein Structures with Latent Diffusion [19.85659309869674]
潜伏拡散バックマッピング(LDB)は、これらの課題に対処するために潜伏空間内での拡散をデノナイズする新しいアプローチである。
3つの異なるタンパク質データセット上でLDBの最先端性能を評価する。
計算生物学におけるCGシミュレーションと原子レベル解析のギャップを効果的に埋め、LDBをバックマッピングのための強力でスケーラブルなアプローチとして位置づけた。
論文 参考訳(メタデータ) (2024-10-17T06:38:07Z) - State-specific protein-ligand complex structure prediction with a
multi-scale deep generative model [68.28309982199902]
タンパク質-リガンド複合体構造を直接予測できる計算手法であるNeuralPLexerを提案する。
我々の研究は、データ駆動型アプローチがタンパク質と小分子の構造的協調性を捉え、酵素や薬物分子などの設計を加速させる可能性を示唆している。
論文 参考訳(メタデータ) (2022-09-30T01:46:38Z) - Learning Geometrically Disentangled Representations of Protein Folding
Simulations [72.03095377508856]
この研究は、薬物標的タンパク質の構造的アンサンブルに基づいて生成ニューラルネットワークを学習することに焦点を当てている。
モデル課題は、様々な薬物分子に結合したタンパク質の構造的変動を特徴付けることである。
その結果,我々の幾何学的学習に基づく手法は,複雑な構造変化を生成するための精度と効率の両方を享受できることがわかった。
論文 参考訳(メタデータ) (2022-05-20T19:38:00Z) - EBM-Fold: Fully-Differentiable Protein Folding Powered by Energy-based
Models [53.17320541056843]
本研究では,データ駆動型生成ネットワークを用いたタンパク質構造最適化手法を提案する。
EBM-Foldアプローチは,従来のロゼッタ構造最適化ルーチンと比較して,高品質なデコイを効率よく生成できる。
論文 参考訳(メタデータ) (2021-05-11T03:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。