論文の概要: Protenix-Mini+: efficient structure prediction model with scalable pairformer
- arxiv url: http://arxiv.org/abs/2510.12842v1
- Date: Mon, 13 Oct 2025 21:54:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.353545
- Title: Protenix-Mini+: efficient structure prediction model with scalable pairformer
- Title(参考訳): Protenix-Mini+:スケーラブルなペアフォーマを用いた効率的な構造予測モデル
- Authors: Bo Qiang, Chengyue Gong, Xinshi Chen, Yuxuan Zhang, Wenzhi Xiao,
- Abstract要約: Protenix-Mini+はProtenixモデルの軽量でスケーラブルなバージョンである。
許容範囲のパフォーマンス劣化の範囲内では、計算効率を大幅に改善する。
- 参考スコア(独自算出の注目度): 17.839471210239186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lightweight inference is critical for biomolecular structure prediction and downstream tasks, enabling efficient real-world deployment and inference-time scaling for large-scale applications. While AF3 and its variants (e.g., Protenix, Chai-1) have advanced structure prediction results, they suffer from critical limitations: high inference latency and cubic time complexity with respect to token count, both of which restrict scalability for large biomolecular complexes. To address the core challenge of balancing model efficiency and prediction accuracy, we introduce three key innovations: (1) compressing non-scalable operations to mitigate cubic time complexity, (2) removing redundant blocks across modules to reduce unnecessary overhead, and (3) adopting a few-step sampler for the atom diffusion module to accelerate inference. Building on these design principles, we develop Protenix-Mini+, a highly lightweight and scalable variant of the Protenix model. Within an acceptable range of performance degradation, it substantially improves computational efficiency. For example, in the case of low-homology single-chain proteins, Protenix-Mini+ experiences an intra-protein LDDT drop of approximately 3% relative to the full Protenix model -- an acceptable performance trade-off given its substantially 90%+ improved computational efficiency.
- Abstract(参考訳): 軽量推論は生体分子構造予測や下流タスクにおいて重要であり、大規模アプリケーションに対する効率的な実世界の展開と推論時間スケーリングを可能にしている。
AF3とその変種(例えばProtenix, Chai-1)は高度な構造予測結果を持っているが、それらは重要な制限を受ける。
モデル効率と予測精度のバランスをとる上での課題として,(1)計算不能な演算を圧縮して立方的時間複雑性を軽減すること,(2)余分なブロックを除去して不要なオーバーヘッドを低減すること,(3)原子拡散モジュールに数ステップのサンプルを適用させることによって推論を高速化すること,の3つの重要なイノベーションを紹介した。
これらの設計原則に基づいて,Protenix-Mini+は軽量でスケーラブルなProtenixモデルである。
許容範囲のパフォーマンス劣化の範囲内では、計算効率を大幅に改善する。
例えば、低ホモロジー単鎖タンパク質の場合、Protenix-Mini+はフルProtenixモデルと比較して約3%のタンパク質内LDDT低下を経験する。
関連論文リスト
- ProteinAE: Protein Diffusion Autoencoders for Structure Encoding [64.77182442408254]
本稿では,新規かつ合理化されたタンパク質拡散オートエンコーダであるProteinAEを紹介する。
プロテインAEは、タンパク質のバックボーン座標を直接E(3)から連続的でコンパクトな潜在空間にマッピングする。
本研究では,既存のオートエンコーダよりも優れた,最先端の再構築品質を実現することを実証する。
論文 参考訳(メタデータ) (2025-10-12T14:30:32Z) - PT$^2$-LLM: Post-Training Ternarization for Large Language Models [52.4629647715623]
大きな言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、その大きなメモリと計算能力は、デプロイメントを妨げている。
PT$2$-LLMを提案する。
その中核は2段精製パイプラインを備えた非対称3次量子化器である。
論文 参考訳(メタデータ) (2025-09-27T03:01:48Z) - Protenix-Mini: Efficient Structure Predictor via Compact Architecture, Few-Step Diffusion and Switchable pLM [37.865341638265534]
本稿では,タンパク質構造予測のためのコンパクトで最適化されたモデルProtenix-Miniを提案する。
冗長なTransformerコンポーネントを排除し、サンプリングプロセスを洗練することにより、Protenix-Miniはモデルの複雑さをわずかに削減する。
論文 参考訳(メタデータ) (2025-07-16T02:08:25Z) - LightNobel: Improving Sequence Length Limitation in Protein Structure Prediction Model via Adaptive Activation Quantization [0.7373617024876725]
我々は,タンパク質構造予測モデル(PPM)におけるシーケンス長のスケーラビリティ制限を克服する,初のハードウェア・ソフトウェア共同設計アクセラレータであるLightNobelを紹介する。
ソフトウェアレベルでは、精度を損なうことなく微細な量子化技術を実現するために、Token-wise Adaptive Activation Quantization (AAQ)を提案する。
ハードウェアレベルでは、マルチ精度再構成可能な行列処理ユニット(RMPU)と汎用ベクトル処理ユニット(VVPU)を統合して、AAQの効率的な実行を可能にする。
論文 参考訳(メタデータ) (2025-05-09T09:01:10Z) - Fast and Accurate Blind Flexible Docking [79.88520988144442]
小分子(配位子)のタンパク質標的への結合構造を予測する分子ドッキングは、薬物発見において重要な役割を果たす。
本研究では,現実的な視覚的フレキシブルドッキングシナリオを対象とした,高速かつ高精度な回帰ベースマルチタスク学習モデルであるFABFlexを提案する。
論文 参考訳(メタデータ) (2025-02-20T07:31:13Z) - EffiCANet: Efficient Time Series Forecasting with Convolutional Attention [12.784289506021265]
EffiCANetは計算効率を維持しながら予測精度を向上させるように設計されている。
EffiCANetは最先端モデルに対するMAEの最大10.02%の削減を実現している。
論文 参考訳(メタデータ) (2024-11-07T12:54:42Z) - Kolmogorov-Arnold Transformer [72.88137795439407]
Kolmogorov-Arnold Transformer(KAT)は,階層をKAN(Kolmogorov-Arnold Network)層に置き換える新しいアーキテクチャである。
C1)基本関数,(C2)非効率,(C3)重みの3つの主要な課題を特定する。
これらの設計により、KATは従来のトランスフォーマーよりも優れている。
論文 参考訳(メタデータ) (2024-09-16T17:54:51Z) - Ophiuchus: Scalable Modeling of Protein Structures through Hierarchical
Coarse-graining SO(3)-Equivariant Autoencoders [1.8835495377767553]
天然タンパク質の3次元ネイティブ状態は、繰り返しおよび階層的なパターンを示す。
従来のグラフに基づくタンパク質構造のモデリングは、単一の微細な解像度でしか動作しないことが多い。
オフィチュス(Ophiuchus)は、全原子タンパク質構造を効率的に操作するSO(3)等価な粗粒化モデルである。
論文 参考訳(メタデータ) (2023-10-04T01:01:11Z) - Flash-LLM: Enabling Cost-Effective and Highly-Efficient Large Generative
Model Inference with Unstructured Sparsity [12.663030430488922]
高速コア上での低コストかつ高効率な大規模生成モデル推論を実現するためのFlash-LLMを提案する。
SpMMカーネルレベルでは、Flash-LLMは最先端のライブラリであるSputnikとSparTAをそれぞれ平均2.9倍、1.5倍で上回っている。
論文 参考訳(メタデータ) (2023-09-19T03:20:02Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。