論文の概要: Triangle Multiplication Is All You Need For Biomolecular Structure Representations
- arxiv url: http://arxiv.org/abs/2510.18870v1
- Date: Tue, 21 Oct 2025 17:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.226686
- Title: Triangle Multiplication Is All You Need For Biomolecular Structure Representations
- Title(参考訳): 生体分子構造の表現に必要なのは三角形の乗算
- Authors: Jeffrey Ouyang-Zhang, Pranav Murugan, Daniel J. Diaz, Gianluca Scarpellini, Richard Strong Bowen, Nate Gruver, Adam Klivans, Philipp Krähenbühl, Aleksandra Faust, Maruan Al-Shedivat,
- Abstract要約: Pairmixerは三角形の注意をなくし、高階の幾何学的推論能力を保っている。
Pairmixerは計算効率を大幅に改善し、折りたたみおよびドッキングベンチマーク間の最先端構造予測器をマッチングする。
例えば、BoltzDesign内では、Pairmixerは2倍以上高速なサンプリングと、Pairformerのメモリ限界よりも30%長いシーケンスへのスケールを提供する。
- 参考スコア(独自算出の注目度): 56.26342479807906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AlphaFold has transformed protein structure prediction, but emerging applications such as virtual ligand screening, proteome-wide folding, and de novo binder design demand predictions at a massive scale, where runtime and memory costs become prohibitive. A major bottleneck lies in the Pairformer backbone of AlphaFold3-style models, which relies on computationally expensive triangular primitives-especially triangle attention-for pairwise reasoning. We introduce Pairmixer, a streamlined alternative that eliminates triangle attention while preserving higher-order geometric reasoning capabilities that are critical for structure prediction. Pairmixer substantially improves computational efficiency, matching state-of-the-art structure predictors across folding and docking benchmarks, delivering up to 4x faster inference on long sequences while reducing training cost by 34%. Its efficiency alleviates the computational burden of downstream applications such as modeling large protein complexes, high-throughput ligand and binder screening, and hallucination-based design. Within BoltzDesign, for example, Pairmixer delivers over 2x faster sampling and scales to sequences ~30% longer than the memory limits of Pairformer.
- Abstract(参考訳): AlphaFoldはタンパク質構造予測を変換しているが、仮想リガンドスクリーニング、プロテオームワイドフォールディング、デノボバインダー設計といった新しいアプリケーションでは、実行時とメモリコストが禁止される大規模な予測が要求される。
主なボトルネックはAlphaFold3型モデルのPairformerのバックボーンにある。
Pairmixerは、三角形の注意をなくし、構造予測に不可欠な高次幾何学的推論能力を保ちつつ、合理化された代替手段である。
Pairmixerは計算効率を大幅に改善し、折り畳み式とドッキング型ベンチマークで最先端構造予測器をマッチングし、長いシーケンスでの推論を最大4倍高速化し、トレーニングコストを34%削減する。
その効率は、大規模なタンパク質複合体のモデリング、高スループットリガンドとバインダースクリーニング、幻覚に基づく設計などの下流アプリケーションの計算負担を軽減する。
例えば、BoltzDesign内では、Pairmixerは2倍以上高速なサンプリングと、Pairformerのメモリ限界よりも30%長いシーケンスへのスケールを提供する。
関連論文リスト
- Protenix-Mini+: efficient structure prediction model with scalable pairformer [17.839471210239186]
Protenix-Mini+はProtenixモデルの軽量でスケーラブルなバージョンである。
許容範囲のパフォーマンス劣化の範囲内では、計算効率を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-13T21:54:35Z) - Protenix-Mini: Efficient Structure Predictor via Compact Architecture, Few-Step Diffusion and Switchable pLM [37.865341638265534]
本稿では,タンパク質構造予測のためのコンパクトで最適化されたモデルProtenix-Miniを提案する。
冗長なTransformerコンポーネントを排除し、サンプリングプロセスを洗練することにより、Protenix-Miniはモデルの複雑さをわずかに削減する。
論文 参考訳(メタデータ) (2025-07-16T02:08:25Z) - AutoHFormer: Efficient Hierarchical Autoregressive Transformer for Time Series Prediction [36.239648954658534]
時系列予測には、3つの競合する目標を同時に達成するアーキテクチャが必要である。
本稿では,これらの課題に対処する階層型自己回帰変換器であるAutoHFormerを紹介する。
総合的な実験により、AutoHFormer 10.76XはP08のPatchTSTと比較して高速なトレーニングと6.06倍のメモリ削減を示した。
論文 参考訳(メタデータ) (2025-06-19T03:47:04Z) - CompGS++: Compressed Gaussian Splatting for Static and Dynamic Scene Representation [60.712165339762116]
CompGS++はコンパクトガウスプリミティブを活用して正確な3Dモデリングを実現する新しいフレームワークである。
私たちの設計は、プリミティブ間の冗長性をなくすという原則に基づいている。
私たちの実装は、さらなる研究を促進するためにGitHubで公開されます。
論文 参考訳(メタデータ) (2025-04-17T15:33:01Z) - Unified Cross-Scale 3D Generation and Understanding via Autoregressive Modeling [32.45851798752336]
クロススケールな3D生成と理解のための統合自己回帰フレームワークUni-3DARを提案する。
コアとなるのはオクツリーデータ構造に基づく粗大なトークンライザで、多様な3D構造をコンパクトな1Dトークンシーケンスに圧縮する。
圧縮によって引き起こされる動的に異なるトークン位置の課題に対処するために,マスク付き次世代予測戦略を導入する。
論文 参考訳(メタデータ) (2025-03-20T16:07:04Z) - Memory-Efficient 4-bit Preconditioned Stochastic Optimization [53.422307389223626]
シャンプーのプリコンディショナーに4ビット量子化を導入する。
我々の知る限り、これはプレコンディショナーのチョレスキー因子に適用された最初の量子化手法である。
Cholesky量子化とエラーフィードバックを組み合わせることで、メモリ効率とアルゴリズム性能が向上することを示した。
論文 参考訳(メタデータ) (2024-12-14T03:32:54Z) - Video Prediction Transformers without Recurrence or Convolution [65.93130697098658]
我々は、Gated Transformerを完全にベースとしたフレームワークであるPredFormerを提案する。
本稿では,映像予測の文脈における3次元注意の包括的分析を行う。
精度と効率の両面で大きな改善は、PredFormerの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-07T03:52:06Z) - Sketching as a Tool for Understanding and Accelerating Self-attention
for Long Sequences [52.6022911513076]
トランスフォーマーベースのモデルは、自己アテンションモジュールの二次空間と時間的複雑さのために、長いシーケンスを処理するのに効率的ではない。
我々はLinformerとInformerを提案し、低次元投影と行選択により2次複雑性を線形(モジュラー対数因子)に還元する。
理論的解析に基づいて,Skeinformerを提案することにより,自己注意の促進と,自己注意への行列近似の精度の向上を図ることができる。
論文 参考訳(メタデータ) (2021-12-10T06:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。