論文の概要: Boltz is a Strong Baseline for Atom-level Representation Learning
- arxiv url: http://arxiv.org/abs/2602.13249v1
- Date: Mon, 02 Feb 2026 08:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.588192
- Title: Boltz is a Strong Baseline for Atom-level Representation Learning
- Title(参考訳): BoltzはAtomレベルの表現学習のための強力なベースライン
- Authors: Hyosoon Jang, Hyunjin Seo, Yunhui Jang, Seonghyun Park, Sungsoo Ahn,
- Abstract要約: 種々の小分子ベンチマークにおけるボルツ原子レベルの表現の質について検討する。
以上の結果から,Boltz は ADMET 特性予測タスクの特殊ベースラインと競合することが示された。
これらの結果は,最先端タンパク質中心モデルの表現能力が過小評価されていることを示唆している。
- 参考スコア(独自算出の注目度): 33.4526823362265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models in molecular learning have advanced along two parallel tracks: protein models, which typically utilize evolutionary information to learn amino acid-level representations for folding, and small-molecule models, which focus on learning atom-level representations for property prediction tasks such as ADMET. Notably, cutting-edge protein-centric models such as Boltz now operate at atom-level granularity for protein-ligand co-folding, yet their atom-level expressiveness for small-molecule tasks remains unexplored. A key open question is whether these protein co-folding models capture transferable chemical physics or rely on protein evolutionary signals, which would limit their utility for small-molecule tasks. In this work, we investigate the quality of Boltz atom-level representations across diverse small-molecule benchmarks. Our results show that Boltz is competitive with specialized baselines on ADMET property prediction tasks and effective for molecular generation and optimization. These findings suggest that the representational capacity of cutting-edge protein-centric models has been underexplored and position Boltz as a strong baseline for atom-level representation learning for small molecules.
- Abstract(参考訳): 分子学習の基礎モデルは、2つの平行な軌道に沿って進歩してきた: タンパク質モデルは、一般的に進化情報を利用して折り畳みのアミノ酸レベルの表現を学習し、小さな分子モデルは、ADMETのような特性予測タスクのための原子レベルの表現を学習することに焦点を当てている。
特に、ボルツのような最先端のタンパク質中心のモデルでは、タンパク質-リガンド共フォールディングの原子レベルの粒度で機能しているが、小分子のタスクに対する原子レベルの表現性は未解明のままである。
重要な疑問は、これらのタンパク質の共フォールディングモデルが伝達可能な化学物理を捉えているのか、あるいはタンパク質の進化シグナルに依存しているのかである。
本研究では, 種々の小分子ベンチマークにおけるボルツ原子レベル表現の品質について検討する。
以上の結果から,ボルツはADMET特性予測タスクの特殊ベースラインと競合し,分子生成と最適化に有効であることが示唆された。
これらの結果は, 最先端タンパク質中心モデルの表現能力が過小評価され, ボルツを小分子の原子レベルの表現学習の強力なベースラインとして位置づけていることを示唆している。
関連論文リスト
- Representing local protein environments with atomistic foundation models [6.120694232253299]
原子基盤モデル(AFM)の中間的特徴から得られた局所タンパク質環境の表現法を提案する。
AFMから導かれる表現空間は有意義な構造を示し、データ駆動の事前構築を可能にする。
生体分子NMR分光法(英語版)の文脈において、提案された表現により、第一種物理学インフォームド化学シフト予測器が実現できることを実証する。
論文 参考訳(メタデータ) (2025-05-29T11:25:47Z) - An All-Atom Generative Model for Designing Protein Complexes [65.06317264153175]
APM(All-Atom Protein Generative Model)は、マルチチェーンタンパク質をモデル化するためのモデルである。
鎖間相互作用を正確にモデル化し、結合能力を持つタンパク質複合体をゼロから設計することができる。
また、多鎖タンパク質の折りたたみおよび逆折りのタスクも行う。
論文 参考訳(メタデータ) (2025-04-17T16:37:41Z) - Computational Protein Science in the Era of Large Language Models (LLMs) [54.35488233989787]
計算タンパク質科学(Computational protein science)は、タンパク質配列構造-機能パラダイムにおける知識を明らかにすること、および応用を開発することを目的としている。
最近、言語モデル (Language Models, PLM) は、前例のない言語処理と一般化能力のために、AIのマイルストーンとして登場した。
論文 参考訳(メタデータ) (2025-01-17T16:21:18Z) - ESM All-Atom: Multi-scale Protein Language Model for Unified Molecular Modeling [32.656601823957345]
ESM-AA(ESM All-Atom)は原子スケールと残基スケールの統一分子モデリングを可能にする新しいアプローチである。
実験結果から,ESM-AAはタンパク質分子タスクの従来の手法を超越していることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T13:35:41Z) - Pre-Training Protein Bi-level Representation Through Span Mask Strategy On 3D Protein Chains [1.2893576217358405]
本研究では, 3次元タンパク質鎖上でのスパンマスク事前学習戦略を導入し, 残基および原子の有意義な表現を学習する。
これにより、多様な下流タスクに適したタンパク質表現を学習するための、シンプルで効果的なアプローチが導かれる。
論文 参考訳(メタデータ) (2024-02-02T15:07:09Z) - Unveiling Molecular Moieties through Hierarchical Grad-CAM Graph Explainability [0.0]
生物学的活性に対する分子サブストラクチャーの特定の寄与を解明するための説明可能な方法の統合は重要な課題である。
我々は,小分子のデータセットを用いて20個のGNNモデルを訓練し,キナーゼファミリーから20個のタンパク質標的上での活性を予測することを目標とした。
我々は階層型Grad-CAMグラフExplainerフレームワークを実装し,タンパク質-リガンド結合安定化を駆動する分子構造を詳細に解析する。
論文 参考訳(メタデータ) (2024-01-29T17:23:25Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - State-specific protein-ligand complex structure prediction with a
multi-scale deep generative model [68.28309982199902]
タンパク質-リガンド複合体構造を直接予測できる計算手法であるNeuralPLexerを提案する。
我々の研究は、データ駆動型アプローチがタンパク質と小分子の構造的協調性を捉え、酵素や薬物分子などの設計を加速させる可能性を示唆している。
論文 参考訳(メタデータ) (2022-09-30T01:46:38Z) - Transfer Learning for Protein Structure Classification at Low Resolution [124.5573289131546]
タンパク質のクラスとアーキテクチャの正確な(geq$80%)予測を、低い(leq$3A)解像度で決定された構造から行うことができることを示す。
本稿では, 高速で低コストなタンパク質構造を低解像度で分類するための概念実証と, 機能予測への拡張の基礎を提供する。
論文 参考訳(メタデータ) (2020-08-11T15:01:32Z) - Energy-based models for atomic-resolution protein conformations [88.68597850243138]
原子スケールで動作するタンパク質コンホメーションのエネルギーモデル(EBM)を提案する。
このモデルは、結晶化されたタンパク質のデータにのみ訓練されている。
モデル出力と隠された表現の研究により、タンパク質エネルギーに関連する物理化学的性質を捉えることが判明した。
論文 参考訳(メタデータ) (2020-04-27T20:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。