論文の概要: Unfolding AlphaFold's Bayesian Roots in Probability Kinematics
- arxiv url: http://arxiv.org/abs/2505.19763v1
- Date: Mon, 26 May 2025 09:46:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.336978
- Title: Unfolding AlphaFold's Bayesian Roots in Probability Kinematics
- Title(参考訳): 確率力学におけるAlphaFold's Bayesian Rootsの展開
- Authors: Thomas Hamelryck, Kanti V. Mardia,
- Abstract要約: 我々はAlphaFold1のポテンシャルを確率力学の例として再解釈する。
確率キネマティクスは、分割上の更新確率の形で不確実またはソフトな証拠を許容する。
この理論的な寄与は、AlphaFold1 をより広範に調整されたベイズ的方法に結び付ける。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel theoretical interpretation of AlphaFold1. The seminal breakthrough of AlphaFold1 in protein structure prediction by deep learning relied on a learned potential energy function, in contrast to the later end-to-end architectures of AlphaFold2 and AlphaFold3. While this potential was originally justified by referring to physical potentials of mean force (PMFs), we reinterpret AlphaFold1's potential as an instance of probability kinematics - also known as Jeffrey conditioning - a principled but underrecognised generalization of conventional Bayesian updating. Probability kinematics accommodates uncertain or soft evidence in the form of updated probabilities over a partition. This perspective reveals AlphaFold1's potential as a form of generalized Bayesian updating, rather than a thermodynamic potential. To confirm our probabilistic framework's scope and precision, we analyze a synthetic 2D model in which an angular random walk prior is updated with evidence on distances via probability kinematics, mirroring AlphaFold1's approach. This theoretical contribution connects AlphaFold1 to a broader class of well-justified Bayesian methods, allowing precise quantification, surpassing merely qualitative heuristics based on PMFs. More broadly, given the achievements of AlphaFold1, probability kinematics holds considerable promise for probabilistic deep learning, as it allows for the formulation of complex models from a few simpler components.
- Abstract(参考訳): 我々はAlphaFold1の新たな理論的解釈を示す。
深層学習によるタンパク質構造予測におけるAlphaFold1の半期的なブレークスルーは、AlphaFold2とAlphaFold3の後期のエンドツーエンドアーキテクチャとは対照的に、学習されたポテンシャルエネルギー関数に依存していた。
このポテンシャルはもともと平均力(PMF)の物理的ポテンシャルを参照することによって正当化されたが、我々はAlphaFold1のポテンシャルを、通常のベイズ更新の原理的だが認識の浅い一般化である確率運動学の例として再解釈した。
確率キネマティクスは、分割上の更新確率の形で不確実またはソフトな証拠を許容する。
この視点は、AlphaFold1のポテンシャルを熱力学的ポテンシャルではなく、一般化されたベイズ更新の形式として明らかにしている。
確率的フレームワークのスコープと精度を確認するために,角度ランダムウォークを前もって更新した合成2次元モデルを分析し,確率運動学による距離の証明を行い,AlphaFold1のアプローチを反映する。
この理論的な貢献により、AlphaFold1 はより広範な正当化されたベイズ法と結びつき、PMF に基づいた定性的ヒューリスティックを超越した正確な定量化が可能となる。
より広義には、AlphaFold1の業績を考えると、確率キネマティクスはいくつかのより単純な構成要素から複雑なモデルの定式化を可能にするため、確率的深層学習にかなりの可能性を秘めている。
関連論文リスト
- Sparks: Multi-Agent Artificial Intelligence Model Discovers Protein Design Principles [0.0]
私たちは、発見サイクル全体を実行するマルチモーダルなマルチエージェントAIモデルであるSparksを紹介します。
火花は独自に厳密な科学的調査を行い、これまで知られていなかった科学的原則を特定できる。
論文 参考訳(メタデータ) (2025-04-26T20:43:28Z) - Improving AlphaFlow for Efficient Protein Ensembles Generation [64.10918970280603]
効率的なタンパク質アンサンブル生成を実現するために,AlphaFlow-Litと呼ばれる特徴条件付き生成モデルを提案する。
AlphaFlow-LitはAlphaFlowとオンパーで動作し、予行訓練なしで蒸留されたバージョンを上回り、47倍のサンプリング加速を達成している。
論文 参考訳(メタデータ) (2024-07-08T13:36:43Z) - AlphaFold Meets Flow Matching for Generating Protein Ensembles [11.1639408863378]
本研究では,タンパク質のコンフォメーション・ランドスケープを学習・サンプリングするためのフローベース生成モデリング手法を開発した。
提案手法はAlphaFoldとMSAサブサンプリングと比較して精度と多様性の組合せが優れている。
本手法は,MD軌道の再現よりも高速な壁面収束により,静的なPDB構造を多様化することができる。
論文 参考訳(メタデータ) (2024-02-07T13:44:47Z) - End-To-End Latent Variational Diffusion Models for Inverse Problems in
High Energy Physics [61.44793171735013]
本稿では,最先端生成技術アプローチの潜時学習とエンドツーエンドの変分フレームワークを組み合わせた,新しい統合アーキテクチャ,潜時変分モデルを提案する。
我々の統一的アプローチは、非最新技術ベースラインの20倍以上の真理への分布自由距離を達成する。
論文 参考訳(メタデータ) (2023-05-17T17:43:10Z) - Unsupervisedly Prompting AlphaFold2 for Few-Shot Learning of Accurate
Folding Landscape and Protein Structure Prediction [28.630603355510324]
そこで我々は,メタ生成モデルであるEvoGenを提案し,貧弱なMSAターゲットに対するAlphaFold2のアンダーパフォーマンスを改善する。
EvoGenは、キャリブレーションまたは実質的に生成されたホモログシーケンスでモデルにプロンプトすることで、AlphaFold2を低データで正確に折り畳むのに役立つ。
論文 参考訳(メタデータ) (2022-08-20T10:23:17Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - A Unified Contrastive Energy-based Model for Understanding the
Generative Ability of Adversarial Training [64.71254710803368]
Adversarial Training (AT) は、ディープニューラルネットワークの堅牢性を高める効果的なアプローチである。
我々は、Contrastive Energy-based Models(CEM)と呼ばれる統合確率的枠組みを開発することにより、この現象をデミステレーションする。
本稿では,逆学習法とサンプリング法を開発するための原則的手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:33:34Z) - Paraconsistent Foundations for Probabilistic Reasoning, Programming and
Concept Formation [0.0]
4値のパラ一貫性真理値(ここでは「pビット」と呼ばれる)は、確率論的論理とプログラミングと概念形成の高度AI関連形式の概念的、数学的、実践的な基礎として機能する。
構成的双対(CD)論理に従って動作している4値のpビットの平均平均値と再正規化がPLN(Probabilistic Logic Networks)の強度と自信の真理値をもたらすことが示されている。
論文 参考訳(メタデータ) (2020-12-28T20:14:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。