論文の概要: Zero-shot protein stability prediction by inverse folding models: a free energy interpretation
- arxiv url: http://arxiv.org/abs/2506.05596v1
- Date: Thu, 05 Jun 2025 21:15:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 21:34:56.755249
- Title: Zero-shot protein stability prediction by inverse folding models: a free energy interpretation
- Title(参考訳): 逆折り畳みモデルによるゼロショットタンパク質の安定性予測:自由エネルギー解釈
- Authors: Jes Frellsen, Maher M. Kassem, Tone Bengtsen, Lars Olsen, Kresten Lindorff-Larsen, Jesper Ferkinghoff-Borg, Wouter Boomsma,
- Abstract要約: 逆折り畳みモデルは、タンパク質安定性の非常に効果的なゼロショット予測因子であることが証明されている。
逆折り畳みモデルの自由エネルギー基盤を明らかにするためのステップを踏む。
- 参考スコア(独自算出の注目度): 6.481107286523549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverse folding models have proven to be highly effective zero-shot predictors of protein stability. Despite this success, the link between the amino acid preferences of an inverse folding model and the free-energy considerations underlying thermodynamic stability remains incompletely understood. A better understanding would be of interest not only from a theoretical perspective, but also potentially provide the basis for stronger zero-shot stability prediction. In this paper, we take steps to clarify the free-energy foundations of inverse folding models. Our derivation reveals the standard practice of likelihood ratios as a simplistic approximation and suggests several paths towards better estimates of the relative stability. We empirically assess these approaches and demonstrate that considerable gains in zero-shot performance can be achieved with fairly simple means.
- Abstract(参考訳): 逆折り畳みモデルは、タンパク質安定性の非常に効果的なゼロショット予測因子であることが証明されている。
この成功にもかかわらず、逆折りたたみモデルのアミノ酸嗜好と熱力学的安定性の根底にある自由エネルギー的考慮との関係は、いまだに完全に理解されていない。
より深い理解は、理論的な観点からだけでなく、より強いゼロショット安定性予測の基礎を提供する可能性がある。
本稿では,逆折り畳みモデルの自由エネルギー基盤を明らかにする。
我々の導出は、単純近似としての確率比の標準的な慣習を明らかにし、相対安定性のより良い推定へのいくつかの道のりを示唆している。
我々はこれらの手法を実証的に評価し、ゼロショット性能のかなりの向上を比較的単純な方法で達成できることを実証した。
関連論文リスト
- Mass Balance Approximation of Unfolding Improves Potential-Like Methods for Protein Stability Predictions [0.0]
ディープラーニング戦略は分野を前進させてきたが、標準的な手法での利用はリソースの要求により制限されている。
本研究は、展開状態を考慮した質量バランス補正(MBC)を導入することにより、これらの手法を著しく強化することを示す。
多くの機械学習モデルは、このバランスを部分的にモデル化しているが、我々の分析は、展開状態の洗練された表現が予測性能を向上させることを示唆している。
論文 参考訳(メタデータ) (2025-04-09T11:53:02Z) - Beyond Interpretability: The Gains of Feature Monosemanticity on Model Robustness [68.69369585600698]
ディープラーニングモデルは多意味性による解釈可能性の欠如に悩まされることが多い。
神経細胞が一貫したセマンティクスと異なるセマンティクスに対応するモノセマンティクスの最近の進歩は、解釈可能性を大幅に改善した。
モノセマンティックな特徴は解釈可能性を高めるだけでなく、モデル性能の具体的な向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-27T18:03:20Z) - High dimensional analysis reveals conservative sharpening and a stochastic edge of stability [21.12433806766051]
トレーニング損失Hessianの大きな固有値のダイナミクスは,モデル間およびバッチ全体において極めて堅牢な特徴を持っていることを示す。
しばしば、大きな固有値が増加するプログレッシブ・シャープニングの初期段階があり、続いて安定性の端として知られる予測可能な値での安定化が続く。
論文 参考訳(メタデータ) (2024-04-30T04:54:15Z) - Stability and L2-penalty in Model Averaging [0.0]
統計的学習理論からの安定性をモデル平均化に導入する。
安定性は、モデル平均化が適切な条件下での優れた性能と一貫性を確実にすることを示す。
また,モデル重みを制限しないL2ペナルティモデル平均化法を提案し,安定性と整合性を証明した。
論文 参考訳(メタデータ) (2023-11-23T07:11:15Z) - A Stability Analysis of Fine-Tuning a Pre-Trained Model [46.6761331971071]
訓練済みモデルの微調整は、最近のNLP研究で最も有望なパラダイムの1つである。
微調整は不安定な問題、すなわち同じ設定で同じモデルをチューニングすることで、性能が著しく異なる。
本稿では,2つの一般的な設定に焦点をあてたファインチューニングの理論的安定性解析を提案する。
論文 参考訳(メタデータ) (2023-01-24T05:11:17Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - A comment on stabilizing reinforcement learning [0.0]
我々は、Vamvoudakisらは、一般的な政策の下でハミルトニアンに誤った仮定をしたと論じる。
動作ポリシーホールドに一定の条件を課した連続重時間環境下でのニューラルネットワークの収束を示す。
論文 参考訳(メタデータ) (2021-11-24T07:58:14Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。