論文の概要: Applying Deep Reinforcement Learning to the HP Model for Protein
Structure Prediction
- arxiv url: http://arxiv.org/abs/2211.14939v1
- Date: Sun, 27 Nov 2022 21:17:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 20:35:43.732692
- Title: Applying Deep Reinforcement Learning to the HP Model for Protein
Structure Prediction
- Title(参考訳): タンパク質構造予測のためのhpモデルへの深層強化学習の適用
- Authors: Kaiyuan Yang, Houjing Huang, Olafs Vandans, Adithya Murali, Fujia
Tian, Roland H.C. Yap, Liang Dai
- Abstract要約: 本稿では,タンパク質の折り畳みに対するHPモデルに深部強化学習を適用した。
長寿命メモリ(LSTM)アーキテクチャに基づくDQNは、RL学習能力を大幅に向上し、探索処理を大幅に改善する。
実験により, 試行錯誤時に最もよく知られた解を複数発見できることが確認できた。
- 参考スコア(独自算出の注目度): 7.769624124148049
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A central problem in computational biophysics is protein structure
prediction, i.e., finding the optimal folding of a given amino acid sequence.
This problem has been studied in a classical abstract model, the HP model,
where the protein is modeled as a sequence of H (hydrophobic) and P (polar)
amino acids on a lattice. The objective is to find conformations maximizing H-H
contacts. It is known that even in this reduced setting, the problem is
intractable (NP-hard). In this work, we apply deep reinforcement learning (DRL)
to the two-dimensional HP model. We can obtain the conformations of best known
energies for benchmark HP sequences with lengths from 20 to 50. Our DRL is
based on a deep Q-network (DQN). We find that a DQN based on long short-term
memory (LSTM) architecture greatly enhances the RL learning ability and
significantly improves the search process. DRL can sample the state space
efficiently, without the need of manual heuristics. Experimentally we show that
it can find multiple distinct best-known solutions per trial. This study
demonstrates the effectiveness of deep reinforcement learning in the HP model
for protein folding.
- Abstract(参考訳): 計算生物物理学における中心的な問題はタンパク質構造予測、すなわち与えられたアミノ酸配列の最適な折り畳みを見つけることである。
この問題は古典的な抽象モデルHPモデルで研究され、このタンパク質は格子上のH(ヒドロホビック)とP(極性)アミノ酸の配列としてモデル化されている。
目的はH-H接触を最大化するコンフォメーションを見つけることである。
この還元された設定でさえ、問題は難解(NPハード)であることが知られている。
本研究では,2次元HPモデルに深部強化学習(DRL)を適用した。
20から50の長さのベンチマークhpシーケンスの最もよく知られたエネルギーのコンフォメーションを得ることができる。
我々のDRLはディープQネットワーク(DQN)に基づいている。
長寿命メモリ(LSTM)アーキテクチャに基づくDQNは、RL学習能力を大幅に向上し、探索処理を大幅に改善する。
DRLは手動のヒューリスティックを必要とせずに、状態空間を効率的にサンプリングすることができる。
実験により,試行錯誤による解が複数存在することがわかった。
本研究は,タンパク質折り畳みモデルにおける深部強化学習の有効性を示す。
関連論文リスト
- Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - Reinforcement Learning for Sequence Design Leveraging Protein Language Models [14.477268882311991]
本稿では,タンパク質言語モデル(PLM)を報酬関数として利用し,新たな配列を生成することを提案する。
我々はRLベースのアプローチをベンチマークするために、様々なシーケンス長に関する広範な実験を行う。
生物学的妥当性とタンパク質の多様性に関する総合的な評価を行った。
論文 参考訳(メタデータ) (2024-07-03T14:31:36Z) - Using quantum annealing to design lattice proteins [0.0]
我々は、D-Waveハイブリッド量子古典解法を用いて、正しいHPモデル基底状態の高速かつ一貫した同定を実証する。
タンパク質設計問題(たんぱくせいてん、英: protein design problem)は、上記の逆問題である。
そこで本研究では,D-Wave マシン上に実装・実行された2段階の手順で設計問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-14T10:28:43Z) - Hyperparameter Sensitivity in Deep Outlier Detection: Analysis and a
Scalable Hyper-Ensemble Solution [21.130842136324528]
我々は,Deep OD法のHP感度に関する最初の大規模解析を行った。
我々は,HP 構成の異なるモデルを組み立てる ROBOD と呼ばれる HP-robust でスケーラブルな深層アンサンブルモデルを設計する。
論文 参考訳(メタデータ) (2022-06-15T16:46:00Z) - Folding lattice proteins with quantum annealing [0.0]
量子アニールに適した格子タンパク質折り畳みのための新しいスピン表現法を開発した。
我々の符号化では、設計によるハミルトニアンはイジング型アニーラーの計算に必要となる二次構造を持つ。
以上の結果から,HP チェーンを100%のヒット率で最大$N=30$ビーズとした。
論文 参考訳(メタデータ) (2022-05-12T13:30:57Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Improving RNA Secondary Structure Design using Deep Reinforcement
Learning [69.63971634605797]
本稿では,RNA配列設計に強化学習を適用した新しいベンチマークを提案する。このベンチマークでは,目的関数を配列の二次構造における自由エネルギーとして定義する。
本稿では,これらのアルゴリズムに対して行うアブレーション解析の結果と,バッチ間でのアルゴリズムの性能を示すグラフを示す。
論文 参考訳(メタデータ) (2021-11-05T02:54:06Z) - Genealogical Population-Based Training for Hyperparameter Optimization [1.0514231683620516]
本研究では,計算コストの2倍から3倍に削減できることを実験的に実証した。
本手法は探索アルゴリズムであり,内部探索ルーチンをTPE,GP,CMA,ランダム探索などの任意の探索アルゴリズムにすることができる。
論文 参考訳(メタデータ) (2021-09-30T08:49:41Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z) - Retro*: Learning Retrosynthetic Planning with Neural Guided A* Search [83.22850633478302]
反合成計画(retrosynthetic planning)は、ターゲット生成物の合成に繋がる一連の反応を特定する。
既存の手法では、高いばらつきを持つロールアウトによる高価なリターン推定が必要か、品質よりも探索速度を最適化する必要がある。
本稿では,高品質な合成経路を効率よく見つけるニューラルネットワークA*ライクなアルゴリズムRetro*を提案する。
論文 参考訳(メタデータ) (2020-06-29T05:53:33Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。