論文の概要: REINFORCE-ING Chemical Language Models in Drug Design
- arxiv url: http://arxiv.org/abs/2501.15971v1
- Date: Mon, 27 Jan 2025 11:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:55:18.856089
- Title: REINFORCE-ING Chemical Language Models in Drug Design
- Title(参考訳): 医薬品設計におけるReINFORCE-INGケミカル言語モデル
- Authors: Morgan Thomas, Albert Bou, Gianni De Fabritiis,
- Abstract要約: RLアルゴリズムは, 医薬品設計において, 大規模化学空間を効率よく横切ることができることを示す。
本稿では,RL理論とRL理論の相違点として,経験的リプレイ,ヒルクライミング,ベースラインの影響について検討した。
- 参考スコア(独自算出の注目度): 3.1406146587437904
- License:
- Abstract: Chemical language models, combined with reinforcement learning, have shown significant promise to efficiently traverse large chemical spaces in drug design. However, the performance of various RL algorithms and their best practices for practical drug design are still unclear. Here, starting from the principles of the REINFORCE algorithm, we investigate the effect of different components from RL theory including experience replay, hill-climbing, baselines to reduce variance, and alternative reward shaping. Additionally we demonstrate how RL hyperparameters can be fine-tuned for effectiveness, efficiency, or chemical regularization as demonstrated using the MolOpt benchmark.
- Abstract(参考訳): 化学言語モデルと強化学習が組み合わさって、医薬品設計において大きな化学空間を効率的に横断する大きな可能性を示してきた。
しかし, 様々なRLアルゴリズムの性能と医薬設計のベストプラクティスはいまだに不明である。
本稿では、REINFORCEアルゴリズムの原理から、経験的リプレイ、ヒルクライミング、分散低減のためのベースライン、代替報酬形成など、RL理論と異なる要素の効果について検討する。
さらに,MollOptベンチマークで示すように,RLハイパーパラメータを,有効性,効率,化学正則化のために微調整できることを示す。
関連論文リスト
- RoSTE: An Efficient Quantization-Aware Supervised Fine-Tuning Approach for Large Language Models [95.32315448601241]
本稿では,RoSTE (Rotated Straight-Through-Estimator) というアルゴリズムを提案する。
RoSTEは、量子化を意識した微調整(QA-SFT)と適応的な回転戦略を組み合わせることで、アクティベーションアウトリーを減少させる。
その結果, 予測誤差は収束重みの量子化誤差と直接比例し, 最適化された回転構成により効果的に管理できることが判明した。
論文 参考訳(メタデータ) (2025-02-13T06:44:33Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - Test-Time Training Scaling for Chemical Exploration in Drug Design [3.1406146587437904]
類似の生体活性を有する異種分子を発見するための新しいベンチマークを提案する。
我々は、RLエージェントの集団がベンチマークを解くことができ、一方、単一のエージェントは解けないことを示す。
また、協力戦略は独立エージェントよりもそれほど良くないことがわかった。
論文 参考訳(メタデータ) (2025-01-31T14:11:10Z) - Numerical Pruning for Efficient Autoregressive Models [87.56342118369123]
本稿では,デコーダのみを用いた変圧器を用いた自己回帰モデルの圧縮に着目する。
具体的には,ニュートン法とモジュールの数値スコアをそれぞれ計算する学習自由プルーニング法を提案する。
提案手法の有効性を検証するため,理論的支援と広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-12-17T01:09:23Z) - Pathway-Guided Optimization of Deep Generative Molecular Design Models for Cancer Therapy [1.8210200978176423]
ジャンクションツリー変動オートエンコーダ (JTVAE) は効率的な生成モデルであることが示されている。
薬物様小分子の治療効果を評価する薬理力学モデルが, 有効潜時空間最適化にどのように組み込まれているかを示す。
論文 参考訳(メタデータ) (2024-11-05T19:20:30Z) - BatGPT-Chem: A Foundation Large Model For Retrosynthesis Prediction [65.93303145891628]
BatGPT-Chemは150億のパラメータを持つ大規模な言語モデルであり、再合成予測の強化に最適化されている。
我々のモデルは幅広い化学知識を捉え、反応条件の正確な予測を可能にする。
この開発により、化学者は新しい化合物を十分に扱うことができ、医薬品製造と材料科学の革新サイクルを早める可能性がある。
論文 参考訳(メタデータ) (2024-08-19T05:17:40Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - ACEGEN: Reinforcement learning of generative chemical agents for drug discovery [4.966722586536789]
ACEGENは、創薬設計のための包括的で合理化されたツールキットである。
TorchRLは、完全にテストされた再利用可能なコンポーネントを提供する、現代的なRLライブラリである。
複数の薬物発見症例に応用されたACEGENの例を示す。
論文 参考訳(メタデータ) (2024-05-07T20:30:14Z) - Contextual Molecule Representation Learning from Chemical Reaction
Knowledge [24.501564702095937]
本稿では,共通化学における原子結合規則をうまく利用した自己教師型学習フレームワークREMOを紹介する。
REMOは、文献における170万の既知の化学反応に関するグラフ/トランスフォーマーエンコーダを事前訓練する。
論文 参考訳(メタデータ) (2024-02-21T12:58:40Z) - ChemGymRL: An Interactive Framework for Reinforcement Learning for
Digital Chemistry [2.350237106287331]
本稿では,化学発見にRL(Reinforcement Learning)を応用するための模擬実験室を提供する。
RLは、かなりデータ集約型であるため、実世界での行動をとる訓練エージェントは、実現不可能であり、危険である可能性がある。
我々は、標準のOpen AI Gymテンプレートに基づいて、高度にカスタマイズ可能でオープンソースのRL環境であるChemGymRLを紹介します。
論文 参考訳(メタデータ) (2023-05-23T15:56:17Z) - Deep Learning for Virtual Screening: Five Reasons to Use ROC Cost
Functions [80.12620331438052]
深層学習は サイリコの何十億もの分子を 迅速にスクリーニングする 重要なツールとなりました
その重要性にもかかわらず、厳密なクラス不均衡、高い決定しきい値、いくつかのデータセットにおける基底真理ラベルの欠如など、これらのモデルのトレーニングにおいて重大な課題が続いている。
このような場合、クラス不均衡に対するロバスト性から、レシーバ動作特性(ROC)を直接最適化することを好んで論じる。
論文 参考訳(メタデータ) (2020-06-25T08:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。