論文の概要: Utilizing Large Language Models in An Iterative Paradigm with Domain Feedback for Molecule Optimization
- arxiv url: http://arxiv.org/abs/2410.13147v2
- Date: Mon, 21 Oct 2024 00:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:21:54.299904
- Title: Utilizing Large Language Models in An Iterative Paradigm with Domain Feedback for Molecule Optimization
- Title(参考訳): モジュール最適化のためのドメインフィードバックを伴う反復パラダイムにおける大規模言語モデルの利用
- Authors: Khiem Le, Nitesh V. Chawla,
- Abstract要約: 本稿では,シンプルなドメインフィードバックプロバイダである$textRe2$DFを提案する。
$textRe2$DFは、修飾された分子が化学的に無効である場合、分子を処理するために外部ツールキットRDKitを使用する。
20の単価目標に対して、$textRe2$DFは、それぞれ緩やかな閾値と厳格な閾値の下で、ヒット率を16.95%、20.76%向上させる。
- 参考スコア(独自算出の注目度): 21.293944661913386
- License:
- Abstract: Molecule optimization is a critical task in drug discovery to optimize desired properties of a given molecule through chemical modification. Despite Large Language Models (LLMs) holding the potential to efficiently simulate this task by using natural language to direct the optimization, straightforwardly utilizing shows limited performance. In this work, we facilitate utilizing LLMs in an iterative paradigm by proposing a simple yet highly effective domain feedback provider, namely $\text{Re}^2$DF. In detail, $\text{Re}^2$DF harnesses an external toolkit, RDKit, to handle the molecule hallucination, if the modified molecule is chemically invalid. Otherwise, its desired properties are computed and compared to the original one, establishing reliable domain feedback with correct direction and distance towards the objective, followed by a retrieved example, to explicitly guide the LLM to refine the modified molecule. We conduct experiments across both single- and multi-property objectives with 2 thresholds, where $\text{Re}^2$DF shows significant improvements. Particularly, for 20 single-property objectives, $\text{Re}^2$DF enhances Hit ratio by 16.95% and 20.76% under loose and strict thresholds, respectively. For 32 multi-property objectives, $\text{Re}^2$DF enhances Hit ratio by 6.04% and 5.25%.
- Abstract(参考訳): 分子最適化は、化学修飾によって与えられた分子の望ましい性質を最適化する薬物発見において重要な課題である。
大きな言語モデル(LLM)は、自然言語を使って最適化を指示することで、このタスクを効率的にシミュレートする可能性を秘めているが、直接的に活用することは、限られた性能を示す。
本研究では,シンプルなドメインフィードバックプロバイダ,すなわち$\text{Re}^2$DFを提案することで,LCMを反復パラダイムで活用しやすくする。
詳しくは、$\text{Re}^2$DFは、修飾された分子が化学的に無効である場合、外部ツールキットRDKitを用いて分子幻覚を処理する。
そうでなければ、その望ましい性質は計算され、元の特性と比較され、目的に向かって正しい方向と距離で信頼できるドメインフィードバックが確立され、次に検索された例により、LLMを明示的に誘導して修飾された分子を洗練させる。
2つのしきい値を持つ単目的と多目的の両方で実験を行い、$\text{Re}^2$DFは大幅な改善を示す。
特に、20の単一目的に対して、$\text{Re}^2$DFは、それぞれ緩やかな閾値と厳格な閾値の下で、ヒット比を16.95%、20.76%向上させる。
32の多目的に対して、$\text{Re}^2$DFはヒット率を6.04%と5.25%向上させる。
関連論文リスト
- Decoding-Time Language Model Alignment with Multiple Objectives [88.64776769490732]
既存の手法は主に、1つの報酬関数に対してLMを最適化することに集中し、それらの適応性は様々な目的に制限される。
本稿では,予測の線形結合から次のトークンを出力する復号時間アルゴリズムである$textbfmulti-objective decoding (MOD)$を提案する。
提案手法は, 自然条件下であっても, 既存のアプローチが準最適であることを示すとともに, 提案手法の最適性を保証する。
論文 参考訳(メタデータ) (2024-06-27T02:46:30Z) - Optimization-based Structural Pruning for Large Language Models without Back-Propagation [57.9629676017527]
本稿では,Large-Language Models (LLMs) を用いた最適化に基づく構造解析手法を提案する。
本手法は,プルーニングモデルの損失を最適化することにより,確率空間におけるプルーニングマスクを直接学習する。
提案手法は,A100 GPUの13Bモデルに対して,約35GBのメモリで2.7時間動作する。
論文 参考訳(メタデータ) (2024-06-15T09:31:03Z) - Fleet of Agents: Coordinated Problem Solving with Large Language Models using Genetic Particle Filtering [10.167121757937062]
Fleet of Agents(FoA)は、動的ツリー検索をナビゲートするエージェントとして、大きな言語モデルを利用するフレームワークである。
FoAは多数のエージェントを発生させ、それぞれが自律的に探索し、選択フェーズが続く。
2つのベンチマークタスクである"Game of 24"と"Mini-Crosswords"を使ってFoAを実験的に検証する。
論文 参考訳(メタデータ) (2024-05-07T09:36:23Z) - DrugAssist: A Large Language Model for Molecule Optimization [29.95488215594247]
DrugAssistは、人間と機械の対話を通じて最適化を行う対話型分子最適化モデルである。
DrugAssistは、単一および複数プロパティの最適化において、主要な結果を得た。
分子最適化タスクの微調整言語モデルのための,MomoOpt-Instructionsと呼ばれる大規模命令ベースデータセットを公開している。
論文 参考訳(メタデータ) (2023-12-28T10:46:56Z) - Pareto Optimization to Accelerate Multi-Objective Virtual Screening [11.356174411578515]
EGFRおよびIGF1Rの選択的二重阻害剤であると考えられる4M分子の仮想ライブラリーを探索するツールを開発した。
このワークフローと関連するオープンソースソフトウェアは、分子設計プロジェクトのスクリーニング負担を軽減することができる。
論文 参考訳(メタデータ) (2023-10-16T17:19:46Z) - Beyond One-Preference-Fits-All Alignment: Multi-Objective Direct Preference Optimization [76.09576643028362]
複数のアライメント目的に対してMODPO(Multi-Objective Direct Preference Optimization)を提案する。
MODPOは、言語モデリングを直接報酬モデルに折り畳み、暗黙の集団報酬モデルとして言語モデルを訓練する。
理論的には MORLHF と同じ最適解が得られるが、実質的にはより安定で効率的である。
論文 参考訳(メタデータ) (2023-10-05T17:35:26Z) - Optimizing Molecules using Efficient Queries from Property Evaluations [66.66290256377376]
汎用的なクエリベースの分子最適化フレームワークであるQMOを提案する。
QMOは効率的なクエリに基づいて入力分子の所望の特性を改善する。
QMOは, 有機分子を最適化するベンチマークタスクにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T18:51:18Z) - MIMOSA: Multi-constraint Molecule Sampling for Molecule Optimization [51.00815310242277]
生成モデルと強化学習アプローチは、最初の成功をおさめたが、複数の薬物特性を同時に最適化する上で、依然として困難に直面している。
本稿では,MultI-Constraint MOlecule SAmpling (MIMOSA)アプローチ,初期推定として入力分子を用いるサンプリングフレームワーク,ターゲット分布からのサンプル分子を提案する。
論文 参考訳(メタデータ) (2020-10-05T20:18:42Z) - Graph Polish: A Novel Graph Generation Paradigm for Molecular
Optimization [7.1696593196695035]
本稿では,従来の「二言語翻訳」タスクから「単言語」タスクへ分子最適化を変換する新しい分子最適化パラダイムであるグラフポーランドを提案する。
本稿では,最適化段階における長期的依存関係を捉えるために,効果的で効率的な学習フレームワークT&Sの研磨法を提案する。
論文 参考訳(メタデータ) (2020-08-14T08:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。