論文の概要: Large Language Models for Controllable Multi-property Multi-objective Molecule Optimization
- arxiv url: http://arxiv.org/abs/2505.23987v1
- Date: Thu, 29 May 2025 20:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.654695
- Title: Large Language Models for Controllable Multi-property Multi-objective Molecule Optimization
- Title(参考訳): 制御可能な多目的分子最適化のための大言語モデル
- Authors: Vishal Dey, Xiao Hu, Xia Ning,
- Abstract要約: 我々はC-MuMOInstructを紹介した。C-MuMOInstructは、明示的でプロパティ固有の目的を持つマルチプロパティ最適化に焦点を当てた最初の命令チューニングデータセットである。
GeLLMO-Cs は命令調整型 LLM で,目標となるプロパティ固有の最適化を行うことができる。
実験の結果,GeLLMO-Csは高いベースラインを一貫して上回り,最大126%の成功率を達成した。
- 参考スコア(独自算出の注目度): 2.152507712409726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-world drug design, molecule optimization requires selectively improving multiple molecular properties up to pharmaceutically relevant levels, while maintaining others that already meet such criteria. However, existing computational approaches and instruction-tuned LLMs fail to capture such nuanced property-specific objectives, limiting their practical applicability. To address this, we introduce C-MuMOInstruct, the first instruction-tuning dataset focused on multi-property optimization with explicit, property-specific objectives. Leveraging C-MuMOInstruct, we develop GeLLMO-Cs, a series of instruction-tuned LLMs that can perform targeted property-specific optimization. Our experiments across 5 in-distribution and 5 out-of-distribution tasks show that GeLLMO-Cs consistently outperform strong baselines, achieving up to 126% higher success rate. Notably, GeLLMO-Cs exhibit impressive 0-shot generalization to novel optimization tasks and unseen instructions. This offers a step toward a foundational LLM to support realistic, diverse optimizations with property-specific objectives. C-MuMOInstruct and code are accessible through https://github.com/ninglab/GeLLMO-C.
- Abstract(参考訳): 現実世界の薬物設計において、分子最適化は、既にそのような基準を満たしている他のものを維持しながら、薬学的に関連するレベルまで、複数の分子特性を選択的に改善する必要がある。
しかし、既存の計算手法や命令で調整されたLLMは、そのような微妙な特性固有の目的を捉えず、実用性に制限を与えている。
そこで我々は,C-MuMOInstructを紹介した。C-MuMOInstructは,マルチプロパティ最適化に着目した最初のインストラクションチューニングデータセットである。
C-MuMOインストラクタを活用することで、ターゲットプロパティ固有の最適化が可能な命令調整型LLMであるGeLLMO-Csを開発する。
その結果,GeLLMO-Csは高いベースラインを常に上回り,最大126%の成功率を達成できた。
特に、GeLLMO-Cは、新しい最適化タスクと目に見えない命令に対して、印象的な0ショットの一般化を示す。
これは、プロパティ固有の目的を持った現実的で多様な最適化をサポートするための基礎的なLLMへのステップを提供する。
C-MuMOInstructとコードはhttps://github.com/ninglab/GeLLMO-Cからアクセス可能である。
関連論文リスト
- Generalizable Heuristic Generation Through Large Language Models with Meta-Optimization [14.919482411153185]
大規模言語モデル (LLM) を用いたヒューリスティック設計が最適化問題に対処するための有望なアプローチとして登場した。
既存のアプローチは、しばしば手動で定義された進化的一般化とシングルタスクのトレーニングスキームに依存している。
本稿では,メタ学習のレベルで機能する新しいフレームワークであるMeta-Optimization of Heuristics(MoH)を提案する。
論文 参考訳(メタデータ) (2025-05-27T08:26:27Z) - ChatMol: A Versatile Molecule Designer Based on the Numerically Enhanced Large Language Model [11.166536730901102]
ゴール指向のデノボ分子設計は、薬物発見において重要な課題である。
そこで我々はChatMolを提案する。ChatMolは多種多様な制約設定における分子設計にLarge Language Modelsを活用する新しいアプローチである。
単一プロパティ、サブ構造プロパティ、マルチプロパティ制約タスクにわたる実験結果は、ChatMolが一貫して最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-27T06:05:45Z) - GeLLMO: Generalizing Large Language Models for Multi-property Molecule Optimization [2.152507712409726]
大規模言語モデル(LLM)は、新しいタスクに対するドメイン外の顕著な一般化性を示す。
複雑なマルチプロパタイト分子最適化タスクに特化した,最初の高品質な命令チューニングデータセットである MuMOInstruct を紹介する。
分子最適化のための命令調整型LCMであるGeLLMOsを開発した。
論文 参考訳(メタデータ) (2025-02-19T03:14:11Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
我々は、MLLMのマルチモーダル推論能力を高めるために、選好最適化(PO)プロセスを導入する。
具体的には、自動選好データ構築パイプラインを設計し、高品質で大規模なマルチモーダル推論選好データセットであるMMPRを作成する。
マルチモーダルCoT性能を向上するMPO(Mixed Preference Optimization)と呼ばれるシンプルな手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - XMOL: Explainable Multi-property Optimization of Molecules [2.320539066224081]
複数の分子特性を同時に最適化するために,分子のマルチプロパティ最適化(XMOL)を提案する。
我々のアプローチは、最先端の幾何学的拡散モデルに基づいており、それらをマルチプロパティ最適化に拡張している。
最適化プロセス全体を通して解釈的および説明可能な技術を統合する。
論文 参考訳(メタデータ) (2024-09-12T06:35:04Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - DrugAssist: A Large Language Model for Molecule Optimization [29.95488215594247]
DrugAssistは、人間と機械の対話を通じて最適化を行う対話型分子最適化モデルである。
DrugAssistは、単一および複数プロパティの最適化において、主要な結果を得た。
分子最適化タスクの微調整言語モデルのための,MomoOpt-Instructionsと呼ばれる大規模命令ベースデータセットを公開している。
論文 参考訳(メタデータ) (2023-12-28T10:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。