論文の概要: MOLLM: Multi-Objective Large Language Model for Molecular Design -- Optimizing with Experts
- arxiv url: http://arxiv.org/abs/2502.12845v1
- Date: Tue, 18 Feb 2025 13:25:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:06:20.030031
- Title: MOLLM: Multi-Objective Large Language Model for Molecular Design -- Optimizing with Experts
- Title(参考訳): MOLLM: 分子設計のための多目的大言語モデル - エキスパートによる最適化
- Authors: Nian Ran, Yue Wang, Richard Allmendinger,
- Abstract要約: 分子設計は、薬物発見、材料科学、化学工学といった分野の発展に重要な役割を果たしている。
分子設計のための多目的大規模言語モデル(MOLLM)は、ドメイン固有の知識と大規模言語モデルの適応性を組み合わせた新しいフレームワークである。
- 参考スコア(独自算出の注目度): 3.9194654197529784
- License:
- Abstract: Molecular design plays a critical role in advancing fields such as drug discovery, materials science, and chemical engineering. This work introduces the Multi-Objective Large Language Model for Molecular Design (MOLLM), a novel framework that combines domain-specific knowledge with the adaptability of Large Language Models to optimize molecular properties across multiple objectives. Leveraging in-context learning and multi-objective optimization, MOLLM achieves superior efficiency, innovation, and performance, significantly surpassing state-of-the-art (SOTA) methods. Recognizing the substantial impact of initial populations on evolutionary algorithms, we categorize them into three types: best initial, worst initial, and random initial, to ensure the initial molecules are the same for each method across experiments. Our results demonstrate that MOLLM consistently outperforms SOTA models in all of our experiments. We also provide extensive ablation studies to evaluate the superiority of our components.
- Abstract(参考訳): 分子設計は、薬物発見、材料科学、化学工学といった分野の発展に重要な役割を果たしている。
分子設計のための多目的大規模言語モデル(MOLLM)は、ドメイン固有の知識と大規模言語モデルの適応性を組み合わせて、複数の目的にまたがる分子特性を最適化する新しいフレームワークである。
文脈内学習と多目的最適化を活用することで、MOLLMはより優れた効率、革新、パフォーマンスを実現し、最先端(SOTA)メソッドを大幅に上回る。
進化的アルゴリズムにおける初期個体群の実質的な影響を認識し、これらの個体群を3つのタイプに分類する: 最良の初期分子、最悪の初期分子、そしてランダム初期分子である。
以上の結果から,MOLLM がSOTA モデルより常に優れていることが示された。
また、我々の成分の優越性を評価するために、広範囲にわたるアブレーション研究も行っている。
関連論文リスト
- Efficient and Effective Weight-Ensembling Mixture of Experts for Multi-Task Model Merging [111.8456671452411]
マルチタスク学習(MTL)は、共有モデルを利用して複数のタスクを遂行し、知識伝達を促進する。
マルチタスクモデル統合のためのウェイトエンセブリング・ミックス・オブ・エキスパート(WEMoE)手法を提案する。
WEMoEとE-WEMoEは, MTL性能, 一般化, 堅牢性の観点から, 最先端(SOTA)モデルマージ法より優れていることを示す。
論文 参考訳(メタデータ) (2024-10-29T07:16:31Z) - Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - Improving Molecular Modeling with Geometric GNNs: an Empirical Study [56.52346265722167]
本稿では,異なる標準化手法,(2)グラフ作成戦略,(3)補助的なタスクが性能,拡張性,対称性の強制に与える影響に焦点をあてる。
本研究の目的は,分子モデリングタスクに最適なモデリングコンポーネントの選択を研究者に案内することである。
論文 参考訳(メタデータ) (2024-07-11T09:04:12Z) - Efficient Evolutionary Search Over Chemical Space with Large Language Models [31.31899988523534]
最適化の目的は区別できない。
化学対応大規模言語モデル(LLM)を進化的アルゴリズムに導入する。
我々のアルゴリズムは最終解の質と収束速度の両方を改善する。
論文 参考訳(メタデータ) (2024-06-23T06:22:49Z) - Latent Chemical Space Searching for Plug-in Multi-objective Molecule Generation [9.442146563809953]
本研究では, 標的親和性, 薬物類似性, 合成性に関連する目的を組み込んだ, 汎用的な「プラグイン」分子生成モデルを構築した。
我々はPSO-ENPを多目的分子生成と最適化のための最適変種として同定する。
論文 参考訳(メタデータ) (2024-04-10T02:37:24Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - A quantitative analysis of knowledge-learning preferences in large language models in molecular science [24.80165173525286]
大規模言語モデル(LLM)は、自然言語処理(NLP)の観点から科学的問題に取り組むための新しい研究パラダイムを導入している。
LLMは分子の理解と生成を著しく強化し、しばしば複雑な分子パターンをデコードし合成する能力で既存の手法を超越している。
我々は、ChEBI-20-MMというマルチモーダルベンチマークを提案し、モデルとデータモダリティとの互換性と知識獲得を評価する1263の実験を行った。
論文 参考訳(メタデータ) (2024-02-06T16:12:36Z) - Molecule optimization via multi-objective evolutionary in implicit
chemical space [8.72872397589296]
MOMOは、化学知識の学習と多目的進化探索を組み合わせた多目的分子最適化フレームワークである。
4つの多目的特性と類似性最適化タスクにおけるMOMOの性能を実証し、ケーススタディを通してMOMOの探索能力を示す。
論文 参考訳(メタデータ) (2022-12-17T09:09:23Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Multi-Objective Latent Space Optimization of Generative Molecular Design Models [3.1996400013865656]
生成分子設計(GMD)の性能を大幅に向上させる多目的潜在空間最適化(LSO)法を提案する。
複数分子特性を共同最適化するための多目的GMD LSO法は, GMDの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-01T15:12:05Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。