論文の概要: How to Make Large Language Models Generate 100% Valid Molecules?
- arxiv url: http://arxiv.org/abs/2509.23099v1
- Date: Sat, 27 Sep 2025 04:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.03663
- Title: How to Make Large Language Models Generate 100% Valid Molecules?
- Title(参考訳): 100%有効な分子を生成するには?
- Authors: Wen Tao, Jing Tang, Alvin Chan, Bryan Hooi, Baolong Bi, Nanyun Peng, Yuansheng Liu, Yiwei Wang,
- Abstract要約: 大規模言語モデル(LLM)は、いくつかの例から幅広いタスクを実行することを学べる。
SMILESのような表現を使って有効な分子を生成することは、数ショット設定でLLMにとって難しい。
無効なSMILES訂正のためのクロスケミカル言語フレームワークであるSmiSelfを紹介する。
- 参考スコア(独自算出の注目度): 82.89165081942201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Molecule generation is key to drug discovery and materials science, enabling the design of novel compounds with specific properties. Large language models (LLMs) can learn to perform a wide range of tasks from just a few examples. However, generating valid molecules using representations like SMILES is challenging for LLMs in few-shot settings. In this work, we explore how LLMs can generate 100% valid molecules. We evaluate whether LLMs can use SELFIES, a representation where every string corresponds to a valid molecule, for valid molecule generation but find that LLMs perform worse with SELFIES than with SMILES. We then examine LLMs' ability to correct invalid SMILES and find their capacity limited. Finally, we introduce SmiSelf, a cross-chemical language framework for invalid SMILES correction. SmiSelf converts invalid SMILES to SELFIES using grammatical rules, leveraging SELFIES' mechanisms to correct the invalid SMILES. Experiments show that SmiSelf ensures 100% validity while preserving molecular characteristics and maintaining or even enhancing performance on other metrics. SmiSelf helps expand LLMs' practical applications in biomedicine and is compatible with all SMILES-based generative models. Code is available at https://github.com/wentao228/SmiSelf.
- Abstract(参考訳): 分子生成は医薬品の発見と材料科学の鍵であり、特定の性質を持つ新規化合物の設計を可能にする。
大規模言語モデル(LLM)は、いくつかの例から幅広いタスクを実行することを学べる。
しかし、SMILESのような表現を使って有効な分子を生成することは、数ショット設定でLLMにとって困難である。
本研究では, LLMが100%有効な分子を生成する方法について検討する。
LLMがSELFIES(全ての文字列が有効な分子に対応する表現)を有効分子生成に使えるかどうかを評価するが、LSMはSMILESよりもSELFIESよりも優れている。
次に、無効なSMILESを補正するLLMの能力を検証し、その容量を限定する。
最後に、無効なSMILES訂正のためのクロスケミカル言語フレームワークであるSmiSelfを紹介する。
SmiSelfは、無効なSMILESを文法規則を用いてSELFIESに変換し、SELFIESのメカニズムを利用して無効なSMILESを修正する。
実験の結果、SmiSelfは分子特性を保ちながら100%の妥当性を保証し、他のメトリクスのパフォーマンスを維持または向上することさえ示している。
SmiSelf は LLM のバイオメディシンへの応用を拡大し、全てのSMILES ベースの生成モデルと互換性がある。
コードはhttps://github.com/wentao228/SmiSelf.comから入手できる。
関連論文リスト
- ChemMLLM: Chemical Multimodal Large Language Model [52.95382215206681]
分子理解と生成のための化学多モーダル大規模言語モデルであるChemMLLMを提案する。
また、テキスト、分子SMILES文字列、画像にまたがる5つのマルチモーダルタスクを設計し、データセットをキュレートする。
実験結果から,ChemMLLMは評価された全てのタスクにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-05-22T07:32:17Z) - An Empirical Study of Many-to-Many Summarization with Large Language Models [82.10000188179168]
大規模言語モデル(LLM)は強い多言語能力を示しており、実アプリケーションでM2MS(Multi-to-Many summarization)を実行する可能性を秘めている。
本研究は,LLMのM2MS能力に関する系統的研究である。
論文 参考訳(メタデータ) (2025-05-19T11:18:54Z) - mCLM: A Function-Infused and Synthesis-Friendly Modular Chemical Language Model [65.69164455183956]
分子をビルディングブロックにトークン化するモジュール型ケミカルランゲージモデルであるmCLMを提案し,関数と分子ビルディングブロックの両方の自然言語記述のバイリンガル言語モデルを学習する。
FDAが承認した430種類の薬物の実験では、mCLMは薬物のポテンシャルを決定するのに不可欠な6つの化学機能のうち5つを著しく改善できることがわかった。
論文 参考訳(メタデータ) (2025-05-18T22:52:39Z) - SmileyLlama: Modifying Large Language Models for Directed Chemical Space Exploration [2.5159482339113084]
汎用大規模言語モデル (LLM) が化学言語モデル (CLM) に変換可能であることを示す。
SmileyLlamaを、大量のChEMBLデータをスクラッチから訓練したCLMと比較し、有効で新規な薬物様分子を生成する能力を評価した。
論文 参考訳(メタデータ) (2024-09-03T18:59:20Z) - Can Large Language Models Empower Molecular Property Prediction? [16.5246941211725]
分子特性の予測は、科学分野における形質転換の可能性によって大きな注目を集めている。
近年,Large Language Models (LLMs) が急速に発展し,NLPの分野に革命をもたらした。
本研究では、ゼロ/フェーショットの分子分類と、LLMによって生成された新しい説明を分子の表現として用いるという2つの視点を通して、この目的に向けて前進する。
論文 参考訳(メタデータ) (2023-07-14T16:06:42Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。